上一页 1 ··· 24 25 26 27 28 29 30 31 32 ··· 45 下一页
摘要: 问题:HUE依赖Oozie 所以Oozie不能够卸载,好坑啊 解决思路; 重新装回来,但是不启动Oozie,节约一部分性能。 阅读全文
posted @ 2019-06-08 20:26 Questions张 阅读(328) 评论(0) 推荐(0)
摘要: 1 详细异常 2 查询Stack Overflow里面问答 https://stackoverflow.com/questions/54036028/spark-executor-heartbeat-timed-out-after-x-ms 3 解决 提交spark submit任务的时候,加大超时 阅读全文
posted @ 2019-06-08 20:25 Questions张 阅读(4831) 评论(2) 推荐(0)
摘要: 查看日志:yarn logs -applicationId application_xxx 导入到外部文件 yarn logs -applicationId application_xxx >> temp.log 然后自己就可以用tail或者grep去查看日志了。 阅读全文
posted @ 2019-06-06 11:28 Questions张 阅读(1031) 评论(0) 推荐(0)
摘要: SQL如下 阅读全文
posted @ 2019-06-06 10:35 Questions张 阅读(5248) 评论(0) 推荐(0)
摘要: 1 异常信息 2 因为自己的/etc/profile有不存在的配置,注释掉即可 阅读全文
posted @ 2019-06-01 16:46 Questions张 阅读(2319) 评论(0) 推荐(0)
摘要: 1 Phoenix远程无法连接但是本地可以连接,详细异常 2 仔细观察异常信息,发现连接是localhost信息,如果是本机访问当然没有问题,但是远程访问肯定就有问题,知道问题所在,开始排查 3 语网友说是要设置dns,感觉太复杂了, https://blog.51cto.com/yaoyinjie 阅读全文
posted @ 2019-06-01 12:34 Questions张 阅读(8017) 评论(0) 推荐(0)
摘要: 1 异常信息 2 原因以及解决思路 <!--?xml version="1.0" encoding="UTF-8"?--> core-site.xml 与 hdfs-site.xml中的hdfs存储路径设置不一致,修改成一致的即可解决问题 阅读全文
posted @ 2019-06-01 12:23 Questions张 阅读(1895) 评论(0) 推荐(0)
摘要: 1 详细异常信息 2 原因 自己之前的hbase存储的文件路径是本地文件系统,修改为HDFS路径后,Phoenix找不到系统表 3 解决办法 a 先删除Zookeeper里面的hbase信息 b 重启hbase,重新初始化 c 重新启动Phoenix解决问题 如果是生产环境,不能够重新初始化hbas 阅读全文
posted @ 2019-06-01 12:20 Questions张 阅读(1633) 评论(0) 推荐(0)
摘要: 1 异常信息 2 原因 因为core-site.xml 和 hdfs-site.xml配置了不一致的Hadoop.tmp.dir 目录,导致总是出现问题,删除掉core-site.xml中的tmp.dir配置,统一配置到hdfs-site.xml中 hdfs-site.xml中的dir配置 阅读全文
posted @ 2019-05-30 21:16 Questions张 阅读(737) 评论(0) 推荐(0)
摘要: 1 yarn application -list 阅读全文
posted @ 2019-05-27 19:48 Questions张 阅读(2022) 评论(0) 推荐(0)
上一页 1 ··· 24 25 26 27 28 29 30 31 32 ··· 45 下一页