SparkSQL会见Hive碰着的题目及办理要领
发布时间:2019-10-12 06:46:53 所属栏目:教程 来源:若泽大数据
导读:必要先将hadoop的core-site.xml,hive的hive-site.xml拷贝到project中 测试代码 报错 查察源码 办理要领 将$HIVE_HOME/lib下的spark-hive_2.11-2.4.2.jar与spark-hive-thriftserver_2.11-2.4.2.jar添加到project中 继承报错 查察源码 进入ConfVars 发明Con
必要先将hadoop的core-site.xml,hive的hive-site.xml拷贝到project中 测试代码 ![]() 报错 ![]() 查察源码 ![]() 办理要领 将$HIVE_HOME/lib下的spark-hive_2.11-2.4.2.jar与spark-hive-thriftserver_2.11-2.4.2.jar添加到project中 继承报错 ![]() 查察源码 ![]() 进入ConfVars ![]() 发明ConfVars中界说的变量并没有METASTORE_CLIENT_SOCKET_LIFETIME,而HiveConf.java来自于hive-exec-1.1.0-cdh5.7.0.jar,即证明hive1.1.0中并没有若是该参数。 办理要领 将hive依靠换为1.2.1 ![]() 继承报错 ![]() 办理要领 这是由于远端没有启动hive造成的,启动hive时必要设置metastore。
(编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
站长推荐
热点阅读