zxq997

2019-06-26   阅读量: 813

初始化hive的时候提示 没有spark相关的包

扫码加入数据分析学习群

初始化hive的时候报错:

ls: cannot access /home/hadoop/spark-2.2.0-bin-hadoop2.6/lib/spark-assembly-*.jar: No such file or directory

这是什么原因?

答:原因是

spark升级到spark2以后,原有lib目录下的大JAR包被分散成多个小JAR包,原来的spark-assembly-*.jar已经不存在,所以hive没有办法找到这个JAR包。

解决方法

打开hive的安装目录下的bin目录,找到hive文件

#vim hive

修改含有sparkAssemblyPath的那一行,修改如下

sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`

0.0000 0 3 关注作者 收藏

评论(0)


暂无数据

推荐课程