久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

Hive在spark2.0.0啟動時無法訪問../lib/spark

 陳永正的圖書館 2016-11-01

最近將整個架構(gòu)升級到Spark 2.0.0之后,,發(fā)現(xiàn)一個問題,,就是每次進行Hive --service metastore啟動的時候,總是會報一個小BUG,。

無法訪問/home/ndscbigdata/soft/spark-2.0.0/lib/spark-assembly-*.jar: 沒有那個文件或目錄。


而這一行究竟是怎么回事,,網(wǎng)上沒有任何有關(guān)的資料。


沒辦法,,只好一步一步分析,終于找到問題的癥結(jié),。


其主要的原因是:在hive.sh的文件中,,發(fā)現(xiàn)了這樣的命令,,原來初始當spark存在的時候,進行spark中相關(guān)的JAR包的加載,。而自從spark升級到2.0.0之后,原有的lib的整個大JAR包已經(jīng)被分散的小JAR包的替代,,所以肯定沒有辦法找到這個spark-assembly的JAR包,。這就是問題所在,。

# add Spark assembly jar to the classpath
if [[ -n "$SPARK_HOME" ]]
then
  sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
  CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"


將這個spark-assembly-*.jar`替換成jars/*.jar,就不會出現(xiàn)這樣的問題,。


這也印證了各個軟件升級過程中如何涉及到自動聯(lián)運或者向下兼容的問題。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點,。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導購買等信息,,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多