1. 程式人生 > >IDEA配置Spark找不到spark-assembly-*.jar

IDEA配置Spark找不到spark-assembly-*.jar

按照部落格在IDEA上配置Spark環境,所有部落格都寫的是:

 【匯入spark包】

  在專案頁“File” -> "project structure" -> "Libraries", 點“+”,選“java”,找到spark-assembly-1.2.0-hadoop2.4.0.jar匯入,這樣就可以編寫spark的scala程式了

問題是我在spark資料夾中根本沒有看到spark-assembly-*.jar?????

後來才發現因為spark升級到spark2以後,原有lib目錄下的大JAR包被分散成多個小JAR包,原來的spark-assembly-*.jar已經不存在。原來的jar包分解為:jars/*.jar

所以匯入的時候直接匯入spark資料夾中的所有jar包就可以了。

記錄一下備忘。