1. 程式人生 > >spark開發環境——PyCharm開發python的spark專案

spark開發環境——PyCharm開發python的spark專案

1.點選執行-編輯結構


2.在python的環境變數中新加一個PYTHONPATH

在其值中加入本地的spark中的python資料夾

D:\spark\spark-2.2.0-bin-hadoop2.6\python

以及本地的spark中的python資料夾中的lib下的py4j-0.10.4-src.zip    

D:\spark\spark-2.2.0-bin-hadoop2.6\python\lib\py4j-0.10.4-src.zip




3.專案關聯py4j-some-version.zip和pyspark.zip兩個zip包

開啟檔案-設定-專案-ProjecStructure,選擇Add Content Root,選中spark安裝目錄下的python中的lib中的兩個zip包