1. 程式人生 > >Pycharm+Spark開發配置

Pycharm+Spark開發配置

1.安裝py4j:  pip install py4j。

2.python安裝目錄下site-packages下新建pyspark.pth檔案,內容為:

C:\spark-1.6.2-bin-hadoop2.6\python\。

3.配置環境變數:SPARK_HOME,值為“C:\spark-1.6.2-bin-hadoop2.6”。


重新開啟PyCharm。

既能執行Spark程式,又能解決python程式中“from pyspark import SparkContext”顯示為找不到包的問題。

from pyspark import SparkContext

sc = SparkContext("local", "Test")


d = sc.textFile("E:\\a.txt").cache()
print d.count()
sc.stop()