1. 程式人生 > >用spark分析北京積分落戶資料,按使用者所在單位分析

用spark分析北京積分落戶資料,按使用者所在單位分析

載入剛才解析json格式儲存而成的csv檔案。

按使用者所在單位分析

df = spark.read.format("csv").option("header", "true").load("jifenluohu.csv")
#df.show()
df.createOrReplaceTempView("jflh")
#計算總數
spark.sql("select count(1) as num from jflh").show()
#按公司分組
spark.sql("select unit,count(1) as num from jflh group by unit order by num desc").show()