1. 程式人生 > >pyspark map,reduce接收引數

pyspark map,reduce接收引數

檢視spark官方檔,發現map, reduce的方法都指定只能代如固定一個引數(map)或者兩個引數(reduce)

現在工作發現,想要多把代入引數到map,和reduce的方法裡面.

查了下,發現以下方法。

先定義一個函式:

def func(a, extra_para):
    k =  a + extra_para
    return k

然後map 的時候:
rdd = rd.map(lambda row:func(1,2))

這樣就能代入另外的引數到map, reduce中

參考url:

http://stackoverflow.com/questions/34087578/how-to-pass-additional-parameters-to-user-defined-methods-in-pyspark-for-filter