1. 程式人生 > >spark-submit 執行出現“Cannot allocate memory”錯誤

spark-submit 執行出現“Cannot allocate memory”錯誤

There is issufficient memory for the Java Runtime Environment to continue. 

Native memory allocation(malloc) failed to allocate xxx bytes for committing reserved memory.

一、原因分析

1. spark-env.sh 配置不合理

cd $SPARK_HOME/conf
vi spark-env.sh

檢視SPARK_DRIVER_MEMORY的值是否設定過大,導致本機器記憶體不夠無法執行。

2. spark-submit 命令中引數設定不合理

1)spark-submit 命令中沒有給定 driver-memory引數

會參照spark-env.sh中設定的值

2)spark-submit 命令中給定driver-memory引數的值過大