1. 程式人生 > >記錄-----解決Spark之submit任務時的Initial job has not accepted any resources; check your cluster UI to ensu問題

記錄-----解決Spark之submit任務時的Initial job has not accepted any resources; check your cluster UI to ensu問題

大多數是叢集資源有限導致的問題。注意合理分配資源

原則1:首先,保證至少有一個executor可以成功啟動,否則,提交的spark應用是無法跑起來的

如何保證?

第一點:--executor-cores <= SPARK_WORKER_CORES(spark-env.sh中設定的引數),否則會出現資源不足報錯

第二點:--executor-memorry <= SPARK_WORKER_MEMORY(spark-env.sh中設定的引數),否則會出現資源不足報錯

第三點:--executor-memory >= 470m

SPARK_WORKER_CORES和SPARK_WORKER_MEMORY在spark MasterWebUI(

http://master:8080/)中體現如下圖:

一、二兩點報錯體現如下:

報錯在日誌中體現如圖:

報錯在WebUI中體現如圖,無任何executor啟動:

第三點報錯體現如下:

報錯在日誌中體現如圖:

報錯在WebUI中體現如圖,大致意思為資源不足

原則2:根據SPARK_WORKER_CORES和SPARK_WORKER_MEMORY值,在配置時,儘量平均分配

閱讀spark原始碼,理解資源分配演算法

另外,測試發現,SPARK_WORKER_CORES和SPARK_WORKER_MEMORY值,與主機資源不符時,應用也會出錯

雖然有executor啟動,但應用無法正常計算,還是會報錯

參考連結:

相關推薦

記錄-----解決Sparksubmit任務Initial job has not accepted any resources; check your cluster UI to ensu問題

大多數是叢集資源有限導致的問題。注意合理分配資源 原則1:首先,保證至少有一個executor可以成功啟動,否則,提交的spark應用是無法跑起來的 如何保證? 第一點:--executor-cores <= SPARK_WORKER_CORES(spark-

spark叢集在執行任務出現nitial job has not accepted any resources; check your cluster UI to ensure that worker

1 spark叢集在執行任務時出現了:     2 原因:這是因為預設分配的記憶體過大(1024M) 3 解決方法:      在conf/spark-env.sh下新增export  SPARK_WORKER_MEMORY=512和export  SPARK

spark WARNTaskSchedulerImpl:Initial job has not accepted any resources; check your cluster UI to

spark在提交任務時,出現如下錯誤: 15/03/26 22:29:36 WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensur

spark-submit 報錯 Initial job has not accepted any resources

錯誤原因是記憶體缺少資源如果是master使用yarn-client模式則會讀取conf/spark-env.sh中的配置。如果是master使用yarn-cluster模式則會讀取conf/spark-default.conf中的配置。我的虛擬機器記憶體只有1g,所以spa

SparkInitial job has not accepted any resources

我在本地寫了個 Spark 的 Driver,執行 local 模式沒問題,當把 master 改成了遠端的 spark://ip:7077 就會卡主,報下面這個 WARN: Initial job has not accepted any resour

解決在gradle構建project,發生peer not authenticated錯誤的方法

開發十年,就只剩下這套架構體系了! >>>   

記錄一次svn報錯:[Previous operation has not finished; run 'cleanup' if it was interrupted] 的排錯過程

       前言:由於目前客戶習慣使用SVN管理程式碼,所以仍在使用SVN做程式碼管理,管理方式雖然落伍,但客戶粑粑就是上帝~~        今天在改完十幾個類檔案批量提交時,在程式碼提交SVN伺服器過程中,電腦突然性卡死一大會沒有反應,果斷採取關閉然後重啟開發工具的方

編譯ionic出錯:You have not accepted the license agreements of the following SDK components

最近安裝ionic後,新建了一個專案,結果在編譯是重試幾次都出錯: BUILD FAILED Total time: 3.638 secs Error: cmd: Command failed with exit code 1 Error output: FAILURE:

【安裝Python環境】“安裝 setuptools ”出現的問題以及解決辦法

ace python環境 str ots tar oot bsp users 默認 安裝Python環境時,還需要安裝“setuptools 與 pip”,但是安裝setuptools時出現了幾個問題,如下: setuptools 與 pip 下載地址如下:https://

Spark性能調優道——解決Spark數據傾斜(Data Skew)的N種姿勢

sca ace 便是 triplet 大小 spark 構建 由於 itl 原文:http://blog.csdn.net/tanglizhe1105/article/details/51050974 背景 很多使用Spark的朋友很想知道rdd

運維學習系統延任務、定時任務以及臨時文件的管理

linux系統的延時及定時任務1.延時任務at 命令 發起的任務都是一次性的at +time下圖表示在21:22分進行刪除命令命令ctrl+d 表示發起動作at -l | atq #查看當前任務at -d | atrm #取消指定任務at -c #查看任務內容由圖二知主要執行touch這條命令at n

Spark性能優化道——解決Spark數據傾斜(Data Skew)的N種姿勢

至少 array 效率提升 default executors 並行處理 foreach shp 來源 原創文章,轉載請務必將下面這段話置於文章開頭處。本文轉發自技術世界,原文鏈接 http://www.jasongj.com/spark/skew/ 摘要 本文結合

spark提交jar包出現unsupported major.minor version 52.0錯誤的解決方案

模式 classname jdk版本 images pil 編譯器 就會 home spark 一、問題:     最近在spark集群上做一個項目,打包提交jar包時,出現了unsupported major.minor version 52.0的報錯,而在local模式

ELK 學習筆記 elasticsearch啟動Warning解決辦法

筆記 檢查 所有 sts linux系統 requires bin jdk版本 ado elasticsearch啟動時Warning解決辦法: 轉載:http://www.dajiangtai.com/community/18136.do?origin=csdn-ge

mybatis 關聯查詢,從表只返回第一條記錄解決辦法

bean mod 第一條 solid ews 解決辦法 prop ica 元素 如果兩表聯查,主表和明細表的主鍵都是id的話,明細表的多條只能查詢出來第一條。 造成以上情況可能的

大資料Spark(二)--- RDD,RDD變換,RDD的Action,解決spark的資料傾斜問題,spark整合hadoop的HA

一、Spark叢集執行 ------------------------------------------------------- 1.local //本地模式 2.standalone //獨立模式 3.yarn //yarn模式

Spring+Quartz+Hibernate做定時任務不能獲得Session的解決方法

今天在做專案是遇到,Spring+Quartz+Hibernate做定時任務時不能獲得Session;記錄下來方便以後檢視 方案如下: http://forum.spring.io/forum/spring-projects/container/102822-how-to-get-a

Python——解決Kali安裝python-dev依賴出錯的問題

轉載請註明出處:https://blog.csdn.net/l1028386804/article/details/83120113 一、問題現象 在Kali下寫python程式碼的時候,有時會需要安裝一些第三方的庫,安裝的時候提示: SystemError: Cannot comp

Spark-原始碼-Spark-Submit 任務提交

Spark 版本:1.3 呼叫shell, spark-submit.sh args[]   首先是進入 org.apache.spark.deploy.SparkSubmit 類中呼叫他的 main() 方法 def main(args: Array[String])

spark on yarn任務提交緩慢解決

1.為什麼要讓執行時Jar可以從yarn端訪問spark2以後,原有lib目錄下的大JAR包被分散成多個小JAR包,原來的spark-assembly-*.jar已經不存在 每一次我們執行的時候,如果沒有指定 spark.yarn.archive or spark.yarn.jars Spark將在安裝路徑