記錄-----解決Spark之submit任務時的Initial job has not accepted any resources; check your cluster UI to ensu問題
大多數是叢集資源有限導致的問題。注意合理分配資源
原則1:首先,保證至少有一個executor可以成功啟動,否則,提交的spark應用是無法跑起來的
如何保證?
第一點:--executor-cores <= SPARK_WORKER_CORES(spark-env.sh中設定的引數),否則會出現資源不足報錯
第二點:--executor-memorry <= SPARK_WORKER_MEMORY(spark-env.sh中設定的引數),否則會出現資源不足報錯
第三點:--executor-memory >= 470m
SPARK_WORKER_CORES和SPARK_WORKER_MEMORY在spark MasterWebUI(
一、二兩點報錯體現如下:
報錯在日誌中體現如圖:
報錯在WebUI中體現如圖,無任何executor啟動:
第三點報錯體現如下:
報錯在日誌中體現如圖:
報錯在WebUI中體現如圖,大致意思為資源不足
原則2:根據SPARK_WORKER_CORES和SPARK_WORKER_MEMORY值,在配置時,儘量平均分配
閱讀spark原始碼,理解資源分配演算法
另外,測試發現,SPARK_WORKER_CORES和SPARK_WORKER_MEMORY值,與主機資源不符時,應用也會出錯
雖然有executor啟動,但應用無法正常計算,還是會報錯
參考連結:
相關推薦
記錄-----解決Spark之submit任務時的Initial job has not accepted any resources; check your cluster UI to ensu問題
大多數是叢集資源有限導致的問題。注意合理分配資源 原則1:首先,保證至少有一個executor可以成功啟動,否則,提交的spark應用是無法跑起來的 如何保證? 第一點:--executor-cores <= SPARK_WORKER_CORES(spark-
spark叢集在執行任務出現nitial job has not accepted any resources; check your cluster UI to ensure that worker
1 spark叢集在執行任務時出現了: 2 原因:這是因為預設分配的記憶體過大(1024M) 3 解決方法: 在conf/spark-env.sh下新增export SPARK_WORKER_MEMORY=512和export SPARK
spark WARNTaskSchedulerImpl:Initial job has not accepted any resources; check your cluster UI to
spark在提交任務時,出現如下錯誤: 15/03/26 22:29:36 WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensur
spark-submit 報錯 Initial job has not accepted any resources
錯誤原因是記憶體缺少資源如果是master使用yarn-client模式則會讀取conf/spark-env.sh中的配置。如果是master使用yarn-cluster模式則會讀取conf/spark-default.conf中的配置。我的虛擬機器記憶體只有1g,所以spa
Spark:Initial job has not accepted any resources
我在本地寫了個 Spark 的 Driver,執行 local 模式沒問題,當把 master 改成了遠端的 spark://ip:7077 就會卡主,報下面這個 WARN: Initial job has not accepted any resour
解決在gradle構建project時,發生peer not authenticated錯誤的方法
開發十年,就只剩下這套架構體系了! >>>
記錄一次svn報錯:[Previous operation has not finished; run 'cleanup' if it was interrupted] 的排錯過程
前言:由於目前客戶習慣使用SVN管理程式碼,所以仍在使用SVN做程式碼管理,管理方式雖然落伍,但客戶粑粑就是上帝~~ 今天在改完十幾個類檔案批量提交時,在程式碼提交SVN伺服器過程中,電腦突然性卡死一大會沒有反應,果斷採取關閉然後重啟開發工具的方
編譯ionic時出錯:You have not accepted the license agreements of the following SDK components
最近安裝ionic後,新建了一個專案,結果在編譯是重試幾次都出錯: BUILD FAILED Total time: 3.638 secs Error: cmd: Command failed with exit code 1 Error output: FAILURE:
【安裝Python環境】之“安裝 setuptools ”時出現的問題以及解決辦法
ace python環境 str ots tar oot bsp users 默認 安裝Python環境時,還需要安裝“setuptools 與 pip”,但是安裝setuptools時出現了幾個問題,如下: setuptools 與 pip 下載地址如下:https://
Spark性能調優之道——解決Spark數據傾斜(Data Skew)的N種姿勢
sca ace 便是 triplet 大小 spark 構建 由於 itl 原文:http://blog.csdn.net/tanglizhe1105/article/details/51050974 背景 很多使用Spark的朋友很想知道rdd
運維學習之系統延時任務、定時任務以及臨時文件的管理
linux系統的延時及定時任務1.延時任務at 命令 發起的任務都是一次性的at +time下圖表示在21:22分進行刪除命令命令ctrl+d 表示發起動作at -l | atq #查看當前任務at -d | atrm #取消指定任務at -c #查看任務內容由圖二知主要執行touch這條命令at n
Spark性能優化之道——解決Spark數據傾斜(Data Skew)的N種姿勢
至少 array 效率提升 default executors 並行處理 foreach shp 來源 原創文章,轉載請務必將下面這段話置於文章開頭處。本文轉發自技術世界,原文鏈接 http://www.jasongj.com/spark/skew/ 摘要 本文結合
spark提交jar包時出現unsupported major.minor version 52.0錯誤的解決方案
模式 classname jdk版本 images pil 編譯器 就會 home spark 一、問題: 最近在spark集群上做一個項目,打包提交jar包時,出現了unsupported major.minor version 52.0的報錯,而在local模式
ELK 學習筆記之 elasticsearch啟動時Warning解決辦法
筆記 檢查 所有 sts linux系統 requires bin jdk版本 ado elasticsearch啟動時Warning解決辦法: 轉載:http://www.dajiangtai.com/community/18136.do?origin=csdn-ge
mybatis 關聯查詢時,從表只返回第一條記錄解決辦法
bean mod 第一條 solid ews 解決辦法 prop ica 元素 如果兩表聯查,主表和明細表的主鍵都是id的話,明細表的多條只能查詢出來第一條。 造成以上情況可能的
大資料之Spark(二)--- RDD,RDD變換,RDD的Action,解決spark的資料傾斜問題,spark整合hadoop的HA
一、Spark叢集執行 ------------------------------------------------------- 1.local //本地模式 2.standalone //獨立模式 3.yarn //yarn模式
Spring+Quartz+Hibernate做定時任務時不能獲得Session的解決方法
今天在做專案是遇到,Spring+Quartz+Hibernate做定時任務時不能獲得Session;記錄下來方便以後檢視 方案如下: http://forum.spring.io/forum/spring-projects/container/102822-how-to-get-a
Python之——解決Kali安裝python-dev時依賴出錯的問題
轉載請註明出處:https://blog.csdn.net/l1028386804/article/details/83120113 一、問題現象 在Kali下寫python程式碼的時候,有時會需要安裝一些第三方的庫,安裝的時候提示: SystemError: Cannot comp
Spark-原始碼-Spark-Submit 任務提交
Spark 版本:1.3 呼叫shell, spark-submit.sh args[] 首先是進入 org.apache.spark.deploy.SparkSubmit 類中呼叫他的 main() 方法 def main(args: Array[String])
spark on yarn任務提交緩慢解決
1.為什麼要讓執行時Jar可以從yarn端訪問spark2以後,原有lib目錄下的大JAR包被分散成多個小JAR包,原來的spark-assembly-*.jar已經不存在 每一次我們執行的時候,如果沒有指定 spark.yarn.archive or spark.yarn.jars Spark將在安裝路徑