spark問題與排查
ERROR ActorSystemImpl: Uncaught fatal error from thread [sparkDriverActorSystem-akka.actor.default-dispatcher-379] shutting down ActorSystem [sparkDriverActorSystem]
java.lang.OutOfMemoryError: Java heap space 原因:thriftserver的堆記憶體不足
解決辦法: 重啟thriftserver,並調大executor-memory記憶體(不能超過spark總剩餘記憶體,如超過,可調大spark-env.sh中的SPARK_WORKER_MEMORY引數,並重啟spark叢集。
在spark-defaults.conf中調大driver引數
spark.driver.memory 2g
同時在spark-env.sh中同樣設定
export SPARK_DRIVER_MEMORY=2g
2、Caused by: java.lang.OutOfMemoryError: GC overhead limit exceeded
JDK6新增錯誤型別。當GC為釋放很小空間佔用大量時間時丟擲。
在JVM中增加該選項 -XX:-UseGCOverheadLimit 關閉限制GC的執行時間(預設啟用 )
在spark-defaults.conf中增加以下引數
spark.executor.extraJavaOptions -XX:-UseGCOverheadLimit
spark.driver.extraJavaOptions -XX:-UseGCOverheadLimit
3、spark 錯誤描述:
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category READ is not supported in state standby
原因:
NN主從切換時,spark報上述錯誤,經分析spark-defaults.conf配置引數spark.eventLog.dir寫死了其中一個NN的IP,導致主從切換時,無法讀日誌。解決:
另外,跟應用程式使用的checkpoint也有關係,首次啟動應用程式時,建立了一個新的sparkcontext,而該sparkcontext綁定了具體的NN ip,
往後每次程式重啟,由於應用程式碼【StreamingContext.getOrCreate(checkpointDirectory, functionToCreateContext _)】將從已有checkpoint目錄匯入checkpoint 資料來重新建立 StreamingContext 例項。
如果 checkpointDirectory 存在,那麼 context 將匯入 checkpoint 資料。如果目錄不存在,函式 functionToCreateContext 將被呼叫並建立新的 context。
故出現上述異常。
針對測試系統:
1、將某個NN固定IP改成nameservice對應的值
2、清空應用程式的checkpoint日誌
3、重啟應用後,切換NN,spark應用正常
4、獲取每次記憶體GC資訊
spark-defaults.conf中增加:
spark.executor.extraJavaOptions -XX:+PrintGC -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+PrintGCDateStamps -XX:+PrintGCApplicationStoppedTime -XX:+PrintHeapAtGC -XX:+PrintGCApplicationConcurrentTime -Xloggc:gc.log
5、timeout,報錯:
17/10/18 17:33:46 WARN TaskSetManager: Lost task 1393.0 in stage 382.0 (TID 223626, test-ssps-s-04): ExecutorLostFailure (executor 0 exited caused by one of the running tasks)
Reason:Executor heartbeat timed out after 173568 ms
17/10/18 17:34:02 WARN NettyRpcEndpointRef: Error sending message [message = KillExecutors(app-20171017115441-0012,List(8))] in 2 attempts
org.apache.spark.rpc.RpcTimeoutException: Futures timed out after [120 seconds]. This timeout is controlled by spark.rpc.askTimeout
at org.apache.spark.rpc.RpcTimeout.org$apache$spark$rpc$RpcTimeout$$createRpcTimeoutException(RpcTimeout.scala:48)
網路或者gc引起,worker或executor沒有接收到executor或task的心跳反饋。
提高 spark.network.timeout 的值,根據情況改成300(5min)或更高。
預設為 120(120s),配置所有網路傳輸的延時
spark.network.timeout 300000
6、通過sparkthriftserver讀取lzo檔案報錯:
ClassNotFoundException: Class com.hadoop.compression.lzo.LzoCodec not found
在spark-env.sh中增加如下配置:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/hadoop/hadoop-2.2.0/lib/native
export SPARK_LIBRARY_PATH=$SPARK_LIBRARY_PATH:/home/hadoop/hadoop-2.2.0/lib/native
export SPARK_CLASSPATH=$SPARK_CLASSPATH:/home/hadoop/hadoop-2.2.0/share/hadoop/yarn/*:/home/hadoop/hadoop-2.2.0/share/hadoop/yarn/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/common/*:/home/hadoop/hadoop-2.2.0/share/hadoop/common/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/hdfs/*:/home/hadoop/hadoop-2.2.0/share/hadoop/hdfs/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/mapreduce/*:/home/hadoop/hadoop-2.2.0/share/hadoop/mapreduce/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/tools/lib/*:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/*
並分發到各節點
重啟spark thrift server執行正常
7、spark worker中釋出executor頻繁報錯,陷入死迴圈(新建->失敗->新建->失敗.....)
work日誌:
Asked to launch executor app-20171024225907-0018/77347 for org.apache.spark.sql.hive.thriftserver.HiveThriftServer2
worker.ExecutorRunner (Logging.scala:logInfo(58)) - Launch command: "/home/hadoop/jdk1.7.0_09/bin/java" ......
Executor app-20171024225907-0018/77345 finished with state EXITED message Command exited with code 53 exitStatus 53
executor日誌:
ERROR [main] storage.DiskBlockManager (Logging.scala:logError(95)) - Failed to create local dir in . Ignoring this directory.
java.io.IOException: Failed to create a temp directory (under ) after 10 attempts!
再看配置檔案spark-env.sh:
export SPARK_LOCAL_DIRS=/data/spark/data
設定了spark本地目錄,但機器上並沒有建立該目錄,所以引發錯誤。
./drun "mkdir -p /data/spark/data"
./drun "chown -R hadoop:hadoop /data/spark"
建立後,重啟worker未再出現錯誤。
8、spark worker異常退出:
worker中日誌:
17/10/25 11:59:58 INFO worker.Worker: Master with url spark://10.10.10.82:7077 requested this worker to reconnect.
17/10/25 11:59:58 INFO worker.Worker: Not spawning another attempt to register with the master, since there is an attempt scheduled already.
17/10/25 11:59:59 INFO worker.Worker: Successfully registered with master spark://10.10.10.82:7077
17/10/25 11:59:59 INFO worker.Worker: Worker cleanup enabled; old application directories will be deleted in: /home/hadoop/spark-1.6.1-bin-2.2.0/work
17/10/25 12:00:00 INFO worker.Worker: Retrying connection to master (attempt # 1)
17/10/25 12:00:00 INFO worker.Worker: Master with url spark://10.10.10.82:7077 requested this worker to reconnect.
17/10/25 12:00:00 INFO worker.Worker: Master with url spark://10.10.10.82:7077 requested this worker to reconnect.
17/10/25 12:00:00 INFO worker.Worker: Not spawning another attempt to register with the master, since there is an attempt scheduled already.
17/10/25 12:00:00 INFO worker.Worker: Asked to launch executor app-20171024225907-0018/119773 for org.apache.spark.sql.hive.thriftserver.HiveThriftServer2
17/10/25 12:00:00 INFO worker.Worker: Connecting to master 10.10.10.82:7077...
17/10/25 12:00:00 INFO spark.SecurityManager: Changing view acls to: hadoop
17/10/25 12:00:00 INFO worker.Worker: Connecting to master 10.10.10.82:7077...
17/10/25 12:00:00 INFO spark.SecurityManager: Changing modify acls to: hadoop
17/10/25 12:00:00 INFO spark.SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(hadoop); users with modify permissions: Set(hadoop)
17/10/25 12:00:01 ERROR worker.Worker: Worker registration failed: Duplicate worker ID
17/10/25 12:00:01 INFO worker.ExecutorRunner: Launch command: "/home/hadoop/jdk1.7.0_09/bin/java" "-cp" "/home/hadoop/spark-1.6.1-bin-2.2.0/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/yarn/*:/home/hadoop/hadoop-2.2.0/share/hadoop/yarn/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/common/*:/home/hadoop/hadoop-2.2.0/share/hadoop/common/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/hdfs/*:/home/hadoop/hadoop-2.2.0/share/hadoop/hdfs/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/mapreduce/*:/home/hadoop/hadoop-2.2.0/share/hadoop/mapreduce/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/tools/lib/*:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/*:/home/hadoop/spark-1.6.1-bin-2.2.0/conf/:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/spark-assembly-1.6.1-hadoop2.2.0.jar:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/datanucleus-api-jdo-3.2.6.jar:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/datanucleus-rdbms-3.2.9.jar:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/datanucleus-core-3.2.10.jar:/home/hadoop/hadoop-2.2.0/etc/hadoop/"
"-Xms1024M" "-Xmx1024M" "-Dspark.driver.port=43546" "-XX:MaxPermSize=256m" "org.apache.spark.executor.CoarseGrainedExecutorBackend" "--driver-url" "spark://[email protected]:43546" "--executor-id" "119773" "--hostname" "10.10.10.190" "--cores"
"1" "--app-id" "app-20171024225907-0018" "--worker-url" "spark://[email protected]:55335"
17/10/25 12:00:02 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:02 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:02 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:03 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:05 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:05 INFO worker.ExecutorRunner: Killing process!
17/10/25 12:00:05 INFO util.ShutdownHookManager: Shutdown hook called
17/10/25 12:00:06 INFO util.ShutdownHookManager: Deleting directory /data/spark/data/spark-ab442bb5-62e6-4567-bc7c-8d00534ba1a3
近期,頻繁出現worker異常退出情況,從worker日誌看到,master要求重新連線並註冊,註冊後,worker繼續連線master,並反饋了一個錯誤資訊:
ERROR worker.Worker: Worker registration failed: Duplicate worker ID
之後就突然殺掉所有Executor然後退出worker。
出現該問題的機器記憶體都是16g(其他32g節點,沒有出現worker退出問題)。
再檢視該類節點yarn的 配置,發現分配yarn的資源是15g,懷疑問題節點yarn和spark同處高峰期,導致spark分配不到資源退出。
為驗證猜想,檢視NM日誌,其時間發生點部分容器有自殺情況,但這個不能說明什麼,因為其他時間點也存有該問題。
為檢視問題時間點,節點中yarn資源使用情況,只能到active rm中檢視rm日誌,最後看到節點中在11:46:22到11:59:18,
問題節點yarn佔用資源一直在<memory:15000, vCores:6>。如此,確實是該問題所致,將yarn資源調整至12g/10c,後續再繼續觀察。
8、spark (4個dd,11個nm)沒有利用非datanode節點上的executor問題
問題描述:跑大job時,總任務數上萬個,但是隻利用了其中4個dd上的executor,另外7臺沒有跑或者跑很少。
分析:spark driver進行任務分配時,會希望每個任務正好分配到要計算的資料節點上,避免網路傳輸。但當task因為其所在資料節點資源正好被分配完而沒機會再分配時,spark會等一段時間(由spark.locality.wait引數控制,預設3s),超過該時間,就會選擇一個本地化差的級別進行計算。
解決辦法: 將spark.locality.wait設定為0,不等待,任務直接分配,需重啟服務生效
9、spark自帶引數不生效問題
spark thrift測試系統經常出問題,調整了driver記憶體引數,依舊報問題。
常見問題狀態:連線spark thrift無響應,一會提示OutOfMemoryError: Java heap space
後來發現設定的driver記憶體引數沒有生效,環境配置檔案spark-env.sh設定了SPARK_DAEMON_MEMORY=1024m,覆蓋了啟動引數設定的
--driver-memory 4G ,導致引數設定沒生效。相關推薦
spark問題與排查
1、spark thriftserver報以下錯誤,其他諸如hive/sparksql等方式均正常ERROR ActorSystemImpl: Uncaught fatal error from thread [sparkDriverActorSystem-akka.act
linux系統故障分析與排查
使用 權限 建立 shel 自動識別 了解 緊急 rhel5 1.4 在處理Linux系統出現的各種故障時,故障的癥狀是最先發現的,而導致這以故障的原因才是最終排除故障的關鍵。熟悉Linux系統的日誌管理,了解常見故障的分析與解決辦法,將有助於管理員快速定位故障點。“對癥下
Spark與緩存
分布式 kryo 數量級 enc 問題: 分布式緩存 context ive 服務 預期成果 1.1 當前問題 當前以圖搜圖應用存在的問題: 當前使用spark RDD方案無法達到數據實時加載(每10分鐘加載一次,雖然可配,但太短可能會有問題) Spark
MySQL復制異常大掃盲:快速溯源與排查錯誤全解
nts 建庫 statement 版本 end 格式 重做 關閉 容易 MySQL復制異常大掃盲:快速溯源與排查錯誤全解https://mp.weixin.qq.com/s/0Ic8BnUokyOj7m1YOrk1tA作者介紹王松磊,現任職於UCloud,從事MySQL數據
Linux系統故障分析與排查--日誌分析
獲得 cat cron stl 文本格式 etc 服務的啟動 網絡 調試 處理Linux系統出現的各種故障時,故障的癥狀是最先發現的,而導致這以故障的原因才是最終排除故障的關鍵。熟悉Linux系統的日誌管理,了解常見故障的分析與解決辦法,將有助於管理員快速定位故障點,“
spark與flume整合
kcon text org http clas appname spl storage ket spark-streaming與flume整合 push package cn.my.sparkStream import org.apache.spark.SparkCo
Azure Redis 緩存使用註意事項與排查問題文檔整理
ble best redis 緩存 work init cep tput 完成端口 div Azure Redis 緩存的 ASP.NET 會話狀態提供程序 https://docs.microsoft.com/zh-cn/azure/redis-cache/cache-
大數據Spark與Storm技術選型
分享 filebeat bfd 大數 事務機制 有一點 zookeep 並行 bsp 先做一個對比: 對比點 Storm Spark Streaming 實時計算模型 純實時,來一條數據,處理一條數
百度快照被劫持 怎麼修復與排查
哥們的網站流量突然下降的很厲害,從原先一天500左右的IP,直接下降到80左右的IP,讓我幫忙看看,網站到底哪裡出了問題,首先我用百度的site:下網站的收錄量以及快照更新的時間,發現百度快照收錄的網站標題和實際標題不一樣,網站在百度的快照內容裡出現一些菠菜,彩票的內容,從百度點進去後直接跳轉到菠菜網站上去了
【無人駕駛系列四】 基於Spark與ROS分散式無人駕駛模擬平臺
本文是無人駕駛技術系列的第四篇,著重介紹基於Spark與ROS的分散式無人駕駛模擬平臺。無人駕駛的安全性和可靠性是通過海量的功能和效能測試來保證的。無人駕駛系統是一個複雜的系統工程,在它的整個研發流程中,測試工作至關重要同時也繁重複雜。顯然將全部測試工作都集中在真車上進行是一種成本異常高昂且安全係數
支援kubernetes原生Spark 與其他應用的結合(mysql,postgresql,oracle,hdfs,hbase)
安裝執行支援kubernetes原生排程的Spark程式:https://blog.csdn.net/luanpeng825485697/article/details/83651742 dockerfile的目錄 . ├── driver │ └── Dockerfile
spark原理和spark與mapreduce的最大區別
參考文件:https://files.cnblogs.com/files/han-guang-xue/spark1.pdf 參考網址:https://www.cnblogs.com/wangrd/p/6232826.html 對於spark個人理解: spark與mapreduce最
spark與storm的對比(轉載)
轉載自:https://www.cnblogs.com/yaohaitao/p/5703288.html 對比點 storm Spark Streaming 實時計算模型 純實時,來一
(轉載)一次生產系統 Full GC 問題分析與排查總結
一次生產系統 Full GC 問題分析與排查總結 轉載請註明 AIQ - 最專業的機器學習大資料社群 http://www.6aiq.com AIQ 機器學習大資料 知乎專欄 點選關注 一次生產系統 Full GC 問題分
spark與storm功能對比與選型思考
Storm擅長於動態處理大量實時生產的小資料塊,概念上是將小資料量的資料來源源不斷傳給過程; Spark擅長對現有的資料全集做處理,概念是將過程傳給大資料量的資料。 二者設計思路相反。Storm側重於處理的實時性,Spark側重處理龐大資料(類似於Hadoop的MR)。
spark與storm的對比
對比點 Storm Spark Streaming 實時計算模型 純實時,來一條資料,處理一條資料 準實時,對一個時間段內的資料收集起來,作為一個RDD,再處理 實時計算延遲度 毫秒級 秒級 吞吐量 低 高 事務機制 支援完善 支援,但不夠完善
一個MySQL 5.7分割槽表效能下降的案例分析與排查
作者介紹 姜宇祥,2012年加入攜程,10年資料庫核心程式碼開發經驗,相關開發涉及達夢、MySQL資料庫。現致力於攜程MySQL的底層研發,為特殊問題定位和處理提供技術支援。 前言:希望通過本文,使MySQL5.7.18的使用者知曉分割槽表使用中存在的陷阱,避免在該版本上繼續踩坑。同時通過對原始碼的
MySQL複製異常大掃盲:快速溯源與排查錯誤全解
作者介紹 王鬆磊,現任職於UCloud,從事MySQL資料庫核心研發工作,主要負責UCloud雲資料庫UDB的核心故障排查工作以及資料庫新特性的研發工作。 複製作為MySQL原生的資料同步功能,在MySQL高可用架構中起著至關重要的作用。本文梳理了MySQL高可用產品UDB在日常運維中遇到的複製問題
記一次生產DB2資料庫鎖超時問題的分析與排查
作者介紹 侯君,證通股份有限公司DBA,主要負責DB2、MySQL、Couchbase運維,以及自動化運維平臺開發,Python愛好者。 前言 DB2的鎖管理機制一直為DB2應用開發人員和DBA所詬病。對其鎖機制不理解的直接後果就是導致鎖超時和死鎖的發生。所以監控並分析鎖超時和死鎖,應是每個DB2
一 Spark與kafka基本特點
spark與kafka的介紹 一 spark是什麼 hadoop MapReduce:從叢集中讀取資料,分片讀取 進行一次處理,將結果寫到叢集,從叢集中讀取更新後的資料,進行下一次的處理,將結果寫到叢集 Spark :從叢集中讀取資料,把資料放入到記憶體種,完成所有必須的分析處理,將結果寫回叢集。資