spark常見問題處理
解決辦法: 重啟thriftserver,並調大executor-memory記憶體(不能超過spark總剩餘記憶體,如超過,可調大spark-env.sh中的SPARK_WORKER_MEMORY引數,並重啟spark叢集。
在spark-defaults.conf中調大driver引數
spark.driver.memory 2g
同時在spark-env.sh中同樣設定
export SPARK_DRIVER_MEMORY=2g
2、Caused by: java.lang.OutOfMemoryError: GC overhead limit exceeded
JDK6新增錯誤型別。當GC為釋放很小空間佔用大量時間時丟擲。
在JVM中增加該選項 -XX:-UseGCOverheadLimit 關閉限制GC的執行時間(預設啟用 )
在spark-defaults.conf中增加以下引數
spark.executor.extraJavaOptions -XX:-UseGCOverheadLimit
spark.driver.extraJavaOptions -XX:-UseGCOverheadLimit
3、spark 錯誤描述:
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category READ is not supported in state standby
原因:
NN主從切換時,spark報上述錯誤,經分析spark-defaults.conf配置引數spark.eventLog.dir寫死了其中一個NN的IP,導致主從切換時,無法讀日誌。
另外,跟應用程式使用的checkpoint也有關係,首次啟動應用程式時,建立了一個新的sparkcontext,而該sparkcontext綁定了具體的NN ip,
往後每次程式重啟,由於應用程式碼【StreamingContext.getOrCreate(checkpointDirectory, functionToCreateContext _)】將從已有checkpoint目錄匯入checkpoint 資料來重新建立 StreamingContext 例項。
如果 checkpointDirectory 存在,那麼 context 將匯入 checkpoint 資料。如果目錄不存在,函式 functionToCreateContext 將被呼叫並建立新的 context。
故出現上述異常。
解決:
針對測試系統:
1、將某個NN固定IP改成nameservice對應的值
2、清空應用程式的checkpoint日誌
3、重啟應用後,切換NN,spark應用正常
4、獲取每次記憶體GC資訊
spark-defaults.conf中增加:
spark.executor.extraJavaOptions -XX:+PrintGC -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+PrintGCDateStamps -XX:+PrintGCApplicationStoppedTime -XX:+PrintHeapAtGC -XX:+PrintGCApplicationConcurrentTime -Xloggc:gc.log
5、timeout,報錯:
6、通過sparkthriftserver讀取lzo檔案報錯:
ClassNotFoundException: Class com.hadoop.compression.lzo.LzoCodec not found
在spark-env.sh中增加如下配置:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/hadoop/hadoop-2.2.0/lib/native export SPARK_LIBRARY_PATH=$SPARK_LIBRARY_PATH:/home/hadoop/hadoop-2.2.0/lib/native export SPARK_CLASSPATH=$SPARK_CLASSPATH:/home/hadoop/hadoop-2.2.0/share/hadoop/yarn/*:/home/hadoop/hadoop-2.2.0/share/hadoop/yarn/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/common/*:/home/hadoop/hadoop-2.2.0/share/hadoop/common/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/hdfs/*:/home/hadoop/hadoop-2.2.0/share/hadoop/hdfs/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/mapreduce/*:/home/hadoop/hadoop-2.2.0/share/hadoop/mapreduce/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/tools/lib/*:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/*
並分發到各節點
8、spark worker異常退出:
worker中日誌: 17/10/25 11:59:58 INFO worker.Worker: Master with url spark://10.10.10.82:7077 requested this worker to reconnect. 17/10/25 11:59:58 INFO worker.Worker: Not spawning another attempt to register with the master, since there is an attempt scheduled already. 17/10/25 11:59:59 INFO worker.Worker: Successfully registered with master spark://10.10.10.82:7077 17/10/25 11:59:59 INFO worker.Worker: Worker cleanup enabled; old application directories will be deleted in: /home/hadoop/spark-1.6.1-bin-2.2.0/work 17/10/25 12:00:00 INFO worker.Worker: Retrying connection to master (attempt # 1) 17/10/25 12:00:00 INFO worker.Worker: Master with url spark://10.10.10.82:7077 requested this worker to reconnect. 17/10/25 12:00:00 INFO worker.Worker: Master with url spark://10.10.10.82:7077 requested this worker to reconnect. 17/10/25 12:00:00 INFO worker.Worker: Not spawning another attempt to register with the master, since there is an attempt scheduled already. 17/10/25 12:00:00 INFO worker.Worker: Asked to launch executor app-20171024225907-0018/119773 for org.apache.spark.sql.hive.thriftserver.HiveThriftServer2 17/10/25 12:00:00 INFO worker.Worker: Connecting to master 10.10.10.82:7077... 17/10/25 12:00:00 INFO spark.SecurityManager: Changing view acls to: hadoop 17/10/25 12:00:00 INFO worker.Worker: Connecting to master 10.10.10.82:7077... 17/10/25 12:00:00 INFO spark.SecurityManager: Changing modify acls to: hadoop 17/10/25 12:00:00 INFO spark.SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(hadoop); users with modify permissions: Set(hadoop) 17/10/25 12:00:01 ERROR worker.Worker: Worker registration failed: Duplicate worker ID 17/10/25 12:00:01 INFO worker.ExecutorRunner: Launch command: "/home/hadoop/jdk1.7.0_09/bin/java" "-cp" "/home/hadoop/spark-1.6.1-bin-2.2.0/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/yarn/*:/home/hadoop/hadoop-2.2.0/share/hadoop/yarn/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/common/*:/home/hadoop/hadoop-2.2.0/share/hadoop/common/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/hdfs/*:/home/hadoop/hadoop-2.2.0/share/hadoop/hdfs/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/mapreduce/*:/home/hadoop/hadoop-2.2.0/share/hadoop/mapreduce/lib/*:/home/hadoop/hadoop-2.2.0/share/hadoop/tools/lib/*:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/*:/home/hadoop/spark-1.6.1-bin-2.2.0/conf/:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/spark-assembly-1.6.1-hadoop2.2.0.jar:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/datanucleus-api-jdo-3.2.6.jar:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/datanucleus-rdbms-3.2.9.jar:/home/hadoop/spark-1.6.1-bin-2.2.0/lib/datanucleus-core-3.2.10.jar:/home/hadoop/hadoop-2.2.0/etc/hadoop/" "-Xms1024M" "-Xmx1024M" "-Dspark.driver.port=43546" "-XX:MaxPermSize=256m" "org.apache.spark.executor.CoarseGrainedExecutorBackend" "--driver-url" "spark://[email protected]:43546" "--executor-id" "119773" "--hostname" "10.10.10.190" "--cores" "1" "--app-id" "app-20171024225907-0018" "--worker-url" "spark://[email protected]:55335" 17/10/25 12:00:02 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:02 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:02 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:03 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:04 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:05 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:05 INFO worker.ExecutorRunner: Killing process! 17/10/25 12:00:05 INFO util.ShutdownHookManager: Shutdown hook called 17/10/25 12:00:06 INFO util.ShutdownHookManager: Deleting directory /data/spark/data/spark-ab442bb5-62e6-4567-bc7c-8d00534ba1a3近期,頻繁出現worker異常退出情況,從worker日誌看到,master要求重新連線並註冊,註冊後,worker繼續連線master,並反饋了一個錯誤資訊: ERROR worker.Worker: Worker registration failed: Duplicate worker ID 之後就突然殺掉所有Executor然後退出worker。 出現該問題的機器記憶體都是16g(其他32g節點,沒有出現worker退出問題)。 再檢視該類節點yarn的 配置,發現分配yarn的資源是15g,懷疑問題節點yarn和spark同處高峰期,導致spark分配不到資源退出。 為驗證猜想,檢視NM日誌,其時間發生點部分容器有自殺情況,但這個不能說明什麼,因為其他時間點也存有該問題。 為檢視問題時間點,節點中yarn資源使用情況,只能到active rm中檢視rm日誌,最後看到節點中在11:46:22到11:59:18, 問題節點yarn佔用資源一直在<memory:15000, vCores:6>。如此,確實是該問題所致,將yarn資源調整至12g/10c,後續再繼續觀察。
8、spark (4個dd,11個nm)沒有利用非datanode節點上的executor問題
問題描述:跑大job時,總任務數上萬個,但是隻利用了其中4個dd上的executor,另外7臺沒有跑或者跑很少。
分析:spark driver進行任務分配時,會希望每個任務正好分配到要計算的資料節點上,避免網路傳輸。但當task因為其所在資料節點資源正好被分配完而沒機會再分配時,spark會等一段時間(由spark.locality.wait引數控制,預設3s),超過該時間,就會選擇一個本地化差的級別進行計算。
解決辦法: 將spark.locality.wait設定為0,不等待,任務直接分配,需重啟服務生效
9、spark自帶引數不生效問題
spark thrift測試系統經常出問題,調整了driver記憶體引數,依舊報問題。
常見問題狀態:連線spark thrift無響應,一會提示OutOfMemoryError: Java heap space
後來發現設定的driver記憶體引數沒有生效,環境配置檔案spark-env.sh設定了SPARK_DAEMON_MEMORY=1024m,覆蓋了啟動引數設定的
--driver-memory 4G ,導致引數設定沒生效。
相關推薦
執行Spark常見問題處理方法(持續更新中......)
1.MaxResultSize問題 首先,出現這個錯誤的時候Spark會產生如下錯誤資訊: org.apache.spark.SparkException: Job aborted due to stage failure: Total size of serialize
spark常見問題處理
1、spark thriftserver報以下錯誤,其他諸如hive/sparksql等方式均正常 ERROR ActorSystemImpl: Uncaught fatal error from thread [sparkDriverActorSystem-akka.a
undo過大的常見處理方式
空間 proc 常用 roc tro sta 回滾 lock 數據庫 一、普通情況下的操作:undo表空間處理方式一般采用如下:1、創建新的undo表空間create undo tablespace undotbs3 datafile‘+ORA_DATA_02‘ size
通過Spark Streaming處理交易數據
amp 引入 解決方案 框架 ins 容錯 ams 輕量 rdm Apache Spark 是加州大學伯克利分校的 AMPLabs 開發的開源分布式輕量級通用計算框架。 由於 Spark 基於內存設計,使得它擁有比 Hadoop 更高的性能(極端情況下可以達到 100x),
hive 資料傾斜的常見處理方式
1.什麼是資料傾斜? 資料傾斜主要表現在,map /reduce程式執行時,reduce節點大部分執行完畢,但是有一個或者幾個reduce節點執行很慢,導致整個程式的處理時間很長,這是因為某一個key的條數比其他key多很多(有時是百倍或者千倍之多),這條key所在的reduce節點所處理的資料
Pytest03:pytes對測試函式常見處理方法
1.使用assert 宣告 pytest 已經簡化了斷言方法,直接用assert 就可以了, 說明pytest 已經重寫了assert 方法, 從而提供了更為詳細的失敗資訊,而且assert表示式變得簡潔。 執行的程式碼如下: 執行結果為如圖:
Spark FinalStage處理(Stage劃分)
Spark FinalStage處理(Stage劃分) 更多資源 github: https://github.com/opensourceteams/spark-scala-maven csdn(彙總視訊線上看): https://blog.csdn.net/thin
spark常見問題分析
分析 spark常見的問題不外乎oom: 我們首先看一下Spark 的記憶體模型: Spark在一個Executor中的記憶體分為三塊,一塊是execution記憶體,一塊是storage記憶體,一塊是other記憶體。 execution記憶體是執行記憶體,文件中
Spark常見程式設計問題解決辦法及優化
目錄 1.資料傾斜 2.TopN 3.Join優化 預排序的join cross join 考慮Join順序 4.根據HashMap、DF等資料集進行filter 5.Join去掉重複的列 6.展開NestedDF 7.計算session/
Spark Join處理流程分析
為了更好的分析Spark Join處理流程,我們選擇具有Shuffle操作的示例來進行說明,這比沒有Shuffle操作的處理流程要複雜一些。本文主要通過實現一個Join操作的Spark程式,提交執行該程式,並通過Spark UI上的各種執行資訊來討論Spark Join處理流程。 Spa
Spark常見問題解決
這倆天總結了在寫Spark Job的時候遇到的一些問題,寫在這裡,以後遇到了方便檢視。 1.Error:(64, 64) Unable to find encoder for type stored in a Dataset. Primitive types
Cassandra 和 Spark 資料處理一窺
Apache Cassandra 資料庫近來引起了很多的興趣,這主要源於現代雲端軟體對於可用性及效能方面的要求。 那麼,Apache Cassandra 是什麼?它是一種為高可用性及線性可擴充套件性優化的分散式的聯機交易處理 (OLTP) 資料庫。具體說到 Cassandra 的用途時,可以想想
Java中對字串的一些常見處理
三者分別有各自適用的場合。 String:適用於少量的字串操作的情況。 StringBuilder:適用於單執行緒下在字元緩衝區進行大量操作的情況。 StringBuffer:適用多執行緒下在字元緩衝區進行大量操作的情況。 String用法: 1、將陣列中元素
spark常見運算元操作
package com.yzc.lilei.spark.transformoperate; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaPairRDD; import org.apache.spar
Spark修煉之道(高階篇)——Spark原始碼閱讀:第十二節 Spark SQL 處理流程分析
作者:周志湖 下面的程式碼演示了通過Case Class進行表Schema定義的例子: // sc is an existing SparkContext. val sqlContext = new org.apache.spark.sql.SQLConte
Maven+scala+spark常見問題總結
去除[WARNING] Using platform encoding (UTF-8 actually) to copy filter 在POM檔案的頂級目錄中,加入下面的配置。其實就是設定一下工程的編碼格式 <properties>
《spark常見調優》
一:開發調優 原則1:對多次使用的RDD進行持久化,共享同一個RDD 原則2:經過filter運算元過後使用coalesce優化分割槽數量。分割槽少並且資料量大是通過repartition重分割槽增大併發。 原則3:讀取hbase或插入資料庫時使用foreachPartition代替foreach並且使
Spark 互動式處理上百 TB 資料
Apache Spark在記憶體資料處理領域有很多創新。有了這個框架,你可以上傳資料到叢集記憶體,並在互動模式下以非常快的速度處理這些資料(互動模式是Spark另一個重要特性)。2014年Databricks宣佈 Apache Spark能在23分鐘內完成100T資
iOS元件化之AppDelegate中的常見處理。
在元件化開發的過程中,在app執行期間,app可能處於前臺,後臺,以及兩個之間的過渡狀態。這些狀態的呈現處理一般是在AppDelegate中進行處理的,但是進行元件化後,如果業務元件中的處理邏輯放在AppDelegate中,你會發現解耦無從做起。針對這種情況
spark--DataFrame處理udf操作和一些聚合操作
在spark中對資料進行處理udf函式還是很多的下面介紹在df下udf操作例項 val sqlContext = new SQLContext(sc) import sqlContext.implicits._ 呼叫sqlcontext裡面的udf函式 sql