Spark效能優化指南:高階篇
前言
繼基礎篇講解了每個Spark開發人員都必須熟知的開發調優與資源調優之後,本文作為《Spark效能優化指南》的高階篇,將深入分析資料傾斜調優與shuffle調優,以解決更加棘手的效能問題。
資料傾斜調優
調優概述
有的時候,我們可能會遇到大資料計算中一個最棘手的問題——資料傾斜,此時Spark作業的效能會比期望差很多。資料傾斜調優,就是使用各種技術方案解決不同型別的資料傾斜問題,以保證Spark作業的效能。
資料傾斜發生時的現象
- 絕大多數task執行得都非常快,但個別task執行極慢。比如,總共有1000個task,997個task都在1分鐘之內執行完了,但是剩餘兩三個task卻要一兩個小時。這種情況很常見。
- 原本能夠正常執行的Spark作業,某天突然報出OOM(記憶體溢位)異常,觀察異常棧,是我們寫的業務程式碼造成的。這種情況比較少見。
資料傾斜發生的原理
資料傾斜的原理很簡單:在進行shuffle的時候,必須將各個節點上相同的key拉取到某個節點上的一個task來進行處理,比如按照key進行 聚合或join等操作。此時如果某個key對應的資料量特別大的話,就會發生資料傾斜。比如大部分key對應10條資料,但是個別key卻對應了100萬 條資料,那麼大部分task可能就只會分配到10條資料,然後1秒鐘就執行完了;但是個別task可能分配到了100萬資料,要執行一兩個小時。因此,整 個Spark作業的執行進度是由執行時間最長的那個task決定的。
因此出現數據傾斜的時候,Spark作業看起來會執行得非常緩慢,甚至可能因為某個task處理的資料量過大導致記憶體溢位。
下圖就是一個很清晰的例子:hello這個key,在三個節點上對應了總共7條資料,這些資料都會被拉取到同一個task中進行處理;而world 和you這兩個key分別才對應1條資料,所以另外兩個task只要分別處理1條資料即可。此時第一個task的執行時間可能是另外兩個task的7倍, 而整個stage的執行速度也由執行最慢的那個task所決定。
如何定位導致資料傾斜的程式碼
資料傾斜只會發生在shuffle過程中。這裡給大家羅列一些常用的並且可能會觸發shuffle操作的運算元:distinct、 groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。出現數據傾斜時, 可能就是你的程式碼中使用了這些運算元中的某一個所導致的。
某個task執行特別慢的情況
首先要看的,就是資料傾斜發生在第幾個stage中。
如果是用yarn-client模式提交,那麼本地是直接可以看到log的,可以在log中找到當前執行到了第幾個stage;如果是用yarn- cluster模式提交,則可以通過Spark Web UI來檢視當前執行到了第幾個stage。此外,無論是使用yarn-client模式還是yarn-cluster模式,我們都可以在Spark Web UI上深入看一下當前這個stage各個task分配的資料量,從而進一步確定是不是task分配的資料不均勻導致了資料傾斜。
比如下圖中,倒數第三列顯示了每個task的執行時間。明顯可以看到,有的task執行特別快,只需要幾秒鐘就可以執行完;而有的task執行特別 慢,需要幾分鐘才能執行完,此時單從執行時間上看就已經能夠確定發生資料傾斜了。此外,倒數第一列顯示了每個task處理的資料量,明顯可以看到,執行時 間特別短的task只需要處理幾百KB的資料即可,而執行時間特別長的task需要處理幾千KB的資料,處理的資料量差了10倍。此時更加能夠確定是發生 了資料傾斜。
知道資料傾斜發生在哪一個stage之後,接著我們就需要根據stage劃分原理,推算出來發生傾斜的那個stage對應程式碼中的哪一部分,這部分 程式碼中肯定會有一個shuffle類運算元。精準推算stage與程式碼的對應關係,需要對Spark的原始碼有深入的理解,這裡我們可以介紹一個相對簡單實用 的推算方法:只要看到Spark程式碼中出現了一個shuffle類運算元或者是Spark SQL的SQL語句中出現了會導致shuffle的語句(比如group by語句),那麼就可以判定,以那個地方為界限劃分出了前後兩個stage。
這裡我們就以Spark最基礎的入門程式——單詞計數來舉例,如何用最簡單的方法大致推算出一個stage對應的程式碼。如下示例,在整個程式碼中,只 有一個reduceByKey是會發生shuffle的運算元,因此就可以認為,以這個運算元為界限,會劃分出前後兩個stage。
- stage0,主要是執行從textFile到map操作,以及執行shuffle write操作。shuffle write操作,我們可以簡單理解為對pairs RDD中的資料進行分割槽操作,每個task處理的資料中,相同的key會寫入同一個磁碟檔案內。
- stage1,主要是執行從reduceByKey到collect操作,stage1的各個task一開始執行,就會首先執行shuffle read操作。執行shuffle read操作的task,會從stage0的各個task所在節點拉取屬於自己處理的那些key,然後對同一個key進行全域性性的聚合或join等操作, 在這裡就是對key的value值進行累加。stage1在執行完reduceByKey運算元之後,就計算出了最終的wordCounts RDD,然後會執行collect運算元,將所有資料拉取到Driver上,供我們遍歷和列印輸出。
123456789 | val conf=newSparkConf()val sc=newSparkContext(conf)val lines=sc.textFile("hdfs://...")val words=lines.flatMap(_.split(" "))val pairs=words.map((_,1))val wordCounts=pairs.reduceByKey(_+_)wordCounts.collect().foreach(println(_)) |
通過對單詞計數程式的分析,希望能夠讓大家瞭解最基本的stage劃分的原理,以及stage劃分後shuffle操作是如何在兩個stage的邊 界處執行的。然後我們就知道如何快速定位出發生資料傾斜的stage對應程式碼的哪一個部分了。比如我們在Spark Web UI或者本地log中發現,stage1的某幾個task執行得特別慢,判定stage1出現了資料傾斜,那麼就可以回到程式碼中定位出stage1主要包 括了reduceByKey這個shuffle類運算元,此時基本就可以確定是由educeByKey運算元導致的資料傾斜問題。比如某個單詞出現了100萬 次,其他單詞才出現10次,那麼stage1的某個task就要處理100萬資料,整個stage的速度就會被這個task拖慢。
某個task莫名其妙記憶體溢位的情況
這種情況下去定位出問題的程式碼就比較容易了。我們建議直接看yarn-client模式下本地log的異常棧,或者是通過YARN檢視yarn- cluster模式下的log中的異常棧。一般來說,通過異常棧資訊就可以定位到你的程式碼中哪一行發生了記憶體溢位。然後在那行程式碼附近找找,一般也會有 shuffle類運算元,此時很可能就是這個運算元導致了資料傾斜。
但是大家要注意的是,不能單純靠偶然的記憶體溢位就判定發生了資料傾斜。因為自己編寫的程式碼的bug,以及偶然出現的資料異常,也可能會導致記憶體溢 出。因此還是要按照上面所講的方法,通過Spark Web UI檢視報錯的那個stage的各個task的執行時間以及分配的資料量,才能確定是否是由於資料傾斜才導致了這次記憶體溢位。
檢視導致資料傾斜的key的資料分佈情況
知道了資料傾斜發生在哪裡之後,通常需要分析一下那個執行了shuffle操作並且導致了資料傾斜的RDD/Hive表,檢視一下其中key的分佈 情況。這主要是為之後選擇哪一種技術方案提供依據。針對不同的key分佈與不同的shuffle運算元組合起來的各種情況,可能需要選擇不同的技術方案來解 決。
此時根據你執行操作的情況不同,可以有很多種檢視key分佈的方式:
- 如果是Spark SQL中的group by、join語句導致的資料傾斜,那麼就查詢一下SQL中使用的表的key分佈情況。
- 如果是對Spark RDD執行shuffle運算元導致的資料傾斜,那麼可以在Spark作業中加入檢視key分佈的程式碼,比如RDD.countByKey()。然後對統計 出來的各個key出現的次數,collect/take到客戶端列印一下,就可以看到key的分佈情況。
舉例來說,對於上面所說的單詞計數程式,如果確定了是stage1的reduceByKey運算元導致了資料傾斜,那麼就應該看看進行 reduceByKey操作的RDD中的key分佈情況,在這個例子中指的就是pairs RDD。如下示例,我們可以先對pairs取樣10%的樣本資料,然後使用countByKey運算元統計出每個key出現的次數,最後在客戶端遍歷和列印 樣本資料中各個key的出現次數。
123 | val sampledPairs=pairs.sample(false,0.1)val sampledWordCounts=sampledPairs.countByKey()sampledWordCounts.foreach(println(_)) |
資料傾斜的解決方案
解決方案一:使用Hive ETL預處理資料
方案適用場景:導致資料傾斜的是Hive表。如果該Hive表中的資料本身很不均勻(比如某個key對應了100萬資料,其他key才對應了10條資料),而且業務場景需要頻繁使用Spark對Hive表執行某個分析操作,那麼比較適合使用這種技術方案。
方案實現思路:此時可以評估一下,是否可以通過Hive來進行資料預處理(即通過Hive ETL預先對資料按照key進行聚合,或者是預先和其他表進行join),然後在Spark作業中針對的資料來源就不是原來的Hive表了,而是預處理後的 Hive表。此時由於資料已經預先進行過聚合或join操作了,那麼在Spark作業中也就不需要使用原先的shuffle類運算元執行這類操作了。
方案實現原理:這種方案從根源上解決了資料傾斜,因為徹底避免了在Spark中執行shuffle類運算元,那麼 肯定就不會有資料傾斜的問題了。但是這裡也要提醒一下大家,這種方式屬於治標不治本。因為畢竟資料本身就存在分佈不均勻的問題,所以Hive ETL中進行group by或者join等shuffle操作時,還是會出現資料傾斜,導致Hive ETL的速度很慢。我們只是把資料傾斜的發生提前到了Hive ETL中,避免Spark程式發生資料傾斜而已。
方案優點:實現起來簡單便捷,效果還非常好,完全規避掉了資料傾斜,Spark作業的效能會大幅度提升。
方案缺點:治標不治本,Hive ETL中還是會發生資料傾斜。
方案實踐經驗:在一些Java系統與Spark結合使用的專案中,會出現Java程式碼頻繁呼叫Spark作業的 場景,而且對Spark作業的執行效能要求很高,就比較適合使用這種方案。將資料傾斜提前到上游的Hive ETL,每天僅執行一次,只有那一次是比較慢的,而之後每次Java呼叫Spark作業時,執行速度都會很快,能夠提供更好的使用者體驗。
專案實踐經驗:在美團·點評的互動式使用者行為分析系統中使用了這種方案,該系統主要是允許使用者通過Java Web系統提交資料分析統計任務,後端通過Java提交Spark作業進行資料分析統計。要求Spark作業速度必須要快,儘量在10分鐘以內,否則速度 太慢,使用者體驗會很差。所以我們將有些Spark作業的shuffle操作提前到了Hive ETL中,從而讓Spark直接使用預處理的Hive中間表,儘可能地減少Spark的shuffle操作,大幅度提升了效能,將部分作業的效能提升了6 倍以上。
解決方案二:過濾少數導致傾斜的key
方案適用場景:如果發現導致傾斜的key就少數幾個,而且對計算本身的影響並不大的話,那麼很適合使用這種方案。比如99%的key就對應10條資料,但是隻有一個key對應了100萬資料,從而導致了資料傾斜。
方案實現思路:如果我們判斷那少數幾個資料量特別多的key,對作業的執行和計算結果不是特別重要的話,那麼幹 脆就直接過濾掉那少數幾個key。比如,在Spark SQL中可以使用where子句過濾掉這些key或者在Spark Core中對RDD執行filter運算元過濾掉這些key。如果需要每次作業執行時,動態判定哪些key的資料量最多然後再進行過濾,那麼可以使用 sample運算元對RDD進行取樣,然後計算出每個key的數量,取資料量最多的key過濾掉即可。
方案實現原理:將導致資料傾斜的key給過濾掉之後,這些key就不會參與計算了,自然不可能產生資料傾斜。
方案優點:實現簡單,而且效果也很好,可以完全規避掉資料傾斜。
方案缺點:適用場景不多,大多數情況下,導致傾斜的key還是很多的,並不是只有少數幾個。
方案實踐經驗:在專案中我們也採用過這種方案解決資料傾斜。有一次發現某一天Spark作業在執行的時候突然 OOM了,追查之後發現,是Hive表中的某一個key在那天資料異常,導致資料量暴增。因此就採取每次執行前先進行取樣,計算出樣本中資料量最大的幾個 key之後,直接在程式中將那些key給過濾掉。
解決方案三:提高shuffle操作的並行度
方案適用場景:如果我們必須要對資料傾斜迎難而上,那麼建議優先使用這種方案,因為這是處理資料傾斜最簡單的一種方案。
方案實現思路:在對RDD執行shuffle運算元時,給shuffle運算元傳入一個引數,比如 reduceByKey(1000),該引數就設定了這個shuffle運算元執行時shuffle read task的數量。對於Spark SQL中的shuffle類語句,比如group by、join等,需要設定一個引數,即spark.sql.shuffle.partitions,該引數代表了shuffle read task的並行度,該值預設是200,對於很多場景來說都有點過小。
方案實現原理:增加shuffle read task的數量,可以讓原本分配給一個task的多個key分配給多個task,從而讓每個task處理比原來更少的資料。舉例來說,如果原本有5個 key,每個key對應10條資料,這5個key都是分配給一個task的,那麼這個task就要處理50條資料。而增加了shuffle read task以後,每個task就分配到一個key,即每個task就處理10條資料,那麼自然每個task的執行時間都會變短了。具體原理如下圖所示。
方案優點:實現起來比較簡單,可以有效緩解和減輕資料傾斜的影響。
方案缺點:只是緩解了資料傾斜而已,沒有徹底根除問題,根據實踐經驗來看,其效果有限。
方案實踐經驗:該方案通常無法徹底解決資料傾斜,因為如果出現一些極端情況,比如某個key對應的資料量有 100萬,那麼無論你的task數量增加到多少,這個對應著100萬資料的key肯定還是會分配到一個task中去處理,因此註定還是會發生資料傾斜的。 所以這種方案只能說是在發現數據傾斜時嘗試使用的第一種手段,嘗試去用嘴簡單的方法緩解資料傾斜而已,或者是和其他方案結合起來使用。
解決方案四:兩階段聚合(區域性聚合+全域性聚合)
方案適用場景:對RDD執行reduceByKey等聚合類shuffle運算元或者在Spark SQL中使用group by語句進行分組聚合時,比較適用這種方案。
方案實現思路:這個方案的核心實現思路就是進行兩階段聚合。第一次是區域性聚合,先給每個key都打上一個隨機 數,比如10以內的隨機數,此時原先一樣的key就變成不一樣的了,比如(hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成(1_hello, 1) (1_hello, 1) (2_hello, 1) (2_hello, 1)。接著對打上隨機數後的資料,執行reduceByKey等聚合操作,進行區域性聚合,那麼區域性聚合結果,就會變成了(1_hello, 2) (2_hello, 2)。然後將各個key的字首給去掉,就會變成(hello,2)(hello,2),再次進行全域性聚合操作,就可以得到最終結果了,比如(hello, 4)。
方案實現原理:將原本相同的key通過附加隨機字首的方式,變成多個不同的key,就可以讓原本被一個task處理的資料分散到多個task上去做區域性聚合,進而解決單個task處理資料量過多的問題。接著去除掉隨機字首,再次進行全域性聚合,就可以得到最終的結果。具體原理見下圖。
方案優點:對於聚合類的shuffle操作導致的資料傾斜,效果是非常不錯的。通常都可以解決掉資料傾斜,或者至少是大幅度緩解資料傾斜,將Spark作業的效能提升數倍以上。
方案缺點:僅僅適用於聚合類的shuffle操作,適用範圍相對較窄。如果是join類的shuffle操作,還得用其他的解決方案。
1234567891011121314151617181920212223242526272829303132333435363738394041424344 | // 第一步,給RDD中的每個key都打上一個隨機字首。JavaPairRDD<String,Long>randomPrefixRdd=rdd.mapToPair(newPairFunction<Tuple2<Long,Long>,String,Long>(){privatestaticfinallongserialVersionUID=1L;@OverridepublicTuple2<String,Long>call(Tuple2<Long,Long>tuple)throwsException{Random random=newRandom();intprefix=random.nextInt(10);returnnewTuple2<String,Long>(prefix+"_"+tuple._1,tuple._2);}});// 第二步,對打上隨機字首的key進行區域性聚合。JavaPairRDD<String,Long>localAggrRdd=randomPrefixRdd.reduceByKey(newFunction2<Long,Long,Long>(){privatestaticfinallongserialVersionUID=1L;@OverridepublicLongcall(Longv1,Longv2)throwsException{returnv1+v2;}});// 第三步,去除RDD中每個key的隨機字首。JavaPairRDD<Long,Long>removedRandomPrefixRdd=localAggrRdd.mapToPair(newPairFunction<Tuple2<String,Long>,Long,Long>(){privatestaticfinallongserialVersionUID=1L;@OverridepublicTuple2<Long,Long>call(Tuple2<String,Long>tuple)throwsException{longoriginalKey=Long.valueOf(tuple._1.split("_")[1]);returnnewTuple2<Long,Long>(originalKey,tuple._2);}});// 第四步,對去除了隨機字首的RDD進行全域性聚合。JavaPairRDD<Long,Long>globalAggrRdd=removedRandomPrefixRdd.reduceByKey(newFunction2<Long,Long,Long>(){privatestaticfinallongserialVersionUID=1L;@OverridepublicLongcall(Longv1,Longv2)throwsException{returnv1+v2;}}); |
解決方案五:將reduce join轉為map join
方案適用場景:在對RDD使用join類操作,或者是在Spark SQL中使用join語句時,而且join操作中的一個RDD或表的資料量比較小(比如幾百M或者一兩G),比較適用此方案。
方案實現思路:不使用join運算元進行連線操作,而使用Broadcast變數與map類運算元實現join操 作,進而完全規避掉shuffle類的操作,徹底避免資料傾斜的發生和出現。將較小RDD中的資料直接通過collect運算元拉取到Driver端的記憶體 中來,然後對其建立一個Broadcast變數;接著對另外一個RDD執行map類運算元,在運算元函式內,從Broadcast變數中獲取較小RDD的全量 資料,與當前RDD的每一條資料按照連線key進行比對,如果連線key相同的話,那麼就將兩個RDD的資料用你需要的方式連線起來。
方案實現原理:普通的join是會走shuffle過程的,而一旦shuffle,就相當於會將相同key的數 據拉取到一個shuffle read task中再進行join,此時就是reduce join。但是如果一個RDD是比較小的,則可以採用廣播小RDD全量資料+map運算元來實現與join同樣的效果,也就是map join,此時就不會發生shuffle操作,也就不會發生資料傾斜。具體原理如下圖所示。
方案優點:對join操作導致的資料傾斜,效果非常好,因為根本就不會發生shuffle,也就根本不會發生資料傾斜。
方案缺點:適用場景較少,因為這個方案只適用於一個大表和一個小表的情況。畢竟我們需要將小表進行廣播,此時會 比較消耗記憶體資源,driver和每個Executor記憶體中都會駐留一份小RDD的全量資料。如果我們廣播出去的RDD資料比較大,比如10G以上,那 麼就可能發生記憶體溢位了。因此並不適合兩個都是大表的情況。
123456789101112131415161718192021222324252627282930313233 | // 首先將資料量比較小的RDD的資料,collect到Driver中來。List<Tuple2<Long,Row>>rdd1Data=rdd1.collect()// 然後使用Spark的廣播功能,將小RDD的資料轉換成廣播變數,這樣每個Executor就只有一份RDD的資料。// 可以儘可能節省記憶體空間,並且減少網路傳輸效能開銷。finalBroadcast<List<Tuple2<Long,Row>>>rdd1DataBroadcast=sc.broadcast(rdd1Data);// 對另外一個RDD執行map類操作,而不再是join類操作。JavaPairRDD<String,Tuple2<String,Row>>joinedRdd=rdd2.mapToPair(newPairFunction<Tuple2<Long,String>,String,Tuple2<String,Row>>(){privatestaticfinallongserialVersionUID=1L;@OverridepublicTuple2<String,Tuple2<String,Row>>call(Tuple2<Long,String>tuple)throwsException{// 在運算元函式中,通過廣播變數,獲取到本地Executor中的rdd1資料。List<Tuple2<Long,Row>>rdd1Data=rdd1DataBroadcast.value();// 可以將rdd1的資料轉換為一個Map,便於後面進行join操作。Map<Long,Row>rdd1DataMap=newHashMap<Long,Row>();for(Tuple2<Long,Row>data:rdd1Data){rdd1DataMap.put(data._1,data._2);}// 獲取當前RDD資料的key以及value。Stringkey=tuple._1;Stringvalue=tuple._2;// 從rdd1資料Map中,根據key獲取到可以join到的資料。Row rdd1Value=rdd1DataMap.get(key);returnnewTuple2<
相關推薦Spark效能優化指南:高階篇前言 繼基礎篇講解了每個Spark開發人員都必須熟知的開發調優與資源調優之後,本文作為《Spark效能優化指南》的高階篇,將深入分析資料傾斜調優與shuffle調優,以解決更加棘手的效能問題。 資料傾斜調優 調優概述 有的時候,我們可能會遇到大資料計算中一個最棘手 Spark效能優化指南一——基礎篇1.Spark調優有哪些原則? 2.Spark作業原理是什麼? 3.怎樣進行引數調優? 前言 在大資料計算領域,Spark已經成為了越來越流行、越來越受歡迎的計算平臺之一。Spark的功能涵蓋了大資料領域的離線批處理、SQL類處理、流式/實時計 Spark效能優化指南——高階篇(轉載)前言 繼基礎篇講解了每個Spark開發人員都必須熟知的開發調優與資源調優之後,本文作為《Spark效能優化指南》的高階篇,將深入分析資料傾斜調優與shuffle調優,以解決更加棘手的效能問題。 資料傾斜調優 調優概述 有的時候,我們可能會遇到大資料計算中一個最棘手的問題——資料傾斜,此時Spark 【轉載】Spark效能優化指南——高階篇前言 繼基礎篇講解了每個Spark開發人員都必須熟知的開發調優與資源調優之後,本文作為《Spark效能優化指南》的高階篇,將深入分析資料傾斜調優與shuffle調優,以解決更加棘手的效能問題。 資料傾斜調優 調優概述 有的時候,我們可能會遇到大資料計算中一個最棘手的問題——資料傾斜,此時Spark作業 美團點評 spark效能優化指南-高階篇前言: 最近開始玩spark,公司分享了一些不錯的spark效能優化學習,故在此分享: http://tech.meituan.com/spark-tuning-pro.html 前言 繼基礎篇講解了每個Spark開發人員都必須熟知的開發調優與資源調優之後, Spark效能優化指南——基礎篇前言 在大資料計算領域,Spark已經成為了越來越流行、越來越受歡迎的計算平臺之一。Spark的功能涵蓋了大資料領域的離線批處理、SQL類處理、流式/實時計算、機器學習、圖計算等各種不同型別的計算操作,應用範圍與前景非常廣泛。在美團•大眾點評,已經有很多同學在各種專案中嘗試使用Spark。大多數同學(包括筆 Spark效能優化指南——初級篇原文來我的公眾號:Spark效能優化指南——初級篇 一. Spark作業原理 我們使用spark-submit提交一個Spark作業之後,這個作業就會啟動一個對應的Driver程序。該程序是向叢集管理器(Yarn,K8s)申請執行Spark作業需要使用的資源,這裡的資源指的就是Executor程序。 YARN 轉 Spark效能優化:資源調優篇前言 在開發完Spark作業之後,就該為作業配置合適的資源了。Spark的資源引數,基本都可以在spark-submit命令中作為引數設定。很多Spark初學者,通常不知道該設定哪些必要的引數,以及如何設定這些引數,最後就只能胡亂設定,甚至壓根兒不設定。資源引數設定的不合理,可能會導致沒 Spark效能優化:開發調優篇在大資料計算領域,Spark已經成為了越來越流行、越來越受歡迎的計算平臺之一。Spark的功能涵蓋了大資料領域的離線批處理、SQL類處理、流式/實時計算、機器學習、圖計算等各種不同型別的計算操作,應用範圍與前景非常廣泛。 然而,通過Spark開發出高效能的大 Spark效能優化:資源調優篇在開發完Spark作業之後,就該為作業配置合適的資源了。Spark的資源引數,基本都可以在spark-submit命令中作為引數設定。很多Spark初學者,通常不知道該設定哪些必要的引數,以及如何設定這些引數,最後就只能胡亂設定,甚至壓根兒不設定。資源引數設定的不合理,可能會 Spark效能優化——高階篇(資料傾斜部分處理可以學習下) 繼基礎篇講解了每個Spark開發人員都必須熟知的開發調優與資源調優之後,本文作為《Spark效能優化指南》的高階篇,將深入分析資料傾斜調優與shuffle調優,以解決更加棘手的效能問題。 資料傾斜調優 調優概述 有的時候,我們可能會遇到大資料計算中一個最棘手的 Spark效能優化篇三:資料傾斜調優方案實現思路:這個方案的核心實現思路就是進行兩階段聚合。第一次是區域性聚合,先給每個key都打上一個隨機數,比如10以內的隨機數,此時原先一樣的key就變成不一樣的了,比如(hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成(1_hello, 1) (1_hello Spark效能優化篇四:shuffle調優Spark效能優化篇四:shuffle調優 shuffle調優 調優概述 大多數Spark作業的效能主要就是消耗在了shuffle環節,因為該環節包含了大量的磁碟IO、序列化、網路資料 Spark效能優化篇二: 開發調優Spark效能優化 篇二 : 開發調優 1、前言 在大資料計算領域,Spark已經成為了越來越流行、越來越受歡迎的計算平臺之一。Spark的功能涵蓋了大資料領域的離線批處理、SQL類處理、流式/實時計 Spark效能優化篇一:資源調優Spark效能優化 篇一 :資源調優 所謂的Spark資源引數調優,其實主要就是對Spark執行過程中各個使用資源的地方,通過調節各種引數,來優化資源使用的效率,從而提升Spark作業的執行效能。以下引數就是Spark中主要的資源引數 Spark性能優化指南——高級篇stat 參數調優 5% 每一個 寫性能 nes fix 單獨 png Spark性能優化指南——高級篇 [TOC] 前言 繼基礎篇講解了每個Spark開發人員都必須熟知的開發調優與資源調優之後,本文作為《Spark性能優化指南》的高級篇,將深入分析數據傾斜調 基於Spark UI效能優化與除錯——初級篇Spark有幾種部署的模式,單機版、叢集版等等,平時單機版在資料量不大的時候可以跟傳統的java程式一樣進行斷電除錯、但是在叢集上除錯就比較麻煩了...遠端斷點不太方便,只能通過Log的形式進行資料分析,利用spark ui做效能調整和優化。 那麼本篇就介紹下如何利用Ui做效能分析,因為本人的經驗也不是很 Spark效能優化:優化資料結構如何優化資料結構? 1、優先使用陣列以及字串,而不是集合類。也就是說,優先用array,而不是ArrayList、LinkedList、HashMap等集合。 比如,有個List list = new Spark效能優化:高效能序列化類庫一、資料序列化概述: 在任何分散式系統中,序列化都是扮演著一個重要的角色的。如果使用的序列化技術,在執行序列化操作的時候很慢,或者是序列化後的資料還是很大,那麼會讓分散式應用程式的效能下降很多。所以,進行Spark效能優化的第一步,就是進行序列化的效能優化。 S Spark效能優化:資料傾斜調優資料傾斜調優 調優概述 有的時候,我們可能會遇到大資料計算中一個最棘手的問題——資料傾斜,此時Spark作業的效能會比期望差很多。資料傾斜調優,就是使用各種技術方案解決不同型別的資料傾斜問題,以保證Spark作業的效能。 資料傾斜發生時的現象 1、絕大多數ta |