1. 程式人生 > >Kafka 資料可靠性深度解讀

Kafka 資料可靠性深度解讀

1 概述

Kakfa起初是由LinkedIn公司開發的一個分散式的訊息系統,後成為Apache的一部分,它使用Scala編寫,以可水平擴充套件和高吞吐率而被廣泛使用。目前越來越多的開源分散式處理系統如Cloudera、Apache Storm、Spark等都支援與Kafka整合。

Kafka憑藉著自身的優勢,越來越受到網際網路企業的青睞,唯品會也採用Kafka作為其內部核心訊息引擎之一。Kafka作為一個商業級訊息中介軟體,訊息可靠性的重要性可想而知。如何確保訊息的精確傳輸?如何確保訊息的準確儲存?如何確保訊息的正確消費?這些都是需要考慮的問題。本文首先從Kafka的架構著手,先了解下Kafka的基本原理,然後通過對kakfa的儲存機制、複製原理、同步原理、可靠性和永續性保證等等一步步對其可靠性進行分析,最後通過benchmark來增強對Kafka高可靠性的認知。

2 Kafka體系架構

如上圖所示,一個典型的Kafka體系架構包括若干Producer(可以是伺服器日誌,業務資料,頁面前端產生的page view等等),若干broker(Kafka支援水平擴充套件,一般broker數量越多,叢集吞吐率越高),若干Consumer (Group),以及一個Zookeeper叢集。Kafka通過Zookeeper管理叢集配置,選舉leader,以及在consumer group發生變化時進行rebalance。Producer使用push(推)模式將訊息釋出到broker,Consumer使用pull(拉)模式從broker訂閱並消費訊息。

名詞解釋:

2.1 Topic & Partition

一個topic可以認為一個一類訊息,每個topic將被分成多個partition,每個partition在儲存層面是append log檔案。任何釋出到此partition的訊息都會被追加到log檔案的尾部,每條訊息在檔案中的位置稱為offset(偏移量),offset為一個long型的數字,它唯一標記一條訊息。每條訊息都被append到partition中,是順序寫磁碟,因此效率非常高(經驗證,順序寫磁碟效率比隨機寫記憶體還要高,這是Kafka高吞吐率的一個很重要的保證)。

每一條訊息被髮送到broker中,會根據partition規則選擇被儲存到哪一個partition。如果partition規則設定的合理,所有訊息可以均勻分佈到不同的partition裡,這樣就實現了水平擴充套件。(如果一個topic對應一個檔案,那這個檔案所在的機器I/O將會成為這個topic的效能瓶頸,而partition解決了這個問題)。在建立topic時可以在$KAFKA_HOME/config/server.properties中指定這個partition的數量(如下所示),當然可以在topic建立之後去修改partition的數量。

1234# The default number of log partitions per topic. More partitions allow greater# parallelism for consumption, but this will also result in more files across# the brokers.num.partitions=3

在傳送一條訊息時,可以指定這個訊息的key,producer根據這個key和partition機制來判斷這個訊息傳送到哪個partition。partition機制可以通過指定producer的partition.class這一引數來指定,該class必須實現kafka.producer.Partitioner介面。

有關Topic與Partition的更多細節,可以參考下面的“Kafka檔案儲存機制”這一節。

3 高可靠性儲存分析

Kafka的高可靠性的保障來源於其健壯的副本(replication)策略。通過調節其副本相關引數,可以使得Kafka在效能和可靠性之間運轉的遊刃有餘。Kafka從0.8.x版本開始提供partition級別的複製,replication的數量可以在$KAFKA_HOME/config/server.properties中配置(default.replication.refactor)。

這裡先從Kafka檔案儲存機制入手,從最底層瞭解Kafka的儲存細節,進而對其的儲存有個微觀的認知。之後通過Kafka複製原理和同步方式來闡述巨集觀層面的概念。最後從ISR,HW,leader選舉以及資料可靠性和永續性保證等等各個維度來豐富對Kafka相關知識點的認知。

3.1 Kafka檔案儲存機制

Kafka中訊息是以topic進行分類的,生產者通過topic向Kafka broker傳送訊息,消費者通過topic讀取資料。然而topic在物理層面又能以partition為分組,一個topic可以分成若干個partition,那麼topic以及partition又是怎麼儲存的呢?partition還可以細分為segment,一個partition物理上由多個segment組成,那麼這些segment又是什麼呢?下面我們來一一揭曉。

為了便於說明問題,假設這裡只有一個Kafka叢集,且這個叢集只有一個Kafka broker,即只有一臺物理機。在這個Kafka broker中配置($KAFKA_HOME/config/server.properties中)log.dirs=/tmp/kafka-logs,以此來設定Kafka訊息檔案儲存目錄,與此同時建立一個topic:topic_zzh_test,partition的數量為4($KAFKA_HOME/bin/kafka-topics.sh –create –zookeeper localhost:2181 –partitions 4 –topic topic_vms_test –replication-factor 4)。那麼我們此時可以在/tmp/kafka-logs目錄中可以看到生成了4個目錄:

1234drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_zzh_test-0drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_zzh_test-1drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_zzh_test-2drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_zzh_test-3

在Kafka檔案儲存中,同一個topic下有多個不同的partition,每個partiton為一個目錄,partition的名稱規則為:topic名稱+有序序號,第一個序號從0開始計,最大的序號為partition數量減1,partition是實際物理上的概念,而topic是邏輯上的概念。

上面提到partition還可以細分為segment,這個segment又是什麼?如果就以partition為最小儲存單位,我們可以想象當Kafka producer不斷髮送訊息,必然會引起partition檔案的無限擴張,這樣對於訊息檔案的維護以及已經被消費的訊息的清理帶來嚴重的影響,所以這裡以segment為單位又將partition細分。每個partition(目錄)相當於一個巨型檔案被平均分配到多個大小相等的segment(段)資料檔案中(每個segment 檔案中訊息數量不一定相等)這種特性也方便old segment的刪除,即方便已被消費的訊息的清理,提高磁碟的利用率。每個partition只需要支援順序讀寫就行,segment的檔案生命週期由服務端配置引數(log.segment.bytes,log.roll.{ms,hours}等若干引數)決定。

segment檔案由兩部分組成,分別為“.index”檔案和“.log”檔案,分別表示為segment索引檔案和資料檔案。這兩個檔案的命令規則為:partition全域性的第一個segment從0開始,後續每個segment檔名為上一個segment檔案最後一條訊息的offset值,數值大小為64位,20位數字字元長度,沒有數字用0填充,如下:

12345600000000000000000000.index00000000000000000000.log00000000000000170410.index00000000000000170410.log00000000000000239430.index00000000000000239430.log

以上面的segment檔案為例,展示出segment:00000000000000170410的“.index”檔案和“.log”檔案的對應的關係,如下圖:

如上圖,“.index”索引檔案儲存大量的元資料,“.log”資料檔案儲存大量的訊息,索引檔案中的元資料指向對應資料檔案中message的物理偏移地址。其中以“.index”索引檔案中的元資料[3, 348]為例,在“.log”資料檔案表示第3個訊息,即在全域性partition中表示170410+3=170413個訊息,該訊息的物理偏移地址為348。

那麼如何從partition中通過offset查詢message呢?

以上圖為例,讀取offset=170418的訊息,首先查詢segment檔案,其中00000000000000000000.index為最開始的檔案,第二個檔案為00000000000000170410.index(起始偏移為170410+1=170411),而第三個檔案為00000000000000239430.index(起始偏移為239430+1=239431),所以這個offset=170418就落到了第二個檔案之中。其他後續檔案可以依次類推,以其實偏移量命名並排列這些檔案,然後根據二分查詢法就可以快速定位到具體檔案位置。其次根據00000000000000170410.index檔案中的[8,1325]定位到00000000000000170410.log檔案中的1325的位置進行讀取。

要是讀取offset=170418的訊息,從00000000000000170410.log檔案中的1325的位置進行讀取,那麼怎麼知道何時讀完本條訊息,否則就讀到下一條訊息的內容了?

這個就需要聯絡到訊息的物理結構了,訊息都具有固定的物理結構,包括:offset(8 Bytes)、訊息體的大小(4 Bytes)、crc32(4 Bytes)、magic(1 Byte)、attributes(1 Byte)、key length(4 Bytes)、key(K Bytes)、payload(N Bytes)等等欄位,可以確定一條訊息的大小,即讀取到哪裡截止。

3.2 複製原理和同步方式

Kafka中topic的每個partition有一個預寫式的日誌檔案,雖然partition可以繼續細分為若干個segment檔案,但是對於上層應用來說可以將partition看成最小的儲存單元(一個有多個segment檔案拼接的“巨型”檔案),每個partition都由一些列有序的、不可變的訊息組成,這些訊息被連續的追加到partition中。

上圖中有兩個新名詞:HW和LEO。這裡先介紹下LEO,LogEndOffset的縮寫,表示每個partition的log最後一條Message的位置。HW是HighWatermark的縮寫,是指consumer能夠看到的此partition的位置,這個涉及到多副本的概念,這裡先提及一下,下節再詳表。

言歸正傳,為了提高訊息的可靠性,Kafka每個topic的partition有N個副本(replicas),其中N(大於等於1)是topic的複製因子(replica fator)的個數。Kafka通過多副本機制實現故障自動轉移,當Kafka叢集中一個broker失效情況下仍然保證服務可用。在Kafka中發生複製時確保partition的日誌能有序地寫到其他節點上,N個replicas中,其中一個replica為leader,其他都為follower, leader處理partition的所有讀寫請求,與此同時,follower會被動定期地去複製leader上的資料。

如下圖所示,Kafka叢集中有4個broker, 某topic有3個partition,且複製因子即副本個數也為3:

Kafka提供了資料複製演算法保證,如果leader發生故障或掛掉,一個新leader被選舉並被接受客戶端的訊息成功寫入。Kafka確保從同步副本列表中選舉一個副本為leader,或者說follower追趕leader資料。leader負責維護和跟蹤ISR(In-Sync Replicas的縮寫,表示副本同步佇列,具體可參考下節)中所有follower滯後的狀態。當producer傳送一條訊息到broker後,leader寫入訊息並複製到所有follower。訊息提交之後才被成功複製到所有的同步副本。訊息複製延遲受最慢的follower限制,重要的是快速檢測慢副本,如果follower“落後”太多或者失效,leader將會把它從ISR中刪除。

3.3 ISR

上節我們涉及到ISR (In-Sync Replicas),這個是指副本同步佇列。副本數對Kafka的吞吐率是有一定的影響,但極大的增強了可用性。預設情況下Kafka的replica數量為1,即每個partition都有一個唯一的leader,為了確保訊息的可靠性,通常應用中將其值(由broker的引數offsets.topic.replication.factor指定)大小設定為大於1,比如3。 所有的副本(replicas)統稱為Assigned Replicas,即AR。ISR是AR中的一個子集,由leader維護ISR列表,follower從leader同步資料有一些延遲(包括延遲時間replica.lag.time.max.ms和延遲條數replica.lag.max.messages兩個維度, 當前最新的版本0.10.x中只支援replica.lag.time.max.ms這個維度),任意一個超過閾值都會把follower剔除出ISR, 存入OSR(Outof-Sync Replicas)列表,新加入的follower也會先存放在OSR中。AR=ISR+OSR。

Kafka 0.10.x版本後移除了replica.lag.max.messages引數,只保留了replica.lag.time.max.ms作為ISR中副本管理的引數。為什麼這樣做呢?replica.lag.max.messages表示當前某個副本落後leaeder的訊息數量超過了這個引數的值,那麼leader就會把follower從ISR中刪除。假設設定replica.lag.max.messages=4,那麼如果producer一次傳送至broker的訊息數量都小於4條時,因為在leader接受到producer傳送的訊息之後而follower副本開始拉取這些訊息之前,follower落後leader的訊息數不會超過4條訊息,故此沒有follower移出ISR,所以這時候replica.lag.max.message的設定似乎是合理的。但是producer發起瞬時高峰流量,producer一次傳送的訊息超過4條時,也就是超過replica.lag.max.messages,此時follower都會被認為是與leader副本不同步了,從而被踢出了ISR。但實際上這些follower都是存活狀態的且沒有效能問題。那麼在之後追上leader,並被重新加入了ISR。於是就會出現它們不斷地剔出ISR然後重新迴歸ISR,這無疑增加了無謂的效能損耗。而且這個引數是broker全域性的。設定太大了,影響真正“落後”follower的移除;設定的太小了,導致follower的頻繁進出。無法給定一個合適的replica.lag.max.messages的值,故此,新版本的Kafka移除了這個引數。

注:ISR中包括:leader和follower。

上面一節還涉及到一個概念,即HW。HW俗稱高水位,HighWatermark的縮寫,取一個partition對應的ISR中最小的LEO作為HW,consumer最多隻能消費到HW所在的位置。另外每個replica都有HW,leader和follower各自負責更新自己的HW的狀態。對於leader新寫入的訊息,consumer不能立刻消費,leader會等待該訊息被所有ISR中的replicas同步後更新HW,此時訊息才能被consumer消費。這樣就保證瞭如果leader所在的broker失效,該訊息仍然可以從新選舉的leader中獲取。對於來自內部broKer的讀取請求,沒有HW的限制。

下圖詳細的說明了當producer生產訊息至broker後,ISR以及HW和LEO的流轉過程:

由此可見,Kafka的複製機制既不是完全的同步複製,也不是單純的非同步複製。事實上,同步複製要求所有能工作的follower都複製完,這條訊息才會被commit,這種複製方式極大的影響了吞吐率。而非同步複製方式下,follower非同步的從leader複製資料,資料只要被leader寫入log就被認為已經commit,這種情況下如果follower都還沒有複製完,落後於leader時,突然leader宕機,則會丟失資料。而Kafka的這種使用ISR的方式則很好的均衡了確保資料不丟失以及吞吐率。

Kafka的ISR的管理最終都會反饋到Zookeeper節點上。具體位置為:/brokers/topics/[topic]/partitions/[partition]/state。目前有兩個地方會對這個Zookeeper的節點進行維護:

  1. Controller來維護:Kafka叢集中的其中一個Broker會被選舉為Controller,主要負責Partition管理和副本狀態管理,也會執行類似於重分配partition之類的管理任務。在符合某些特定條件下,Controller下的LeaderSelector會選舉新的leader,ISR和新的leader_epoch及controller_epoch寫入Zookeeper的相關節點中。同時發起LeaderAndIsrRequest通知所有的replicas。
  2. leader來維護:leader有單獨的執行緒定期檢測ISR中follower是否脫離ISR, 如果發現ISR變化,則會將新的ISR的資訊返回到Zookeeper的相關節點中。

3.4 資料可靠性和永續性保證

當producer向leader傳送資料時,可以通過request.required.acks引數來設定資料可靠性的級別:

  • 1(預設):這意味著producer在ISR中的leader已成功收到的資料並得到確認後傳送下一條message。如果leader宕機了,則會丟失資料。
  • 0:這意味著producer無需等待來自broker的確認而繼續傳送下一批訊息。這種情況下資料傳輸效率最高,但是資料可靠性確是最低的。
  • -1:producer需要等待ISR中的所有follower都確認接收到資料後才算一次傳送完成,可靠性最高。但是這樣也不能保證資料不丟失,比如當ISR中只有leader時(前面ISR那一節講到,ISR中的成員由於某些情況會增加也會減少,最少就只剩一個leader),這樣就變成了acks=1的情況。

如果要提高資料的可靠性,在設定request.required.acks=-1的同時,也要min.insync.replicas這個引數(可以在broker或者topic層面進行設定)的配合,這樣才能發揮最大的功效。min.insync.replicas這個引數設定ISR中的最小副本數是多少,預設值為1,當且僅當request.required.acks引數設定為-1時,此引數才生效。如果ISR中的副本數少於min.insync.replicas配置的數量時,客戶端會返回異常:org.apache.kafka.common.errors.NotEnoughReplicasExceptoin: Messages are rejected since there are fewer in-sync replicas than required。

接下來對acks=1和-1的兩種情況進行詳細分析:

1. request.required.acks=1

producer傳送資料到leader,leader寫本地日誌成功,返回客戶端成功;此時ISR中的副本還沒有來得及拉取該訊息,leader就宕機了,那麼此次傳送的訊息就會丟失。

2. request.required.acks=-1

同步(Kafka預設為同步,即producer.type=sync)的傳送模式,replication.factor>=2且min.insync.replicas>=2的情況下,不會丟失資料。

有兩種典型情況。acks=-1的情況下(如無特殊說明,以下acks都表示為引數request.required.acks),資料傳送到leader, ISR的follower全部完成資料同步後,leader此時掛掉,那麼會選舉出新的leader,資料不會丟失。

acks=-1的情況下,資料傳送到leader後 ,部分ISR的副本同步,leader此時掛掉。比如follower1h和follower2都有可能變成新的leader, producer端會得到返回異常,producer端會重新發送資料,資料可能會重複。

當然上圖中如果在leader crash的時候,follower2還沒有同步到任何資料,而且follower2被選舉為新的leader的話,這樣訊息就不會重複。

注:Kafka只處理fail/recover問題,不處理Byzantine問題。

3.5 關於HW的進一步探討

考慮上圖(即acks=-1,部分ISR副本同步)中的另一種情況,如果在Leader掛掉的時候,follower1同步了訊息4,5,follower2同步了訊息4,與此同時follower2被選舉為leader,那麼此時follower1中的多出的訊息5該做如何處理呢?

這裡就需要HW的協同配合了。如前所述,一個partition中的ISR列表中,leader的HW是所有ISR列表裡副本中最小的那個的LEO。類似於木桶原理,水位取決於最低那塊短板。

如上圖,某個topic的某partition有三個副本,分別為A、B、C。A作為leader肯定是LEO最高,B緊隨其後,C機器由於配置比較低,網路比較差,故而同步最慢。這個時候A機器宕機,這時候如果B成為leader,假如沒有HW,在A重新恢復之後會做同步(makeFollower)操作,在宕機時log檔案之後直接做追加操作,而假如B的LEO已經達到了A的LEO,會產生資料不一致的情況,所以使用HW來避免這種情況。

A在做同步操作的時候,先將log檔案截斷到之前自己的HW的位置,即3,之後再從B中拉取訊息進行同步。

如果失敗的follower恢復過來,它首先將自己的log檔案截斷到上次checkpointed時刻的HW的位置,之後再從leader中同步訊息。leader掛掉會重新選舉,新的leader會發送“指令”讓其餘的follower截斷至自身的HW的位置然後再拉取新的訊息。

當ISR中的個副本的LEO不一致時,如果此時leader掛掉,選舉新的leader時並不是按照LEO的高低進行選舉,而是按照ISR中的順序選舉。

3.6 Leader選舉

一條訊息只有被ISR中的所有follower都從leader複製過去才會被認為已提交。這樣就避免了部分資料被寫進了leader,還沒來得及被任何follower複製就宕機了,而造成資料丟失。而對於producer而言,它可以選擇是否等待訊息commit,這可以通過request.required.acks來設定。這種機制確保了只要ISR中有一個或者以上的follower,一條被commit的訊息就不會丟失。

相關推薦

Kafka資料可靠性深度解讀

1 概述 Kakfa起初是由LinkedIn公司開發的一個分散式的訊息系統,後成為Apache的一部分,它使用Scala編寫,以可水平擴充套件和高吞吐率而被廣泛使用。目前越來越多的開源分散式處理系統如Cloudera、Apache Storm、Spark等都支援與Kafka

Kafka 資料可靠性深度解讀

1 概述Kakfa起初是由LinkedIn公司開發的一個分散式的訊息系統,後成為Apache的一部分,它使用Scala編寫,以可水平擴充套件和高吞吐率而被廣泛使用。目前越來越多的開源分散式處理系統如Cloudera、Apache Storm、Spark等都支援與Kafka整合

深度解讀Kafka資料可靠性

Kafka起初是由LinkedIn公司開發的一個分散式的訊息系統,後成為Apache的一部分,它使用Scala編寫,以可水平擴充套件和高吞吐率而被廣泛使用。目前越來越多的開源分散式處理系統如Cloudera、Apache Storm、Spark等都支援與Kafka整合。 1 概述 Kafka

Kafka資料可靠性與一致性解析

1.Partition Recovery機制 每個Partition會在磁碟記錄一個RecoveryPoint, 記錄已經flush到磁碟的最大offset。當broker fail 重啟時,會進行loadLogs。 首先會讀取該Partition的R

kafka資料可靠性詳解

一、AR 在Kafka中維護了一個AR列表,包括所有的分割槽的副本。AR又分為ISR和OSR。 AR = ISR + OSR。 AR、ISR、OSR、LEO、HW這些資訊都被儲存在Zookeeper中。 1.ISR ISR中的副本都要同步leader中的資料,只有都

訊息佇列Kafka可靠性原理深度解讀上篇

1 概述 Kakfa起初是由LinkedIn公司開發的一個分散式的訊息系統,後成為Apache的一部分,它使用Scala編寫,以可水平擴充套件和高吞吐率而被廣泛使用。目前越來越多的開源分散式處理系統如Cloudera、Apache Storm、Spark等都支援與Kafka整合。 Kafka憑藉著自身

kafka實戰 - 資料可靠性

概述   常見的儲存高可用方案的根本原理就是把資料複製到多個儲存裝置,通過資料冗餘的方式來實現資料的可靠性。比如同一份資料,一份在城市A,一份在城市B。如果城市A發生自然災害導致機房癱瘓,那麼業務就可以直接切到城市B進行服務,從而保障業務的高可用。但是這是理想情況,一旦資料被複制並且分開儲存,就涉及到了網路

一文深度解讀阿里雲CDN實時日誌的前世今生:挖掘實時資料的無限價值

阿里雲CDN實時日誌服務可以將CDN採集的日誌,秒級的交付給使用者, 並且可以對採集到的日誌進行實時、互動式分析和報表呈現,為監控、報警、渠道分析、運營分析提供實時、可靠的資料參考,讓使用者遠離鎖事,專注資料價值。 12月26日,阿里雲CDN實時日誌服務舉辦線上直播發佈會,全網首次深度解讀阿

深度解讀|如何實現政務大資料開放與共享

隨著大資料研究的興起,政務大資料已然進入政府管理改革的新範疇。2016 年1 月,國家發改委印發了《關於組織實施促進大資料發展重大工程的通知》,重點支援大資料共享開放,提出建立完善公共資料開放制度和建立統一的公共資料共享開放平臺體系,探索構建國家資料中心體系,從而優化公共

Kafka基礎-可靠性資料傳輸

可靠的資料傳輸是系統的一個必要屬性,就像效能一樣,必須從一開始就設計到系統中。Apache Kafka在可靠的資料傳輸方面非常靈活,支援非常多的配置引數。 1. 可靠性保證 當我們討論可靠性時,通常會提到保證這個術語。最著名的可靠性保證ACID,它是關係型資料庫普遍支援的

深度學習】【物聯網】深度解讀深度學習在IoT大資料和流分析中的應用

作者|Natalie編輯|EmilyAI 前線導讀:在物聯網時代,大量的感知器每天都在收集併產生

SQL Server 2019 深度解讀:微軟資料平臺的野望

本文為筆者在InfoQ首發的原創文章,主要利用週末時間陸續寫成,也算近期用心之作。現轉載回自己的公眾號,請大家多多指教。 11 月 4 日,微軟正式釋出了其新一代資料庫產品 SQL Server 2019,帶來了大資料叢集、資料虛擬化等重磅特性。本次釋出距離上一個大版本 SQL Server 2017 不

深度解讀最流行的優化算法:梯度下降

example 分別是 課程 拓展 高斯分布 正則 當前時間 lam 選擇 深度解讀最流行的優化算法:梯度下降 By 機器之心2016年11月21日 15:08 梯度下降法,是當今最流行的優化(optimization)算法,亦是至今最常用的優化神經網絡的方法。本文旨在

AI 新技術革命將如何重塑就業和全球化格局?深度解讀 UN 報告 (下篇)

國際 mmu tar rda under 提高 更多 unit log 歡迎大家前往騰訊雲社區,獲取更多騰訊海量技術實踐幹貨哦~ 相關推薦:AI 新技術革命將如何重塑就業和全球化格局?深度解讀 UN 報告 (上篇)AI 新技術革命將如何重塑就業和全球化格局?深度解讀 U

深度解讀GoogleNet之Inception V1

能力 翻轉 浪費 對齊 並行運算 bubuko AD 好的 減少 GoogleNet設計的目的 GoogleNet設計的初衷是為了提高在網絡裏面的計算資源的利用率。 Motivation 網絡越大,意味著網絡的參數較多,尤其當數據集很小的時候,網絡更容易發生過擬合。網絡越大

深度解讀 java 線程池設計思想及源碼實現

blog execute 進行 第一個 組合 main cit ria 等待 我相信大家都看過很多的關於線程池的文章,基本上也是面試必問的,好像我寫這篇文章其實是沒有什麽意義的,不過,我相信你也和我一樣,看了很多文章還是一知半解,甚至可能看了很多瞎說的文章。希望大家看過這篇

深度解讀 | NB-IoT射頻指標,到底是個啥?

從前車馬慢,見一個人要翻山越嶺。如今滿世界飛,社交軟體上的網友甚至可以愛個遍,人類卻感覺越來越孤單。 科技的發展,並不能解決所有問題。就像NB-IoT的火爆,同樣帶來了一系列不可忽視的麻煩。 比如,使用者體驗要求越來越高,終端廠商在其產品無線效能的把控上反而越來越弱,能發現哪裡體驗不

DQN從入門到放棄5 深度解讀DQN演算法

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!        

Kafka資料清理

https://www.cnblogs.com/moonandstar08/p/6204581.html  由於專案原因,最近經常碰到Kafka訊息佇列擁堵的情況。碰到這種情況為了不影響線上系統的正常使用,需要大家手動的清理Kafka Log。但是清理Kafka Log又不能單純的去刪

Linux檔案和資料夾許可權解讀

首先來檢視一下當前目錄下的檔案內容吧: ls -l 檢視當前目錄下的檔案列表 ls -ld 目錄名稱 檢視指定資料夾許可權 ls -l xxx.xxx (xxx.xxx是檔名) 檢視指定的檔案 我們可以看到檔案的許可權,-rw-rw-r--