從聯結器元件看Tomcat的執行緒模型——NIO模式
阿新 • • 發佈:2020-07-17
Tomcat8之後,針對Http協議預設使用org.apache.coyote.http11.Http11NioProtocol,也就是NIO模式。通過之前的部落格分析,我們知道Connector元件在初始化和start的時候會觸發它子元件(Http11NioProtocol、NIOEndpoint的初始化和start)。
## NIO模式工作時序圖
還是像之前那樣,我們先整理出NIO模式啟動時的時序圖。
![](https://img2020.cnblogs.com/blog/1775037/202007/1775037-20200712174238818-248733138.png)
從上面的時序圖可以看出,整個流程的重點時在NioEndpoint這個類中。下面我們通過原始碼看下這幾個重點方法。
```java
//NIO模式繫結埠
public void bind() throws Exception {
//初始化套接字服務,需要注意的是在NIO模式下,這個ServerSocketChannel還是阻塞模式的
initServerSocket();
//設定預設的acceptor執行緒數,預設是1個,這個引數暫時好像沒法修改(??)
//注意這個引數和acceptCount(接收請求連線的數量)之間的區別
if (acceptorThreadCount == 0) {
acceptorThreadCount = 1;
}
//設定pollerThreadCount,根據CPU的核數來,CPU大於2個設定為2,否則為1
if (pollerThreadCount <= 0)
pollerThreadCount = 1;
}
//設定CountDownLatch
setStopLatch(new CountDownLatch(pollerThreadCount));
initialiseSsl();
selectorPool.open();
}
```
這個程式碼主要做了些初始化工作,初始化套接字服務,初始化acceptorThreadCount和pollerThreadCount等。
再看看startInternal程式碼:
```java
@Override
public void startInternal() throws Exception {
if (!running) {
running = true;
paused = false;
//建立3個快取
//頻繁建立SocketProcessor成本高
processorCache = new SynchronizedStack<>(SynchronizedStack.DEFAULT_SIZE,
socketProperties.getProcessorCache());
eventCache = new SynchronizedStack<>(SynchronizedStack.DEFAULT_SIZE,
socketProperties.getEventCache());
nioChannels = new SynchronizedStack<>(SynchronizedStack.DEFAULT_SIZE,
socketProperties.getBufferPool());
//一般情況下,我們自己不配置執行緒池,所以會進入這個方法,也可以自己在server.xml中配置這個執行緒池。
if ( getExecutor() == null ) {
//建立一個核心執行緒數是10,最大執行緒數是200,佇列長度是Integer.MaxValue的執行緒池
//注意下,這邊執行緒池的邏輯和JDK中執行緒池的邏輯不一樣,預設建立10個執行緒,當請求數
//超過10個的話會繼續建立,最大建立200個執行緒,超過200個後,任務就會進入阻塞佇列
//值得注意的是Tomcat的執行緒池繼承了JDK的ThreadPoolExecutor,但是重寫了執行緒池的預設
//機制。Tomcat的執行緒池會預設建立corePoolSize個執行緒,此時執行緒池中的執行緒都是空閒的。
//隨著不斷向執行緒池中新增任務,空閒執行緒逐漸減少,當執行緒池中的空閒執行緒耗盡之前,任務
//都會直接被提交到執行緒池的佇列中(這些任務會立即被空閒執行緒消費),當執行緒池中沒有空閒
//執行緒而且執行緒池中的執行緒總數沒達到MaximumPoolSize,會建立一個新的執行緒來執行新的任務;
//當執行緒池的大小達到MaximumPoolSize時,直接將任務放進佇列,等到有執行緒空閒下來後再處理
//這個任務。(參考TaskQueue的offer方法)
createExecutor();
}
initializeConnectionLatch();
// Start poller threads
//開啟poller執行緒,如果CPU是多核就開啟2個,否則開啟一個
pollers = new Poller[getPollerThreadCount()];
for (int i=0; i節點的maxConnections屬性修改,同時要注意,連線數到達最大值後,作業系統仍然會接收客戶端連線,直到作業系統接收佇列被塞滿。佇列預設長度為100,可通過server.xml中節點的acceptCount屬性配置。
**Acceptor元件**
Acceptor的主要職責也是監聽是否有客戶端連線進來並接收連線,這裡需要注意的是,accept操作是阻塞的。假如使用者一直沒有請求傳送過來,acceptor執行緒將一直阻塞。
**Acceptor接收SocketChannel物件後要把它設定為非阻塞,這是因為後面對客戶端所有的連線都採取非阻塞模式處理。接著設定套接字的一些屬性,再封裝成非阻塞通道物件。非阻塞通道可能是NioChannel也可能是SecureNioChannel**,這取決於使用HTTP通訊還是使用HTTPS通訊。最後將非阻塞通道物件註冊到通道佇列中並由Poller負責檢測事件。
**任務定義器SocketProcessor**
與JIoEndpoint元件相似,將任務放到執行緒池中處理前需要定義好任務的執行邏輯。根據執行緒池的約定,它必須擴充套件Runnable介面:
```java
protected class SocketProcessor extends SocketProcessorBase {
//NIO方式讀取套接字處理,並返回
//連線數減一
//關閉連線
}
```
因為NIO與BIO模式有很大不同,其中一個很大不同在於BIO每次返回都肯定能獲取若干位元組,而NIO無法保證每次讀取的位元組量,可多可少甚至可能沒有,所以對於NIO模式,只能“嘗試”處理請求報文。例如,第一次只讀取了請求頭部的一部分,不足以開始處理,但並不會阻塞,而是繼續往下執行,直到下次迴圈到來,此時可能請求頭部的另外一部分已經被讀取,則可以開始處理請求頭部。
**連線輪詢器Poller**
NIO模型需要同時對很多連線進行管理,管理的方式則是不斷遍歷事件列表,對相應連線的相應事件做出處理,而遍歷的工作正是交給Poller負責。Poller負責的工作可以用下圖簡單表示出來,在Java層面上看,它不斷輪詢事件列表,一旦發現相應的事件則封裝成任務定義器SocketProcessor,進而扔進執行緒池中執行任務。當然,由於NioEndpoint元件內有一個Poller池,因此如果不存線上程池,任務將由Poller直接執行。
![](https://img2020.cnblogs.com/blog/1775037/202007/1775037-20200712174713076-1629604212.png)
Poller內部依賴JDK的Selector物件進行輪詢,Selector會選擇出待處理的事件,每輪詢一次就選出若干需要處理的通道,例如從通道中讀取位元組、將位元組寫入Channel等。在NIO模式下,因為每次讀取的資料是不確定的,對於HTTP協議來說,每次讀取的資料可能既包含了請求行也包含了請求頭部,也可能不包含請求頭部,所以每次只能嘗試去解析報文。若解析不成功則等待下次輪詢讀取更多的資料後再嘗試解析,若解析報文成功則做一些邏輯處理後對客戶端響應,而這些報文解析、邏輯處理、響應等都是在任務定義器中定義的。
**Poller池子**
在NIO模式下,對於客戶端連線的管理都是基於事件驅動的,上一節提到NioEndpoint元件包含了Poller元件,Poller負責的工作就是檢測事件並處理事件。但假如整個Tomcat的所有客戶端連線都交給一個執行緒來處理,那麼即使這個執行緒是不阻塞的,整體處理效能也可能無法達到最佳或較佳的狀態。為了提升處理效能,Tomcat設計成由多個Poller共同處理所有客戶端連線,所有連線均攤給每個Poller處理,而這些Poller便組成了Poller池。
整個結構如圖6.40所示,客戶端連線由Acceptor元件接收後按照一定的演算法放到通道佇列上。這裡使用的是輪詢排程演算法,從第1個佇列到第N個佇列迴圈分配,假如這裡有3個Poller,則第1個連線分配給第1個Poller對應的通道列表,第2個連線分配給第2個Poller對應的通道列表,以此類推,到第4個連線又分配到第1個Poller對應的通道列表上。這種演算法基本保證了每個Poller所對應處理的連線數均勻,每個Poller各自輪詢檢測自己對應的事件列表,一旦發現需要處理的連線則對其進行處理。這時如果NioEndpoint元件包含任務執行器(Executor)則會將任務處理交給它,但假如沒有Executor元件,Poller則自己處理任務。
![](https://img2020.cnblogs.com/blog/1775037/202007/1775037-20200712175016241-18534610.jpg)
Poller池的大小多少比較合適呢?Tomcat使用了一個經典的演算法Math.min(2, Runtime. getRuntime().availableProcessors()),即會根據Tomcat執行環境決定Poller元件的數量。所以在Tomcat中最少會有兩個Poller元件,而如果執行在更多處理器的機器上,則JVM可用處理器個數等於Poller元件的個數。
## 參考
http://server.51cto.com/sOS-595052.html
https://nod0620.iteye.com/blog/998215
https://www.jianshu.com/p/370af4895545
https://www.jianshu.com/p/901a6e35b3d9
http://m.elecfans.com/article/632834.html