入門科普:一文看懂NLP和中文分詞演算法(附程式碼舉例)
導讀:在人類社會中,語言扮演著重要的角色,語言是人類區別於其他動物的根本標誌,沒有語言,人類的思維無從談起,溝通交流更是無源之水。
所謂“自然”乃是寓意自然進化形成,是為了區分一些人造語言,類似C++、Java等人為設計的語言。
NLP的目的是讓計算機能夠處理、理解以及運用人類語言,達到人與計算機之間的有效通訊。
作者:塗銘 劉祥 劉樹春
本文摘編自《Python自然語言處理實戰:核心技術與演算法》,如需轉載請聯絡我們
01 什麼是NLP
1. NLP的概念
NLP(Natural Language Processing,自然語言處理)是電腦科學領域以及人工智慧領域的一個重要的研究方向,它研究用計算機來處理、理解以及運用人類語言(如中文、英文等),達到人與計算機之間進行有效通訊。
在一般情況下,使用者可能不熟悉機器語言,所以自然語言處理技術可以幫助這樣的使用者使用自然語言和機器交流。從建模的角度看,為了方便計算機處理,自然語言可以被定義為一組規則或符號的集合,我們組合集合中的符號來傳遞各種資訊。
這些年,NLP研究取得了長足的進步,逐漸發展成為一門獨立的學科,從自然語言的角度出發,NLP基本可以分為兩個部分:自然語言處理以及自然語言生成,演化為理解和生成文字的任務,如圖所示。
▲NLP的基本分類
自然語言的理解是個綜合的系統工程,它又包含了很多細分學科,有代表聲音的音系學,代表構詞法的詞態學,代表語句結構的句法學,代表理解的語義句法學和語用學。
音系學:指代語言中發音的系統化組織。
詞態學:研究單詞構成以及相互之間的關係。
句法學:給定文字的哪部分是語法正確的。
語義學:給定文字的含義是什麼?
語用學:文字的目的是什麼?
語言理解涉及語言、語境和各種語言形式的學科。而自然語言生成(Natural Language Generation,NLG)恰恰相反,從結構化資料中以讀取的方式自動生成文字。該過程主要包含三個階段:
文字規劃:完成結構化資料中的基礎內容規劃
語句規劃:從結構化資料中組合語句來表達資訊流
實現:產生語法通順的語句來表達文字
2. NLP的研究任務
NLP可以被應用於很多領域,這裡大概總結出以下幾種通用的應用:
機器翻譯:計算機具備將一種語言翻譯成另一種語言的能力。
情感分析:計算機能夠判斷使用者評論是否積極。
智慧問答:計算機能夠正確回答輸入的問題。
文摘生成:計算機能夠準確歸納、總結併產生文字摘要。
文字分類:計算機能夠採集各種文章,進行主題分析,從而進行自動分類。
輿論分析:計算機能夠判斷目前輿論的導向。
知識圖譜:知識點相互連線而成的語義網路。
機器翻譯是自然語言處理中最為人所熟知的場景,國內外有很多比較成熟的機器翻譯產品,比如百度翻譯、Google翻譯等,還有提供支援語音輸入的多國語言互譯的產品。
情感分析在一些評論網站比較有用,比如某餐飲網站的評論中會有非常多拔草的客人的評價,如果一眼掃過去滿眼都是又貴又難吃,那誰還想去呢?另外有些商家為了獲取大量的客戶不惜僱傭水軍灌水,那就可以通過自然語言處理來做水軍識別,情感分析來分析總體使用者評價是積極還是消極。
智慧問答在一些電商網站有非常實際的價值,比如代替人工充當客服角色,有很多基本而且重複的問題,其實並不需要人工客服來解決,通過智慧問答系統可以篩選掉大量重複的問題,使得人工座席能更好地服務客戶。
文摘生成利用計算機自動地從原始文獻中摘取文摘,全面準確地反映某一文獻的中心內容。這個技術可以幫助人們節省大量的時間成本,而且效率更高。
文字分類是機器對文字按照一定的分類體系自動標註類別的過程。舉一個例子,垃圾郵件是一種令人頭痛的頑症,困擾著非常多的網際網路使用者。2002年,Paul Graham提出使用“貝葉斯推斷”來過濾垃圾郵件,1000封垃圾郵件中可以過濾掉995封並且沒有一個是誤判,另外這種過濾器還具有自我學習功能,會根據新收到的郵件,不斷調整。也就是說收到的垃圾郵件越多,相對應的判斷垃圾郵件的準確率就越高。
輿論分析可以幫助分析哪些話題是目前的熱點,分析傳播路徑以及發展趨勢,對於不好的輿論導向可以進行有效的控制。
知識圖譜(Knowledge Graph/Vault)又稱科學知識圖譜,在圖書情報界稱為知識域視覺化或知識領域對映地圖,是顯示知識發展程序與結構關係的一系列各種不同的圖形,用視覺化技術描述知識資源及其載體,挖掘、分析、構建、繪製和顯示知識及它們之間的相互聯絡。知識圖譜的一般表現形式如圖所示。
▲知識圖譜圖示
3. NLP相關知識的構成
3.1 基本術語
為了幫助讀者更好地學習NLP,這裡會一一介紹NLP領域的一些基礎專業詞彙。
(1)分詞(segment)
詞是最小的能夠獨立活動的有意義的語言成分,英文單詞之間是以空格作為自然分界符的,而漢語是以字為基本的書寫單位,詞語之間沒有明顯的區分標記,因此,中文詞語分析是中文分詞的基礎與關鍵。
中文和英文都存在分詞的需求,不過相較而言,英文單詞本來就有空格進行分割,所以處理起來相對方便。但是,由於中文是沒有分隔符的,所以分詞的問題就比較重要。
分詞常用的手段是基於字典的最長串匹配,據說可以解決85%的問題,但是歧義分詞很難。舉個例子,“美國會通過對臺售武法案”,我們既可以切分為“美國/會/通過對臺售武法案”,又可以切分成“美/國會/通過對臺售武法案”。
(2)詞性標註(part-of-speech tagging)
基於機器學習的方法裡,往往需要對詞的詞性進行標註。詞性一般是指動詞、名詞、形容詞等。標註的目的是表徵詞的一種隱藏狀態,隱藏狀態構成的轉移就構成了狀態轉移序列。例如:我/r愛/v北京/ns天安門/ns。其中,ns代表名詞,v代表動詞,ns、v都是標註,以此類推。
(3)命名實體識別(NER,Named Entity Recognition)
命名實體是指從文字中識別具有特定類別的實體(通常是名詞),例如人名、地名、機構名、專有名詞等。
(4)句法分析(syntax parsing)
句法分析往往是一種基於規則的專家系統。當然也不是說它不能用統計學的方法進行構建,不過最初的時候,還是利用語言學專家的知識來構建的。句法分析的目的是解析句子中各個成分的依賴關係。
所以,往往最終生成的結果是一棵句法分析樹。句法分析可以解決傳統詞袋模型不考慮上下文的問題。比如,“小李是小楊的班長”和“小楊是小李的班長”,這兩句話,用詞袋模型是完全相同的,但是句法分析可以分析出其中的主從關係,真正理清句子的關係。
(5)指代消解(anaphora resolution)
中文中代詞出現的頻率很高,它的作用的是用來表徵前文出現過的人名、地名等。
例如,清華大學坐落於北京,這家大學是目前中國最好的大學之一。在這句話中,其實“清華大學”這個詞出現了兩次,“這家大學”指代的就是清華大學。但是出於中文的習慣,我們不會把“清華大學”再重複一遍。
(6)情感識別(emotion recognition)
所謂情感識別,本質上是分類問題,經常被應用在輿情分析等領域。情感一般可以分為兩類,即正面、負面,也可以是三類,在前面的基礎上,再加上中性類別。
一般來說,在電商企業,情感識別可以分析商品評價的好壞,以此作為下一個環節的評判依據。通常可以基於詞袋模型+分類器,或者現在流行的詞向量模型+RNN。經過測試發現,後者比前者準確率略有提升。
(7)糾錯(correction)
自動糾錯在搜尋技術以及輸入法中利用得很多。由於使用者的輸入出錯的可能性比較大,出錯的場景也比較多。所以,我們需要一個糾錯系統。具體做法有很多,可以基於N-Gram進行糾錯,也可以通過字典樹、有限狀態機等方法進行糾錯。
(8)問答系統(QA system)
這是一種類似機器人的人工智慧系統。比較著名的有:蘋果Siri、IBM Watson、微軟小冰等。問答系統往往需要語音識別、合成,自然語言理解、知識圖譜等多項技術的配合才會實現得比較好。
3.2 知識結構
作為一門綜合學科,NLP是研究人與機器之間用自然語言進行有效通訊的理論和方法。這需要很多跨學科的知識,需要語言學、統計學、最優化理論、機器學習、深度學習以及自然語言處理相關理論模型知識做基礎。
作為一門雜學,NLP可謂是包羅永珍,體系化與特殊化並存,這裡簡單羅列其知識體系,知識結構結構圖如圖所示。
▲知識結構圖示
自然語言的學習,需要有以下幾個前置知識體系:
目前主流的自然語言處理技術使用python來編寫。
統計學以及線性代數入門。
02 中文分詞技術
1. 中文分詞簡介
“詞”這個概念一直是漢語語言學界糾纏不清而又繞不開的問題。“詞是什麼”(詞的抽象定義)和“什麼是詞”(詞的具體界定),這兩個基本問題迄今為止也未能有一個權威、明確的表述,更無法拿出令大眾認同的詞表來。主要難點在於漢語結構與印歐體系語種差異甚大,對詞的構成邊界方面很難進行界定。
比如,在英語中,單詞本身就是“詞”的表達,一篇英文文章就是“單詞”加分隔符(空格)來表示的,而在漢語中,詞以字為基本單位的,但是一篇文章的語義表達卻仍然是以詞來劃分的。
因此,在處理中文文字時,需要進行分詞處理,將句子轉化為詞的表示。這個切詞處理過程就是中文分詞,它通過計算機自動識別出句子的詞,在詞間加入邊界標記符,分隔出各個詞彙。
整個過程看似簡單,然而實踐起來卻很複雜,主要的困難在於分詞歧義。以NLP分詞的經典語句舉例,“結婚的和尚未結婚的”,應該分詞為“結婚/的/和/尚未/結婚/的”,還是“結婚/的/和尚/未/結婚/的”?這個由人來判定都是問題,機器就更難處理了。
此外,像未登入詞、分詞粒度粗細等都是影響分詞效果的重要因素。
自中文自動分詞被提出以來,歷經將近30年的探索,提出了很多方法,可主要歸納為“規則分詞”“統計分詞”和“混合分詞(規則+統計)”這三個主要流派。
規則分詞是最早興起的方法,主要是通過人工設立詞庫,按照一定方式進行匹配切分,其實現簡單高效,但對新詞很難進行處理。
隨後統計機器學習技術的興起,應用於分詞任務上後,就有了統計分詞,能夠較好應對新詞發現等特殊場景。
然而實踐中,單純的統計分詞也有缺陷,那就是太過於依賴語料的質量,因此實踐中多是採用這兩種方法的結合,即混合分詞。
下面將詳細介紹這些方法的代表性演算法。
2. 規則分詞
基於規則的分詞是一種機械分詞方法,主要是通過維護詞典,在切分語句時,將語句的每個字串與詞表中的詞進行逐一匹配,找到則切分,否則不予切分。
按照匹配切分的方式,主要有正向最大匹配法、逆向最大匹配法以及雙向最大匹配法三種方法。
2.1 正向最大匹配法
正向最大匹配(Maximum Match Method,MM法)的基本思想為:假定分詞詞典中的最長詞有i個漢字字元,則用被處理文件的當前字串中的前i個字作為匹配欄位,查詢字典。若字典中存在這樣的一個i字詞,則匹配成功,匹配欄位被作為一個詞切分出來。如果詞典中找不到這樣的一個i字詞,則匹配失敗,將匹配欄位中的最後一個字去掉,對剩下的字串重新進行匹配處理。
如此進行下去,直到匹配成功,即切分出一個詞或剩餘字串的長度為零為止。這樣就完成了一輪匹配,然後取下一個i字字串進行匹配處理,直到文件被掃描完為止。
其演算法描述如下:
從左向右取待切分漢語句的m個字元作為匹配欄位,m為機器詞典中最長詞條的字元數。
查詢機器詞典並進行匹配。若匹配成功,則將這個匹配欄位作為一個詞切分出來。若匹配不成功,則將這個匹配欄位的最後一個字去掉,剩下的字串作為新的匹配欄位,進行再次匹配,重複以上過程,直到切分出所有詞為止。
比如我們現在有個詞典,最長詞的長度為5,詞典中存在“南京市長”和“長江大橋”兩個詞。
現採用正向最大匹配對句子“南京市長江大橋”進行分詞,那麼首先從句子中取出前五個字“南京市長江”,發現詞典中沒有該詞,於是縮小長度,取前4個字“南京市長”,詞典中存在該詞,於是該詞被確認切分。再將剩下的“江大橋”按照同樣方式切分,得到“江”“大橋”,最終分為“南京市長”“江”“大橋”3個詞。
顯然,這種結果還不是我們想要的。
2.2 逆向最大匹配法
逆向最大匹配(Reverse Maximum Match Method,RMM法)的基本原理與MM法相同,不同的是分詞切分的方向與MM法相反。逆向最大匹配法從被處理文件的末端開始匹配掃描,每次取最末端的i個字元(i為詞典中最長詞數)作為匹配欄位,若匹配失敗,則去掉匹配欄位最前面的一個字,繼續匹配。相應地,它使用的分詞詞典是逆序詞典,其中的每個詞條都將按逆序方式存放。
在實際處理時,先將文件進行倒排處理,生成逆序文件。然後,根據逆序詞典,對逆序文件用正向最大匹配法處理即可。
由於漢語中偏正結構較多,若從後向前匹配,可以適當提高精確度。所以,逆向最大匹配法比正向最大匹配法的誤差要小。統計結果表明,單純使用正向最大匹配的錯誤率為1/169,單純使用逆向最大匹配的錯誤率為1/245。
比如之前的“南京市長江大橋”,按照逆向最大匹配,最終得到“南京市”“長江大橋”。當然,如此切分並不代表完全正確,可能有個叫“江大橋”的“南京市長”也說不定。
2.3 雙向最大匹配法
雙向最大匹配法(Bi-directction Matching method)是將正向最大匹配法得到的分詞結果和逆向最大匹配法得到的結果進行比較,然後按照最大匹配原則,選取詞數切分最少的作為結果。
據SunM.S.和Benjamin K.T.(1995)的研究表明,中文中90.0%左右的句子,正向最大匹配法和逆向最大匹配法完全重合且正確,只有大概9.0%的句子兩種切分方法得到的結果不一樣,但其中必有一個是正確的(歧義檢測成功),只有不到1.0%的句子,使用正向最大匹配法和逆向最大匹配法的切分雖重合卻是錯的,或者正向最大匹配法和逆向最大匹配法切分不同但兩個都不對(歧義檢測失敗)。這正是雙向最大匹配法在實用中文資訊處理系統中得以廣泛使用的原因。
前面舉例的“南京市長江大橋”,採用該方法,中間產生“南京市/長江/大橋”和“南京市/長江大橋”兩種結果,最終選取詞數較少的“南京市/長江大橋”這一結果。
下面是一段實現逆向最大匹配的程式碼。
#逆向最大匹配
class IMM(object):
def __init__(self, dic_path):
self.dictionary = set()
self.maximum = 0
#讀取詞典
with open(dic_path, 'r', encoding='utf8') as f:
for line in f:
line = line.strip()
if not line:
continue
self.dictionary.add(line)
self.maximum = len(line)
def cut(self, text):
result = []
index = len(text)
while index > 0:
word = None
for size in range(self.maximum, 0, -1):
if index - size < 0:
continue
piece = text[(index - size):index]
if piece in self.dictionary:
word = piece
result.append(word)
index -= size
break
if word is None:
index -= 1
return result[::-1]
def main():
text = "南京市長江大橋"
tokenizer = IMM('./data/imm_dic.utf8')
print(tokenizer.cut(text))
執行main函式,結果為:
['南京市', '長江大橋']
基於規則的分詞,一般都較為簡單高效,但是詞典的維護是一個很龐大的工程。在網路發達的今天,網路新詞層出不窮,很難通過詞典覆蓋到所有詞。
3. 統計分詞
隨著大規模語料庫的建立,統計機器學習方法的研究和發展,基於統計的中文分詞演算法漸漸成為主流。
其主要思想是把每個詞看做是由詞的最小單位的各個字組成的,如果相連的字在不同的文字中出現的次數越多,就證明這相連的字很可能就是一個詞。
因此我們就可以利用字與字相鄰出現的頻率來反應成詞的可靠度,統計語料中相鄰共現的各個字的組合的頻度,當組合頻度高於某一個臨界值時,我們便可認為此字組可能會構成一個詞語。
基於統計的分詞,一般要做如下兩步操作:
建立統計語言模型。
對句子進行單詞劃分,然後對劃分結果進行概率計算,獲得概率最大的分詞方式。這裡就用到了統計學習演算法,如隱含馬爾可夫(HMM)、條件隨機場(CRF)等。
限於篇幅,本文只對統計分詞相關技術做簡要介紹。更多詳細內容請參考《Python自然語言處理實戰:核心技術與演算法》一書第3章第3.3節。
4. 混合分詞
事實上,目前不管是基於規則的演算法、還是基於HMM、CRF或者deep learning等的方法,其分詞效果在具體任務中,其實差距並沒有那麼明顯。在實際工程應用中,多是基於一種分詞演算法,然後用其他分詞演算法加以輔助。
最常用的方式就是先基於詞典的方式進行分詞,然後再用統計分詞方法進行輔助。如此,能在保證詞典分詞準確率的基礎上,對未登入詞和歧義詞有較好的識別。
關於作者:塗銘,阿里巴巴資料架構師,對大資料、自然語言處理、Python、Java相關技術有深入的研究,積累了豐富的實踐經驗。
劉祥,百鍊智慧自然語言處理專家,主要研究知識圖譜、NLG等前沿技術,參與機器自動寫作產品的研發與設計。
劉樹春,七牛雲高階演算法專家,七牛AI實驗室NLP&OCR方向負責人,主要負責七牛NLP以及OCR相關專案的研究與落地。
本文摘編自《Python自然語言處理實戰:核心技術與演算法》,經出版方授權釋出。
延伸閱讀《Python自然語言處理實戰》
點選上圖瞭解及購買
轉載請聯絡微信:togo-maruko
推薦語:阿里巴巴、前明略資料和七牛雲的高階專家和科學家撰寫,零基礎掌握NLP的核心技術、方法論和經典演算法。
據統計,99%的大咖都完成了這個神操作
▼
更多精彩
在公眾號後臺對話方塊輸入以下關鍵詞
檢視更多優質內容!
PPT|報告|讀書| 書單
大資料| 揭祕|人工智慧 |AI
Python | 機器學習 | 深度學習 | 神經網路
視覺化 | 區塊鏈 | 乾貨 | 數學
猜你想看
Q: 中文分詞技術都有哪些挑戰?
歡迎留言與大家分享
覺得不錯,請把這篇文章分享給你的朋友
轉載 / 投稿請聯絡:[email protected]
更多精彩,請在後臺點選“歷史文章”檢視
點選閱讀原文,瞭解更多
相關推薦
推薦 :一文讀懂R中的探索性資料分析(附R程式碼)
作者:Pablo Casas;翻譯:蔣雨暢;校對:車前子;本文約1500字,建議閱讀7分鐘。本文
目標檢測演算法圖解:一文看懂RCNN系列演算法
在生活中,經常會遇到這樣的一種情況,上班要出門的時候,突然找不到一件東西了,比如鑰匙、手機或者手錶等。這個時候一般在房間翻一遍各個角落來尋找不見的物品,最後突然一拍大腦,想到在某一個地方,在整個過程中有時候是很著急的,並且越著急越找不到,真是令人沮喪。但是,如果一個簡單的計算機演算法可以在幾毫秒
一文讀懂「Attention is All You Need」| 附程式碼實現
前言 2017 年中,有兩篇類似同時也是筆者非常欣賞的論文,分別是 FaceBook 的Convolutional Sequence to Sequence Learning和 Google 的Attention is All You Need,它們都算是 Seq2Se
獨家 | 一文盤點資料集市和資料倉庫的差異(附連結)
當一家企業開始應用商業智慧(Business Intelligence,BI)的戰略和技術時,首先需要明確資料集市和資料倉庫的區別。理解這種差異將決定你採用何種BI架構和資料驅動決策。 商業智慧的目標是運用技術將資料轉化為可執行的想法,並幫助終端使用者在資訊更完備的情況下做出商業決定,不論是理論戰略還是實際
輕鬆看懂機器學習十大常用演算法(附例項)
來源:資料與演算法之美本文共2000字,建議閱讀8分鐘。本文僅用圖解,為你介紹十大常用演算法及其
Python 3.X | 一文看懂不懵圈:位置引數(必選引數)、預設引數、可變引數、關鍵字引數、形參、實參...
Win 10+Python 3.6.3 不管是什麼引數,它們身處環境是:函式(function)。引數讓函式如虎添翼,靈活、強大。 1、概念釋義: def func(x, y=2, *arg, *, z, **kwargs): #print(x, y) #print(len(ar
一文看懂 BDTC 2018:探祕大資料新應用(附 PPT 下載)
12 月 8 日,北京新雲南皇冠假日酒店,由中國計算機學會主辦,CCF 大資料專家委員會承辦,CSDN、中科天璣資料科技股份有限公司協辦的 2018 中國大資料技術大會(BDTC)圓滿落下帷幕。 從 2008 第一屆 Hadoop 沙龍,到 2018 的千人大會,活動已
一文看懂BDTC 2018:探祕大資料新應用(附PPT下載)
12 月 8 日,北京新雲南皇冠假日酒店,由中國計算機學會主辦,CCF 大資料專家委員會承辦,CSDN、中科天璣資料科技股份有限公司協辦的 2018 中國大資料技術大會(BDTC)圓滿落下帷幕。 從 2008 第一屆 Hadoop 沙龍,到 2018 的千人大會,活動已
【科普雜談】一文看懂大資料的技術生態圈,Hadoop,hive,spark都有了
大資料本身是個很寬泛的概念,Hadoop生態圈(或者泛生態圈)基本上都是為了處理超過單機尺度的資料處理而誕生的。你可以把它比作一個廚房所以需要的各種工具。鍋碗瓢盆,各有各的用處,互相之間又有重合。你可以用湯鍋直接當碗吃飯喝湯,你可以用小刀或者刨子去皮。但是每個工具有自
[轉]機器學習科普文章:“一文讀懂機器學習,大資料/自然語言處理/演算法全有了”
在本篇文章中,我將對機器學習做個概要的介紹。本文的目的是能讓即便完全不瞭解機器學習的人也能瞭解機器學習,並且上手相關的實 踐。這篇文件也算是EasyPR開發的番外篇,從這裡開始,必須對機器學習瞭解才能進一步介紹EasyPR的核心。當然,本文也面對一般讀者,不會對
深度 | 生成對抗網路初學入門:一文讀懂GAN的基本原理(附資源)
選自 Sigmoidal 作者:Roman Trusov 機器之心編譯 參與:Panda 生成對抗網路是現在人工智慧領域的當紅技術之一。近日,Sigmoidal.io 的部落格發表了一篇入門級介紹文章,對 GAN 的原理進行了解釋說明。另外,在該文章的最後還附帶了一些能幫助初學者自己
一文看懂遷移學習:怎樣用預訓練模型搞定深度學習?
【宣告:鄙人菜鳥一枚,寫的都是初級部落格,如遇大神路過鄙地,請多賜教;內容有誤,請批評指教,如有雷同,屬我偷懶轉運的,能給你帶來收穫就是我的部落格價值所在。】 引言 跟傳統的監督式機器學習演算法相比,深度神經網路目前最大的劣勢是什麼? 貴!
一文看懂深度學習新王者「AutoML」:是什麼、怎麼用、未來如何發展?
原作:George Seif夏乙 安妮 編譯整理量子位 出品 | 公眾號 QbitAIAutoM
乾貨丨一文看懂生成對抗網路:從架構到訓練技巧
文章來源:機器之心 論文地址:https://arxiv.org/pdf/1710.07035.pdf 生成對抗網路(GAN)提供了一種不需要大量標註訓練資料就能學習深度表徵的方式。它們通過反向傳播演算法分別更新兩個網路以執行競爭性學習而達到訓練目的。GAN 學習的表徵可用於多種應用,包括影象合
入門 | 一文看懂卷積神經網路
本文選自Medium,主要介紹了神經網路中的卷積神經網路,適合初學者閱讀。概述深度學習和人工智慧
一文看懂 Kubernetes 服務發現: Service
Service 簡介 K8s 中提供微服務的實體是 Pod,Pod 在建立時 docker engine 會為 pod 分配 ip,“外部”流量通過訪問該 ip 獲取微服務。但是,Pod 的狀態是不穩定的,它容易被銷燬,重建,一旦重建, Pod 的 ip 將改變,那麼繼續訪問原來 ip 是不現實的。針對這個
從HTTP/0.9到HTTP/2:一文讀懂HTTP協議的歷史演變和設計思路
eight 結果 key 視頻 this sso單點登陸 會有 研究 patch 本文原作者阮一峰,作者博客:ruanyifeng.com。 1、引言 HTTP 協議是最重要的互聯網基礎協議之一,它從最初的僅為瀏覽網頁的目的進化到現在,已經是短連接通信的事實工業標準,最新版
世界杯迄今最火的一場比賽 一文看懂世界杯背後的阿裏雲黑科技
bottom 由於 otto 直播平臺 line 關於 變換 cdn 剪輯 摘要: 世界杯“法阿之戰”中帕瓦爾世界波以及姆巴佩梅開二度一定讓你印象深刻,而梅西的飲恨離開也讓不少球迷碎了心。但你知道,比賽當天的阿裏雲藏著什麽秘密嗎?世界杯“法阿之戰”中帕瓦爾世界波以及姆巴佩梅
一文看懂新能源汽車行業如何踐行智能制造
生態 演練 產品質量 完整 獲得 制造 執行 安全 產業 當前中國的新能源汽車制造呈現出比以往任何時期都更加繁榮的景象,新能源汽車為汽車制造業帶來的變革效應正在日益顯現。 就整車生產而言,固有的傳統汽車廠商正在加碼新能源汽車,在國家政策鼓勵下,全新的新能汽車企業正在湧現。從