1. 程式人生 > >認知模擬:是複雜系統建模的新途徑嗎

認知模擬:是複雜系統建模的新途徑嗎

近幾年來,人工智慧受到廣泛關注。尤其是“阿爾法狗”戰勝人類,為複雜系統建模模擬研究提供了啟示。社會管理、戰爭決策、經濟治理、指揮控制、醫療健康等複雜系統領域,一直存在著對經驗、直覺等認知建模的需求。“阿爾法狗”所採用的人工神經元網路方法,能否為解決這個問題帶來曙光,這值得研究和探討。

複雜系統性質與深度學習啟示

人類在對複雜系統的研究中,存在大量關於直覺、經驗、認知等無法用形式化方法表示的特性,這意味著僅依賴傳統基於相似性原理及形式化知識的建模模擬方法,難以真正表達複雜系統的深層次規律。如何獲取和表達非形式化的知識,並將這些知識用於複雜系統的理解和建模,一直是各領域複雜系統研究中亟待解決的難題。“阿爾法狗”(AlphaGo)通過深度增強學習方法,成功解決了圍棋這一複雜博弈系統的認知和決策問題,為用智慧建模方法去深入理解複雜系統提供了新的思路。

複雜系統及面臨的建模難題

根據系統論,世界可分為簡單系統與複雜系統,簡單系統主要是諸如“1+1=2”的那些系統,也就是整體等於各部分之和。所有的系統都像鐘錶一樣,即使結構再複雜,也可以分解還原。系統的性質表現在其結構不會變化,因果關係確定,結果可重複、可預測,狀態穩定等方面,如自行車就是這樣的系統。複雜的事物,如航空母艦,只要是可以分解還原的,就都是簡單系統。

複雜系統就是那些“1+1≠2”的系統,即整體不等於各部分之和,研究每一個組成部分,並不能得到整體性質。如人體,死人和活人所有的物質都是一樣的,但是一個有生命,一個沒生命。從性質上看,它的系統結構是可變,因果不明確,結果不可預測、也不可重複,而且會產生出新的系統性質。社會系統、經濟系統、戰爭系統、人體系統等,凡是與人有關的系統都是典型的複雜系統。“社會危機的不可預測性”“戰爭中的偶然性”“結果的不可重複性”等都在說明覆雜系統的複雜性特點。複雜系統在各種資訊關係網路的互動作用下,會不斷地產生演化。因此,要想管控這些系統,就不可迴避地需解決系統複雜性問題。

系統複雜性表現為3種主要性質,其他性質可從這3種性質中衍生出來。

1)適應性。Holland認為“適應性產生複雜性”,其最大特點是“環境會導致系統結構不斷髮生改變”。為適應環境,系統自身結構會不斷調整,演化出新的系統結構,從而導致系統產生出新的性質和功能。這是由系統學“系統結構決定系統功能和性質”這一原理所決定的。

2)不確定性。不確定性存在的直接結果就是“會導致因果不再一一對應,也不會是完全唯一”。從物理學角度來說,海森堡測不準原理就指出了“不確定性的客觀存在性”,即狀態的不確定性與人的認識多少無關。從社會學角度來說,由於自由意志的存在,導致人或者人的組織有了選擇的自由,因而也會產生不確定性。

3)湧現性。湧現性最直接的後果是“會得到新的整體性質,並且這種性質不可預測”。由於系統的自組織、自適應和不斷演化,新的系統性質會分層次湧現,且湧現的結果具有非線性,所以它是不可預測的,既有不可預測的隨機性,但是也有總體的規律性,而且不以人的意志為轉移。往往是“意料之外,情理之中”的結果。看起來好像不可思議,但細想又是很有道理的。

複雜系統的上述性質給建模帶來了諸多困難。傳統建模依據相似性原理,基本原則是結果可重複。對實際系統完成建模後,只要有相同的輸入,就會得到相同的輸出結果,所以能夠用模擬系統的輸出來代表實際系統的輸出,這是模擬系統執行最基本的原理。但是,複雜系統結構動態可變,結果不重複,且湧現不可預測,這些複雜性特點嚴重動搖了傳統建模的基礎,導致採用傳統思路對複雜系統建模從根本上就出現了問題,那麼,對社會、經濟、戰爭、城市、人體等複雜系統的建模就會變得非常困難。

具體來說,複雜系統建模主要存在以下4個方面的困難。第一,複雜系統不可分解,其整體性質不具備區域性可加性,因此必須進行整體性建模,而不能先區域性建模、再通過區域性模型的簡單疊加來得到整體。第二,複雜系統具有適應性,結構動態可變,這就要求模型的結構也必須動態可變,也就是要求模型是“活”的,能“變”是對複雜系統建模的基本要求。第三,複雜系統的因果關係不明確,結果具有不確定性,這就要求模型必須能反映出多種可能的結果,而不是隻有一種固定的結果。第四,複雜系統演化具有非線性和湧現性,這要求模型能反映出這種非線性的演化和湧現過程。

要解決上述這些問題,僅靠傳統的建模方法是不可能實現的。中國科協主辦的第58期、第82期“新觀點新學說”學術沙龍中曾對這一問題進行過深入研討,研討得出的基本結論是:基於相似性原理的建模模擬方法從根本上並不適合複雜系統建模。

哪些方法比較適合複雜系統建模呢?目前,通過學術界的多方嘗試,在複雜系統建模方面已取得了一些進展,提出了一些新的建模方法,主要有以下4種,這些方法雖然解決了複雜系統某一方面的建模難題,但也或多或少存在著一些瓶頸或不足。

1)多智慧體建模。這種建模方法依賴多智慧體之間的相互作用,雖然可以反映出複雜系統內部要素的適應性行為及相互影響,但目前的“智慧體”實際上並不智慧,大多數都過於簡單,還反映不了實際情況,因而建立的系統模型也就比較簡單。

2)複雜網路建模。它用複雜網路來反映系統的整體性質,是一種比較合適的理論和方法。但現在複雜網路的研究與應用大多數都是單向的,也就是對已有的複雜系統資料進行分析,來確定它是否屬於複雜系統,或者具有什麼結構或性質等,因而利用複雜網路方法對複雜系統進進行實證研究的多,但反向過來做實際建模工作的還比較少。

3)大資料建模。大資料建模是用資料模型來代替數學模型,利用大資料的相關性,來回避複雜系統因果性難找的難題。這種方法可以解決許多複雜系統問題,但複雜系統具有不可預測性,因而這種方法最大的難點是用“過去”很難代替“未來”。建模的重要價值就是得到有預測功能的模型,也就是建立能夠預測未來的模型,這對於大資料建模來說可以做,但仍然存在很多困難。

4)平行系統建模。平行系統是指由某一個自然的現實系統和對應的一個或多個虛擬或理想的人工系統所組成的共同系統。平行系統建模方法是解決複雜系統管理的一種比較實用的理論和方法。這種方法採用虛、實平行的建模方式來解決複雜性問題,並將人引入模型執行過程之中。但是,採用這種方法仍然需要在“虛”系統裡對複雜系統進行建模,因而以上的建模難題也同樣存在。

究其原因,不管採用上述哪種方法,均與缺乏對非形式化知識的建模方法有關。類似於經驗、直覺、記憶之類的知識,其本質都是建立在各類知識相互糾纏基礎上的,所以很難用簡單的因果形式,比如某個數學公式或者“IF-THEN-ELSE”等形式表現出來,這就需要找到一種非形式化知識的建模方法,才能解決複雜系統的建模難題。

“阿爾法狗”帶來的曙光

“阿爾法狗”(AlphaGo)採用深度增強學習的方法,不僅在圍棋上戰勝了人類,而且揭示了一種複雜系統建模的可能。尤其是“阿爾法狗”採用的深度學習方法,被認為是人工智慧領域的重大突破。然而,對深度學習既不能有過高的估計,認為它是萬能的,能解決一切人工智慧問題;也不能過低估計,認為它只是一種普通的技術進展,而忽視它在智慧認知方法上取得的突破,以及蘊含在這一突破中的顛覆性意義。

1)“阿爾法狗”在4 個方面的突破值得關注。第一,通過深度學習方法掌握了對弈知識,所有的圍棋規則和方法都不是編在程式裡,而是它通過大量棋譜和自我對弈學習出來的。第二,發現了人類沒有的圍棋著法,意味著可能突破了人類已有的知識極限,具備了超出人類的可能。第三,在一定程度上捕捉棋感直覺,得到了一種對經驗知識的獲取方法。棋感,是人類通過訓練得到的一種經驗直覺,某種意義上說“只可意會,不可言傳”。所以,經驗直覺並沒有形式化的表現形式,也不能用傳統的方法來進行處理,因而這種能力過去被認為是人類獨有、計算機難以做到的。第四,這種方法具有一定通用性,因而極具參考價值。

2)“阿爾法狗”的深度強化學習啟示了一種對智慧的建模方法。它主要依賴4種方法完成走子。一是策略網路。主要功能是通過學習前人棋譜來獲取走子經驗,預測下一步棋的走子策略,並且可以通過自我對弈不斷進化出更高階的策略網路版本。二是估值網路。主要功能是通過大量的自我博弈,來完成對整個棋局勝負的判定預測。三是快速走子。主要功能是加快走棋速度,採用區域性特徵匹配與線性迴歸相結合的方法,通過剪枝來提高快速走子速度。上述3種方法雖然都能下棋,但是它們的融合和協同執行才是最高水平,所產生的能力才能打敗人類。四是蒙特卡洛樹搜尋,主要功能是搜尋計算後續步的獲勝概率,它相當於1個總控和排程,來控制對前3個演算法的選擇,完成對策略空間的搜尋,確定出最終的落子方案。

“阿爾法狗”採用的核心方法是深度學習方法,通過建立人工神經元網路,來理解概念和捕捉經驗。學習方法主要是有監督訓練、無監督訓練等,實質就是分類和聚類。學習條件是通過大批量的訓練樣本,也就是資料,從而總結出特徵。學習結果就是形成對應的人工神經元網路。從輸入的各種資料出發,通過整合,建立起網路內部的各個連線,最後得到正確的下棋結果。這些連線的逐步整合,就意味著對問題的逐漸理解。

“阿爾法狗”的設計者也不知道策略網路和價值網路內部是如何連線的,因為這是它自己學習訓練不斷優化得到的。所以,這個網路對我們來說就是一個“黑箱”。人工智慧開山鼻祖之一的Minsky曾指出:“智慧的訣竅就是沒有訣竅。”其實是說,智慧實際上是自然的,不知道要怎麼建立這些網路,但卻把它建立起來了,這才最符合智慧的本質。這啟示了智慧的建模過程其實就是“湧現”,只有湧現出現了,也才能做從簡單到複雜的事情。

深度學習下的認知是什麼?

深度學習下的認知是一種非常接近人類的認知方式。知識主要以公式、規則、文字等形式化方式表達,基本上都是通過抽象化方式、以理性方式學習到的。如從小學、中學、大學直到研究生,無論是學習牛頓定律、運動方程等各個學科知識,還是閱讀的各類書籍,這些知識都能夠被表示成形式化的方式。但是,除此而外,我們學到的更多知識,是從眼睛、耳朵、面板等各個感官中間獲得的。如,人的眼睛相當於每200毫秒拍一幅影象,到3歲時就已經看過幾億張圖片了。這個過程也是學習的過程,只不過是以直覺感性的方式進行的。再如,球扔過來,伸手就能抓得住,不必知道任何拋物線定律、引力定律,也不用計算空氣阻力,憑的是感覺經驗。這說明可以通過試錯的方法學習知識,而且學習到的知識遠超過在學校裡學到的形式化知識。

對環境的感知是最常見的學習,這種經驗學習是是不能言傳的,必須親身體會。結果可能有對有錯,理解也可能會有偏差。很多複雜系統根本找不到對應的因果關係和形式化表達方式,依據的主要就是感覺和經驗。事實上,在處理複雜系統問題時,所謂“高手”和“低手”的差別,除了基本能力以外,主要就是在經驗與直覺上的差別。以圍棋對弈為例,棋手都會按照規則去計算和走子,但關鍵的差距在於經驗和棋感不同樣。

既然AlphaGo能模擬人的經驗和直覺,那訓練得到的人工神經元網路是否可以作為一種知識的表達形式呢?人類大腦的神經元大致是由細胞體、樹突、軸突和突觸等構成,把它們都轉化為數字的形式就變成了人工神經元網路。通過人工神經元網路,可以識別貓,也可以下圍棋,還可以作為飛行員去開飛機。目前,這些都已經先後取得了成功,並且可以表現為不同的形式,其基礎都是人工神經元網路模型。因此,知識可以轉變成以神經元網路為基礎的特定表達形式。也就是說,知識並非一定要用符號、公式或者文字等方式去表達,人工神經元網路本身也可以是一種特殊的知識表達形式。

人工神經元對知識的表達能夠完善人類知識的數字化表達形式。形式化知識表達方法主要有規則、公式、文字等,人類長久以來積累下來的知識基本上都屬於這一類。用人工神經元網路表達可以表達出非形式化知識,即經驗、直覺等,如我們看到、聽到、感知到並理解的東西,人類的很多知識要依靠這種方式積累。因此,我們既可以用形式化表達的知識,創造出“深藍”“沃森”這一類智慧系統,也可以用非形式化的經驗類知識,創造出“阿爾法狗”和“AI飛行員”等為代表的另外一類智慧系統。

這就相當於對認知進行了建模。那麼,什麼叫認知建模呢?國防大學認知智慧學習小組對此給出一個簡單的定義:通過捕獲人類經驗、直覺和記憶等非形式化知識,與形式化知識一起,構建能夠反映複雜系統特徵的認知模型,實現對複雜系統的深度理解和模擬,從而實現對複雜系統的演化預測和管控。這裡的“認知”,實際上包括了理解、預測和決策3大環節。如何對複雜系統進行認知建模與模擬,就是需要討論的主要問題。

認知模擬帶來的問題與思考

智慧技術的不斷髮展,在增強人類獲得認知、積累知識能力的同時,不僅會改變我們對複雜系統的認知能力,同時也為我們提供了用認知模擬方法去深入理解複雜系統的新思路。認知模擬的核心是模擬人類的認知方法,深入分析和探討認知模擬的相關問題,將進一步拓展和豐富複雜系統建模模擬理論與技術方法。

經驗直覺認知複雜系統建模的特殊模式嗎?

1)經驗直覺認知:是意識還是物質?經驗直覺認知是對事物執行規律的深刻理解,是對各種因素的綜合權衡,難以用形式化的方式表達。

主要有以下3個方面的困難:第一,它是主觀的,從屬於個人。每個人的認知必定是主觀的,是對事物的一種理解;第二,經驗認知並沒有統一的形式化表示方式,難以記錄和傳遞。第三,經驗認知難以用直接方式傳授,接受者要有“悟”的過程,能否接受、接受多少,很大程度上取決於個人的理解能力,高手與低手的差別往往在於認知水平的差距。很多傳統領域對複雜系統的理解和管控,往往依賴於人們認知經驗的積累。如“宰相必起於州部”“猛將必發於卒伍”說明了在社會治理和戰爭指揮中經驗積累的必要性和重要性。經驗積累是對客觀事物規律的認知,雖然複雜系統的規律是一種客觀存在,而人們認識規律卻是一種主觀的行為。傳統複雜系統建模是將其規律模型化,而直接對規律的認知進行建模可能是另一種複雜系統建模的有效途徑。一旦經驗和直覺能夠通過某種物質模型(如神經網路)表示出來,經驗直覺的意識屬性也就會物質化,將直接帶來意識與物質的統一。

目前來看,以深度神經元網路作為經驗直覺物質載體和表現形式的認知模型似乎越來越成功。“阿爾法狗”的突破在於找到了一種生成人工神經元網路的方法,可以將對圍棋的經驗直覺這種非形式化的知識捕捉下來,進入走子網路和估值網路之中,並用多層網路描述了經驗的綜合性。這種方法目前已經可以適應視訊遊戲、德州撲克、星際爭霸等多種遊戲形式,從看別人玩遊戲中進行總結,或在不完全資訊博弈中進行估算,幾乎戰無不勝。最近用神經網路構建的認知模型又開始挑戰自動程式設計、寫詩寫書。這種方法之所以能達到了頂級玩家的水平,其實還是那句話:規則誰都懂,差的就是經驗和直覺,差就差在神經元網路的訓練效果和所用資料質量上。

2)複雜系統建模:是對認知的捕捉嗎?

複雜系統具有多面性,需要從多個方面對其進行認識:第一方面,來源於認識世界的3大方法:理論推導、科學實驗和模擬建模,這是我們認識複雜系統最基礎的方法。第二方面,來源於後來出現的複雜網路和大資料方法,複雜網路被用來描述複雜系統的結構,大資料被用來挖掘複雜系統的特性,目的都是為了找到複雜系統的執行規律。第三方面,與深度學習方法的出現有關,從複雜系統的角度來看,它並不只是簡單的智慧技術,還可以看作是一種複雜系統的建模方法,也就是通過捕捉經驗直覺建立神經元網路模型,來描述和表達出複雜系統的執行規律。不管從哪個角度認知事物規律,反映出來的都是認知的某個側面,只有將它們都結合起來,才有可能更逼近於最後的真相。

對複雜系統認知表現出來的這些特殊性,雖然在很大程度上制約了採用傳統形式對其建模的可能性,但同時也帶來了複雜系統建模的新機遇。這可以看作是認知物質化帶來的直接後果,也就是意識與物質在人工神經元網路上的統一,使得對經驗直覺等認知的捕捉,成為新的建模可能形式。值得思考的是,當年處於導體與絕緣體之間的半導體帶來了資訊革命,處於理論推導和科學實驗之間的模擬計算(虛擬實踐)帶來了第三條認識世界的道路。今天,處於意識和物質之間的認知捕捉,也可能會給我們帶來對複雜系統建模的新突破。

3)經驗直覺捕捉:是新出現的特殊建模形式嗎?

關於經驗直覺捕捉是否是一種複雜系統建模的特殊模式,現在主要有兩種觀點。

第一種觀點認為,是一種複雜系統建模的特殊模式,因為經驗直覺能夠捕捉下來,並更好地反映出複雜系統性質。比如“阿爾法狗”,它學習的不是下圍棋的邏輯,而是建立在幾千萬盤棋上的試錯經驗。捕捉獲取的是隻可意會的非形式化知識,形成的結果是人工神經元網路。這種方法相較於其他建模方法更具有整體性、適應性、不確定性等複雜性特點。

這個觀點的核心是要把所謂的經驗直覺等非形式化的知識捕捉下來。從“阿爾法狗”的成功來看,深度學習、增強學習等一系列經驗直覺捕捉技術手段,已顯現出了初步曙光,卷積神經網路(convolutional neural network,CNN)、長短時記憶(longshort-term memory,LSTM)、深度玻爾茲曼機(deep boltzmann machine,DBM)等方法也都在不斷完善進步,“阿爾法狗”的創始人Demis Hassabis認為,人工智慧就是深度學習加上增強學習。現出現了一些更新型的模型,如DeepMind公司提出的想象力模型。該模型認為,單純的試錯學習其計算量太大,僅靠給定規則又可能丟失創新性的結果,因此,將兩者結合就出現了想象力模型,模擬的是人類思考問題的經驗方式:給定一個問題後,先想象這麼做會產生的結果,然後才開始行動。這對複雜系統意義重大,因為複雜系統的規則往往不會像圍棋博弈那麼明確,資訊經常是不完全、不可預知,就需要先設想可能會發生什麼情況再採取行動。如在“推箱子”遊戲中,智慧Agent在不瞭解規則的情況下,就需要先通過想象來看看這樣做的後果,然後再根據結果行動。“宇宙飛船導航”遊戲也是一樣,要先想象一下各個星球對飛船的吸引力結果,再決定如何規劃航行的軌跡。類似這種模擬人類思考模式的新模型,可能在今後會見到更多。

第二種觀點認為,經驗直覺的捕捉並不是一種複雜系統建模的特殊形式。認為“阿爾法狗”獲取的其實不是真正的經驗直覺,而是一種大資料分析和抽取經驗的方法。本質上還是一種剪枝和搜尋方法,而非人的模糊直覺。“阿爾法狗”雖然掃蕩了圍棋的定式,改寫了棋形,但並沒有動搖圍棋的棋理。一個沒有感情的機器,是沒有辦法完全獲得完整的人類經驗和直覺的。依賴經驗的模型是否可信本身也存疑。很多經驗和直覺有時並不可靠。正因如此,構建的認知模型是否可信值得懷疑,尤其是在戰爭決策、社會管理這樣的高敏感度場合。同時,有研究證明,現在很多學習演算法模型其實很容易被誤導。比如,一個通過深度學習演算法產生出來的識別“貓”的神經元網路,只要稍微修改其中的資料,就會把“貓”識別為“烤麵包機”,這意味著所產生的認知極易被誤導。

神經元網路是否為複雜系統模型的表達形式?

1)複雜系統與人工神經元網路的相似性。

複雜系統模型主要用於描述複雜系統的執行規律,且取決於其內部的結構和演化。由於複雜性的存在,模型的內部結構應該反映多層網路、節點之間相互糾纏影響,並且可以湧現出整體執行規律。無論是對人體、社會、戰爭,還是網際網路、作戰體系等複雜系統進行建模,都應該反映出這些特徵。從相似性角度來說,如果用人工神經元網路作為複雜系統的模型表達形式,至少在形式上是比較接近的。

人工神經元網路又完全不同於傳統的模型,它是一種所謂的“認知表達”形式,是由人自己認識並通過人工神經元網路表示出來的,可以被看成是一種應用類似大腦神經突觸聯接結構進行的資訊處理數學模型,通過調整內部大量節點之間相互連線的關係,實現對事物的理解。因此人工神經元網路表示的是對複雜系統規律的某種認知,並將這種認知以模型的形式展現出來。但人工神經元網路是否能反映出複雜系統規律的核心原理呢?眾所周知,飛機的發明是人類掌握了鳥類飛翔的空氣動力學原理,人工神經網路是不是也是複雜認知智慧的原理,目前尚未有定論。從性質上來看,人工神經元網路與複雜系統高度相似,這為複雜系統建模奠定了基礎。

人工神經元網路建模不同於傳統模型,主要表現在以下4個方面。第一,整體性建模,是對整體特徵的抽象;第二,結構是動態的,對資料的特徵進行動態適應性調整;第三,結果是不確定的,訓練過程本身也存在隨機性;第四,可以描述出概念湧現,低層次特徵的抽象組合會湧現出對高層概念的理解,就象從眾多的動物特徵中識別出具體的“貓”。

神經元網路可以被看成是複雜系統的模型表達形式主要有兩方面。第一,符合相似性原理。用人工神經元網路的黑箱模型來模擬複雜系統的黑箱,兩者之間具有天然的相似性,當然這是在高層次上的整體相似;第二,不同認知可以有不同結構的差異性。發展不同的人工神經元網路和它的組合,就可以表示出不同型別的複雜系統,就像可以利用不同模型的差異性進行組合,表示不同型別的飛機一樣,如小飛機、大飛機、民用飛機、戰鬥機等。有人把人工神經元網路的結構進行了劃分,不同的結構組合之後,就會形成各種各樣的結構形式,組合出很多不同型別的複雜系統認知模型。

但是認知模型的建模,最後到底是建一個還是建多個?對於認知智慧來說,不會只有一個方面,比如只會下棋,它還必須會其他東西,因為這些知識對一個人的認知來說,是完全糾纏在一起的。因此,對複雜系統的理解,也不能只關注一個或幾個方面。但是,這樣就引出另外一個必須回答的問題:複雜系統的模型到底應該是一個極為複雜的統一整體模型,還是由若干個不同型別模型構成的組合?群體認知是不是多種模型的綜合?這些問題都直接挑戰了複雜系統模型本身的結構性問題。

2)人工神經元網路的黑箱特性。

人工神經元網路的黑箱特性,增加了人類理解模型的難度。為了看清楚神經元網路內部發生了什麼變化,DeepMind 開發了tensorflow 牧場,但還是很難看清內部發生了什麼。有報道說,“阿爾法狗”自我對弈的棋譜人類已經無法理解了。那麼,是不是打開了這個黑箱,就可以幫助我們更接近圍棋之神呢?換言之,打開了這個黑箱,我們是不是也能從中得到複雜系統更深層次的規律或者是知識呢?目前還難以回答這一問題。為了破解黑箱特性帶來的理解難題,現在又出現了一個新的研究熱點,就是對深度學習產生的人工神經元網路黑箱進行探測。有人建議對這些計算機裡面的人工神經元網路進行“腦外科手術”,目的當然是要想弄清楚裡面到底是什麼。Voosen指出,應該發展出一門新的學科,叫“人工智慧神經科學”,可能也是出於同樣的考慮。

人工神經元網路黑箱之所以是個難題就與它與複雜系統性質密切相關。一是人工神經元網路的所有連線極為複雜,而且整體糾纏,牽一髮而動全身。有人形容這些資訊是“全息”的,也就是“人人有我,我有人人”,每一部分都關係到整體,整體又都影響每個區域性;二是人工神經元網路的連線還是動態的,因為認知總是在不斷變化,模型也會跟著不斷變化,基本上是“此一時,彼一時”,不會總是固定不變。比如,有很多網民在和微軟“小冰”對話時,就不斷教它說髒話,結果小冰真的就學會了說髒話。但是,要把它改回來並不容易,不是調哪個軟體引數就改得回來的,需要用大量資料重新再去對它進行訓練。這是因為在訓練好的人工神經元網路中,每一個連線都相互關聯,動一處必然會引發一大片都要隨動。

可進化是否是智慧認知模型的固有屬性?

1)複雜系統的進化與反身性。

根據複雜系統理論,適應性是進化的動力。但是,如果從建模角度考慮,還要回答一個問題,到底是誰進化了,是複雜系統,還是人類的認知?

客觀上,複雜系統在適應環境中是不斷進化的,因而反映複雜系統原理的模型也需要不斷進化。但主觀上,對複雜系統的認知也在不斷進化,因為理解在不斷加深,所以認知模型也需要進化。這兩個側面,一個客觀,一個主觀,無論是複雜系統本身,還是我們對複雜系統的認知,其實都在進化。因而,認知也應該成為建模必須要考慮的核心問題之一。

要理解這個問題,首先需要了解複雜系統的另一個重要性質——“反身性”。這是複雜系統的一個非常關鍵核心的性質,但被很多研究者所忽視。“反身性”是人也是系統的組成部分之一,人的任何行為(包括認知),都會對系統造成反作用,都會導致系統的狀態發生改變,任何與人有關的複雜系統都具有這個特性。

對於自然界中的系統,人對其影響不大,因此可以假設人不在系統之中。如,無論人們預測明天是否會下雨,都不會影響明天氣象的自然規律。但是,如果證監會主席或某些重要的知情者評論股市,甚至是某人造出的謠言,就可能會影響股市的波動,因為人本身就屬於股市所在的系統。這就是反身性。同樣,戰場上指揮員對戰場態勢的認知,也會構成對戰場系統的影響。因此,複雜系統與認知是分不開的。對自然界中的簡單系統,我們可以不考慮反身性的問題,但是隻要是與人相關的複雜系統研究,就必須要體現認知的反身性影響。因此,模型的進化很自然就與系統本身和認知都有關係。

“阿爾法狗”的成功依賴於其策略網路、價值網路、增強學習的不斷髮展。策略網路通過學習人類16萬盤棋中蘊藏的有限容量經驗知識而不斷進化;價值網路通過自我對弈的3000萬棋面中蘊藏的經驗知識而不斷進化,而且還脫離了人的限制;增強學習則是“左右互博,見多識廣”,人類已經很難理解其對弈的招數,進化出來的新版本,已經遠遠超出了它自己的初始版本。

因此,可得出一個結論:進化是智慧認知模型的固有屬性。不會進化的模型,顯然滿足不了模擬的需要。同時,也可以得到一個推論:認知模型應該是動態的,也就是結構應該是不固定的。從結論和推論來看,人工神經元網路是比較符合這一特點的。

2)模型進化的極限與方向。如果模型要進化,還應解決“極限”和“方向”兩個問題。“極限”探討的是進化是否有盡頭。如,“阿爾法狗”的能力會不會一直增長?它一直在“左右互搏”,新版本跟老版本對抗,不斷學習,提高自己,會不會有能力提升的極限呢?如果到了這個極限,會不會還繼續進化?如果再進化,它還是不是認知模型呢?比如,據說“阿爾法狗”現在相當於22段,那它會不會達到50段、100段?這都是需要探討的問題。人類現在已經進化成了直立行走的動物,但我們現在也不知道人類的行走方式是不是已經停止了進化,也不知道這是不是就是人類行走進化的極限。

“方向”探討的是進化方向是否是唯一確定的,也就是說,進化會不會有幾種不同的結果?是不是都能從低手進化成高手?提出這個問題,是因為複雜系統有一個固有問題,即混沌從複雜系統來看,系統的演化可能會進化湧現出更有序的系統結構,也可能掉入混沌狀態中去,進化的方向就會有很大的不確定性。

認知模型的進化是否會突破人類容忍的極限?

1)智慧模型的容忍極限與超越可能。作為深入理解和管控複雜系統的一種新思路,將智慧技術用於複雜系統建模模擬研究會出現哪些可能性,有以下2種觀點。

第一,智慧建模完全有可能超越人類的容忍極限。現在的技術已經顯現出了端倪,“阿爾法狗”對圍棋這一複雜博弈系統的認知和控制已經超出了人類。深度學習技術與演算法還在不斷改進完善,在影象理解、語音識別、圍棋博弈、德州撲克、飛機駕駛、星際爭霸等等諸多領域,攻克了一個個人類的智慧堡壘,現在自主程式設計又出現了,將來只會越來越多。

第二,智慧建模只能不斷逼近人類認知,根本無法超越。“阿爾法狗”也只能在單一智慧上超過人類,在綜合智慧、創造性等方面差距還很大,目前也還沒有見到任何演算法可以“真正”理解它所處理的內容。如果僅僅是單獨訓練不同的人工神經元網路,而不是把它放到認知整體上來看,它永遠不會成為真正的智慧。只有當很多神經元網路模型能夠做到像複雜網路一樣交錯糾纏在一起之後,才能在更高層次上湧現出真正的智慧。更重要的一點是,沒有自主的直覺和意識,就根本談不上“超越”人類,但是自主的直覺和意識,就目前的進展而言,還根本一點也看不出有這種可能性。

2)認知智慧研究的矛盾與悖論。認知智慧研究會帶來一系列值得思考的問題。對認知智慧模型的研究,或許可以解決複雜系統理解和管理問題,但也可能帶來更多的新問題。例如,我們建立的認知模型,會不會比我們更瞭解複雜系統?與之相關的另外一個很值得討論的問題是,被認知後的複雜系統會帶來什麼變化?

一般說來,我們對一個系統的認識和理解加深了,掌控它的程度也會更進一步。比如,我們認識了一臺機器的原理和結構,就很容易對它進行拆解、組裝或維修。但是,對於複雜系統而言,這個問題可能就不是那麼簡單,甚至還可能出現一個悖論:我們為了掌控複雜系統,就必須對它充分認識;但對它認識越多,卻發現不是離真相越近,反而可能是越遠了。這個悖論之所以產生,就是因為反身性原理,我們認知的本身會導致系統發生演化,而這種演化又具有非線性、不確定性等特點,而蝴蝶效應又會使結果具有很強的不可預測性。因此,當我們利用認知智慧去解決社會、經濟、戰爭等複雜系統問題時,是否會激發系統產生更復雜的演化,導致新的安全、社會等問題,就非常值得我們深入思考。

因此,人工智慧的發展面臨著新的“囚徒困境”:誰來決定該不該發展它?發展它可能面臨很大的風險,但你不發展別人發展也許更加危險!這背後的核心問題其實是理性發展與非理性發展兩種觀點的博弈。所以,馬斯克不斷呼籲限制人工智慧,但他也是最積極的投資者之一,恐怕就是這個道理。

結 論

複雜系統的認知模擬是否可以成為解決社會、經濟、戰爭等複雜系統的終極手段,其結論不得而知。但是,不斷深入的研究包括建模模擬,會使人們逐步認識和理解複雜系統的執行規律,在掌握和控制複雜系統的道路上不斷進步;同時這些認知也可能會激發出更復雜的演化,導致複雜系統產生出更多的新問題,使得對複雜系統的認識和管理更加困難。比如,在智慧化程度上先進與後進國家間的差距如果過大,就很可能帶來不可預知的巨大危險性。

因此,深入地研究認知建模與模擬問題可能是解決複雜系統問題的一條可行途徑,但同時也必須從複雜系統觀點出發,從理論上有所突破,才有可能取得較大的進展。複雜性與智慧認知,是不是殊途同歸,還是一個值得思考的問題。

基金專案:軍民共用重大研究計劃聯合基金專案(U1435218);國家自然科學基金專案(61174156,61273189,61174035,61374179,61403400,61403401)

參考文獻(略)  

本文作者:胡曉峰,賀筱媛,陶九陽

作者簡介:胡曉峰,國防大學聯合作戰學院,教授,研究方向為戰爭模擬、軍事運籌、軍事資訊系統工程。

本文發表於《科技導報》2018 年第12 期,敬請關注。

(責任編輯  衛夏雯)