人工智慧的若干倫理問題思考
摘要:本文首先討論了人工智慧倫理的相關概念與發展,指出在當今人工智慧技術高速發展的時代,對人工智慧倫理的研究是很有必要的。其次對人工智慧倫理研究的常見問題進行了分析,並在最後對人工智慧的倫理問題的發展進行了討論。
關鍵詞:人工智慧 倫理 人機環境互動
一、引言
人工智慧(Artificial Intelligence)一詞起源於1956年的達特茅斯會議。AI一詞一經提出,就引起了眾多學者的關注與研究,人們致力於讓機器像人一樣具有智慧,能夠與人進行自然的人機互動。雖然總體目標基本一致,但是AI可以分為兩個大的方向:一派提倡從上到下(top-down)的方法,即認知主義。這派學者提倡研究人類的策劃、推理以及解決問題的能力。先賦予機器複雜的智力,再讓他們去完成簡單的行為。而另一派則是自下而上的,被稱為湧現主義。即不包括任何抽象概念或推理過程,只需讓機器人對所感知到的刺激做出反應即可
但是,與此同時,人工智慧的迅速發展也給人的生活帶來了一些困擾與不安,尤其是在奇點理論提出後,很多人質疑機器的迅速發展會給人類帶來極大的危險,隨之而來的很多機器事故與機器武器的產生更加印證了人們的這種印象。於是,關於機器倫理、機器道德的研究層出不窮。本文就將從人工智慧的倫理問題入手,先行論述人工智慧倫理及其相關概念,再討論一些人工智慧倫理的焦點問題:如人工智慧能否取代人類、人工智慧的責任問題。並在文章的最後給出筆者的一些看法。
二、人工智慧倫理相關概念
1.倫理的概念
倫理一詞,英文為ethics,一詞源自於希臘文的“
在我國,倫理的概念要追溯到公元前6世紀,《周易》、《尚書》已出現單用的倫、理。前者即指人們的關係,“三綱五倫”、“倫理綱常”中的倫即人倫。而理則指條理和道理,指人們應遵循的行為準則。與西方相似,不同學派的倫理觀差別很大,儒家強調仁、孝悌忠信與道德修養,墨家信奉“兼相愛,交相利”,而法家則重視法治高於教化,人性本惡,要靠法來相制約
總的來說,倫理是哲學的分支,是研究社會道德現象及其規律的科學。對其研究是很必要的。因為倫理不但可以建立起一種人與人之間的關係,並且可以通過一種潛在的價值觀來對人的行為產生制約與影響。很難想象,沒有倫理的概念,我們的社會會有什麼人倫與秩序可言。
2.人工智慧倫理
其實在人工智慧倫理一詞誕生以前,很多學者就對機器與人的關係進行過研究,並發表了自己的意見。早在1950年,維納在《人有人的用途:控制論與社會》一書中就曾經擔心自動化技術將會造成“人腦的貶值” [3]。20世紀70年代,德雷福斯曾經連續發表文章《鍊金術與人工智慧》以及《計算機不能做什麼》[4],從生物、心理學的層次得出了人工智慧必將失敗的結論。而有關機器倫理(與人工智慧倫理相似)的概念則源自《走向機器倫理》一文[5]。文中明確提出:機器倫理關注於機器對人類使用者和其他機器帶來的行為結果。文章的作者之一安德森表示,隨著機器的越來越智慧化,其也應當承擔一些社會責任,並具有倫理觀念。這樣可以幫助人類以及自身更好的進行智慧決策。無獨有偶,2008年英國計算機專家諾埃爾·夏基教授就曾經呼籲人類應該儘快制定機器(人)相關方面的道德倫理準則。目前國外對於人工智慧倫理的研究相對較多,如2005年歐洲機器人研究網路(EURON)的《機器人倫理學路線圖》、韓國工商能源部頒佈的《機器人倫理憲章》、NASA對“機器人倫理學”所進行的資助等[6]。(注:本文認為人工智慧倫理與機器(人)倫理本質上沒有太大區別,本文中兩者可以替換)。而且國外相關的文獻也相對豐富,主要集中在機器人法律、安全與社會倫理問題方面。
國內方面相關研究起步較晚,研究不如國外系統與全面。但是近些年來,相關學者也將重點放在人工智慧的倫理方面。相關文獻有《機器人技術的倫理邊界》[7]、《人權:機器人能夠獲得嗎?》[8]、《我們要給機器人以“人權”嗎?》[9]、《給機器人做規矩了,要趕緊了?》[10]、《人工智慧與法律問題初探》[11]等等。值得一提的是,從以上文獻可以看出,我國學者已經從單純的技術倫理問題轉向人機互動關係中的倫理研究,這無疑是很大的進步。
不過,遺憾的是,無論是在國內還是國外,現在仍然很少有成型的法律法規來對人工智慧技術與產品進行約束,隨著人們將注意力轉向該方向,相信在不遠的將來,有關政府部門會出臺一套通用的人工智慧倫理規範條例,來為整個行業作出表範。
三、人工智慧是否會取代人類
有關人工智慧與人的關係,很多人進行過質疑與討論。1967年,《機器的神話》[12]作者就對機器工作提出了強烈的反對意見,認為機器的誕生使得人類喪失個性,從而使社會變得機械化。而近些年來,奇點理論的提出與宣傳[13],更加使得人們擔憂機器是否將會全面替代人類,該理論的核心思想即認為機器的智慧很快就將超過人類。
筆者認為,人工智慧不斷進步,這是個不爭的事實。機器的感覺,運動、計算機能都將會遠遠超過人類。這是機器的強項。但是不會從根本上衝擊人類的崗位與職業。這是出於以下幾方面的考慮:首先機器有自己的優勢,人類也有自己的優勢,且這個優勢是機器在短期無法比擬與模仿的。人類具有思維能力,能夠從小資料中迅速提煉歸納出規律,並且可以在資源有限的情況下進行非理性決策。人類擁有直覺能夠將無關的事物相關化。人類還具有與機器不盡相同的內部處理方式,一些在人類看來輕而易舉的事情,可能對於機器而言就要耗費巨大的資源。2012年,google訓練機器從一千萬張的圖片自發的識別出貓。2016年,谷歌大腦團隊訓練機器,根據物體的材質不同,來自動調整抓握的力量。這對於一個小孩子來說,是很簡單的任務,但在人工智慧領域,確正好相反。也許正如莫桑維克悖論所闡述的,高階推理所需要的計算量不大,反倒是低階的感覺運動技能需要龐大的計算資源。
其次,目前人類和機器還沒有達到同步對稱的互動,仍然存在著互動的時間差。目前為止,仍然是人類佔據主動,而且對機器產生不可逆的優勢。皮埃羅·斯加魯菲在《智慧的本質》[14]一書中曾經提出:人們在雜亂無章中的大自然中建立規則和秩序,因為這樣的環境中人類更容易生存和繁衍不息。而環境的結構化程度越高,製造在其中的機器就越容易,相反,環境的結構化程度越低,機器取代的可能性越小。由此可見,機器的產生與發展是建立在人們對其環境的瞭解與改造上的。反過來,機器的發展進一步促進了人們的改造與認知活動。這就如天平的兩端,單純的去掉任何一方都會導致天平的失衡。如果沒有人類的指引與改造作用,機器只能停留在低端的機械重複工作層次。而機器在一個較低端層次工作的同時也會使得人們不斷追求更高層次的結構化,從而使得機器向更高層次邁進。這就像一個迭代上升的過程,人-機器-人-機器,以此迴圈,人類在這段過程中總是處於領先的地位。所以機器可以取代人類的工作,而不是人類。
再次,人工智慧的高速發展同時帶來了機遇。誠然,技術的發展會帶來一些負面影響,但是如果從全域性來看,是利大於弊的。新技術的發展帶來的機遇就是全方位的。乘法效應就是說明的這個道理:在高科技領域每增加一份工作,相應的在其它行業增加至少4份工作,相應的,傳統制造業為1:1.4[14]. 我們應該看到,如今伴隨著人工智慧業的飛速發展,相關企業如雨後春筍般誕生,整體拉動了相關產業(服務業、金融業)的發展,帶來了更多的就業機會。
而且,任何一項技術的發展都不是一蹴而的,而是循序漸進的過程。無論是最早期的類人猿的工具製造、還是後來的電力發展、再到現在的網際網路時代,技術的發展與運用是需要時間來保證的。現在社會上有些人擔心人工智慧的發展會立即衝擊自己的工作,實則是有些“杞人憂天”的意味。以史可以明鑑,歷史上大的技術突破並沒有對人類的工作產生毀滅性的打擊。蒸汽機的誕生替代了傳統的騾馬、印刷機的誕生取代了傳統的抄寫員、農業自動化設施的產生替代了很多農民的工作,但這都沒有致使大量的工人流離失所,相反,人們找到了原本屬於人類的工作。新興技術創造的工作機會要高於所替代的工作機會。所以,我們不必過分擔心機器取代人類工作的問題。
四、誰來為事故負責
2016年7月,特斯拉無人駕駛汽車發生重大事故,造成了一名司機當場死亡。這件事故很快成為了新聞媒體的焦點。人們不僅僅關注這件事情本身所帶來的影響,更加擔心機器作為行為執行主體,發生事故後責任的承擔機制。究竟是應該懲罰那些做出實際行為的機器(並不知道自己在做什麼),還是那些設計或下達命令的人,或者兩者兼而有之。如果機器應當受罰,那究竟如何處置呢?是應當像西部世界中將所有記憶全部清空,還是直接銷燬呢?目前還沒有相關法律對其進行規範與制約。
隨著智慧產品的逐漸普及,我們對它們的依賴也越來越深。在人機環境互動中,我們對其容忍度也逐漸增加。於是,當系統出現一些小錯誤時,我們往往將其歸因於外界因素,無視這些微小錯誤的積累,我們總是希望其能自動修復,並恢復到正常的工作狀態。遺憾的是,機器黑箱狀態並沒有呈現出其自身的工作狀態,從而造成了人機互動中人的認知空白期。當機器不能自行修復時,往往會將主動權轉交給人類,人類就被迫參與到迴圈中,而這時人們並不知道發生了什麼,也不知道該怎樣處理。據相關調查與研究,如果人們在時間與任務壓力下,往往會產生認知負荷過大的情況,從而導致本可以避免的錯誤。如果恰巧這時關鍵部分出了差錯,就會產生很大的危險。事後,人們往往會責怪有關人員的不作為,往往忽視機器一方的責任,這樣做是有失偏頗的。也許正如佩羅所說:百分之60到80的錯誤可以歸因於操作員的失誤。但當我們回顧一次次錯誤之時,會發現操作員面臨的往往是系統故障中未知甚至詭異的行為方式。我們過去的經驗幫不上忙,我們只是事後諸葛亮[15]。
其實,筆者認為人工智慧存在三種互動模式,即人在環內、人在環外與以上兩者相結合。人在環內即控制,這個時候人的主動權較大,從而人們對整個系統產生了操縱感。人在環外即自動,這時候,人的主動權就完全歸於機器。第三種情況就是人可以主動/被動進入系統中。目前大多數所謂的無人產品都會有主動模式/自動模式切換。其中被動模式並不可取,這就像之前討論的那樣,無論是時間還是空間上,被動模式對於系統都是不穩定的,很容易造成不必要的事故。
還有一種特殊情況,那就是事故是由設計者/操縱者蓄意操縱的,最典型的就是軍事無人機這種武器,軍方為了減少己方傷亡,試圖以無人機代替有人機進行軍事活動。無人機的產生將操作員與責任之間的距離越拉越遠,而且隨著無人機任務的愈加複雜,幕後操縱者也越來越多,每個人只是完成“事故”的一小部分。所以人們的責任被逐漸淡化,人們對這種“殺戮”變得心安理得。而且很多人也相信,無人機足夠智慧,與軍人相比,能夠儘可能減少對無辜平民的傷害。可具有諷刺意義的是,美國的無人機已經奪去了2500至4000人的性命。其中約1000位平民,且有200名兒童[14]。2012年,人權觀察在一份報告中強調,完全自主性武器會增加對平民的傷害,不符合人道主義精神[16]。不過,目前對於軍事智慧武器倫理的研究仍然停留在理論層面,要想在實際軍事戰爭中實踐,還需要更加做出更多的努力。
綜上可以看出,在一些複雜的人機環境系統中,事故的責任是很難界定的。每個人(機器)都是系統的一部分,完成了系統的一部分功能,但是整體卻產生了不可挽回的錯誤。至於人工智慧中人與機器究竟應該以何種方式共處,筆者將在下面一節中給出自己的一些觀點。
五、筆者的一些思考
通過以上的討論與分析,筆者認為,人工智慧還遠沒有倫理的概念(至少是現在),有的只是相應的人對於倫理的概念,是人類將倫理的概念強加在機器身上。在潛意識中,人們總是將機器視之合作的人類,所以賦予機器很多原本不屬於它的詞彙,如機器智慧、機器倫理、機器情感等。在筆者看來,這些詞彙本身無可厚非,因為這反映出人們對機器很高的期望,期望其能夠像人一樣理解他人的想法,並能夠與人類進行自然的互動。但是,現在的當務之急,是弄清楚人的倫理中可以進行結構化處理的部分,因為這樣下一步才可以讓機器學習,形成自己的倫理體系。而且倫理,正如第一部分討論的,是由倫和理組成的,每一部分都有自己的含義,而“倫”,即人倫,更是人類在長期進化發展中所逐漸形成的,具有很大的文化依賴性。更重要的是,倫理是具有情景性的,在一個情景下的倫理是可以接受的,而換到另一種情景,就變得難以理解,所以,如何解決倫理的跨情景問題,也是需要考慮的問題。
而且值得一提的是,就人機環境互動而言,機指而不僅僅是機器,更不是單純的計算機,而且還包括機制與機理。而環境不僅僅單指自然環境、社會環境,更要涉及到人的心理環境。單純的關注某一個方面,總會做到以偏概全。人工智慧技術的發展,不僅僅是技術的發展與進步,更加關鍵的是機制與機理的與時俱進。因為兩者的發展是相輔相成的,技術發展過快,而機制並不完善,就會制約技術的發展。現在的人工智慧倫理研究就有點這個意味。現在的人類智慧的機理尚不清楚,更不要提機器的智慧機理了。而且,目前機器大多數關注人的外在環境,即自然環境與社會環境,機器從感測器得到的環境資料來綜合分析人所處的外在環境,但是卻很難有相應的演算法來分析人的內部心理環境,人的心理活動具有意向性,具有動機性,這也是目前機器所不具備的,也是不能理解的。所以對於人工智慧的發展而言,機器的發展不僅僅是技術的發展,更是機制上的不斷完善。研究出試圖理解人的內隱行為的機器,則是進一步的目標。只有達到這個目標,人機環境互動才能達到更高的層次。
六、發展與展望
人工智慧倫理研究是人工智慧技術發展到一定程度的產物,它既包括人工智慧的技術研究,也包括機器與人、機器與環境及人、機、環境之間關係的探索。與很多新興學科一致,它的歷史不長,但發展速度很快。尤其是近些年,依託著深度學習的興起,以及一些大事件(AlphaGo戰勝李世石)的產生,人們對人工智慧本身,以及人工智慧倫理研究的興趣陡然上升,對其相關研究與著作也相對增多。但是,可以預期到的是,人工智慧技術本身離我們設想的智慧程度還相去甚遠,且自發的將人的倫理遷移到機器中的想法本身實現難度就極大。而且如果回顧過去的話,人工智慧總是在起伏中前進,怎樣保證無論是在高峰還是低谷的週期中,政府的資助力度與人們的熱情保持在同一水平線,這也是一個很難迴避的問題。這些都需要目前的人工智慧倫理專家做進一步的研究。
總之,人工智慧倫理研究不僅僅要考慮機器技術的高速發展,更要考慮互動主體-人類的思維與認知方式,讓機器與人類各司其職,互相促進,這才是人工智慧倫理研究的前景與趨勢。
參考文獻:
[1] [法]斯特凡·東希厄,徐寒易譯.會做夢的機器人[J].環球科學.2017(4):48-49.
[2]畢彥華.何謂倫理學[M].中央編譯出版社,2010.
[3][美]維納,陳步譯.人有人的用處:控制論與社會[M].北京大學出版社,2010.
[4][美]哈里亨德森,侯然譯.人工智慧-大腦的鏡子[M].上海科學技術文獻出版社,2011.
[5]M.Anderson,S.Anderson ,C. Armen, Towards MachineEthics: Implementing Two Action-Based Ethical Theories [C].In M. Anderson ,S.Anderson ,C. Armen(Eds.),Machine Ethics: AAAI Fall Symposium,Technical ReportFS-05-06. Menlo Park,CA:AAAI Press,2005:1-7.
[6]王紹源,崔文芊.國外機器人倫理學的興起及其問題域分析[J].未來與發展,2013,(06):48-52.
[7] 遲萌.機器人技術的倫理邊界機器人技術與應用[J].2009,(03).
[8]江曉原.人權:機器人能夠獲得嗎?--從《機械公敵》想到的問題[N].中華讀書報,2004-12-l.
[9] 黃建民.我們要給機器人以"人權"嗎?讀書與評論[J].2009(06):55-58.
[10] 姜潘.給機器人做規矩,要趕緊了[N].文匯報,2011-6-7.
[11] 唐昊沫,舒心.人工智慧與法律問題初探[J].哈爾濱學院學報,2007(01)
[12][美]劉易斯.芒福德,宋俊嶺等譯.機器的神話[M].北京:中國建築工業出版社,2009.
[13][美]庫茲韋爾,李慶誠,董振華,田源譯.奇點降臨. 北京:機械工業出版社.2011.
[14][美]皮埃羅斯加魯菲,任莉張建宇譯.智慧的本質[M].北京:人民郵電出版社,2017.
[15]James Reason.Human error[M].:Cambridge University Press.1990.
[16]杜嚴勇.關於機器人應用的倫理問題[J].2015,vol5(2):25-34.
摘自《科學與社會》2018.1