人工智慧出現的各種BUG,誰該為其結果負責?
智造觀點
隨著技術的進步,AI變得更加的自主和複雜,而我們也越來越難以理解它到底是如何工作的。實際上,大多數人對人工智慧的工作方式知之甚少。或者就此而言,從日常金融交易到確定信用評級,人工智慧的應用十分廣泛,但人們卻不瞭解它的原理。
比如,在股票市場上,華爾街只有少量的交易是由人類完成的,絕大多數交易的本質其實是演算法。這是一個預先被程式設計的系統,如果大豆或石油的價格下降,它就會馬上自動“反應”出各種額外的措施來面對這種情況。當然這也是人工智慧演算法的意義:一切都可以很快的執行,比人腦計算要快幾千秒。但問題是,在人工智慧成為一種普及的“力量”之前,還有很長的路要走,而現在我們應該相信它嗎?或者說,當AI出現問題時,誰應該為它負責呢?
文/灰灰
來源/人工智慧觀察(ID:Aiobservation)
我們總說,人工智慧已經進入到了生活中的方方面面,但人工智慧在社會中究竟有多普及呢?據《福布斯》報道,Statista的一項調查結果顯示,截至2017年,全球只有5%的企業在其工作流程和產品中廣泛使用人工智慧,32%的企業尚未採用人工智慧,22%的企業沒有計劃使用人工智慧。
這組資料可能與我們想象中的普及相去甚遠,事實上,現在對人工智慧來說,最大的推動力來自AI初創公司以及供應商。按照該行業很多專家的說法,AI仍主要處於炒作的階段。比如科技公司Tech Emergence創始人、國外著名科技產業作家Daniel Faggella曾表示,“人工智慧技術的供應商經常會誇大其詞,讓他們的技術或產品聽起來比實際上更有能力,但有關人工智慧如何應用於商業領域的深入討論卻很少。”
Faggella指出的更令人恐懼的事情是,在人工智慧領域銷售營銷解決方案、醫療保健解決方案以及金融解決方案的企業現在只是在測試這項技術。實際上,有數百家公司正在銷售人工智慧軟體和技術,但只有三分之一的公司具備發展人工智慧技術所需的技能。
科技巨頭首當其衝,AI有很大的BUG
當然,像亞馬遜這樣的科技巨頭,其內部幾乎所有人類活動都是由計算機程式所引導的。他們不僅監督員工的行為,還會被用於潛在員工的選擇。此前,小智君曾報道過,亞馬遜放棄了該公司的一項AI招聘工具,原因在於選擇結果對女性存在歧視。
亞馬遜這一決定是廣受支援的,但該事件也表明了機器學習中存在很大的弊端。雖然機器學習是目前應用最廣泛的人工智慧技術,但無論這些程式學習速度多塊,它們都只能從人類所提供的資料中進行學習,如果資料中存在歧視模式,那麼它們的結果也無法逃脫這個命運
亞馬遜的AI招聘工具就是這樣的,由於培訓這個系統的資料,多是過去該公司僱傭的男性求職者的記錄,導致了這個工具學會了歧視女性的申請。而另一個人工智慧被廣泛應用的更加不公平的例子是,讓AI決定囚犯是否應該獲得假釋。這也是一個存在很大爭議的應用,因為從人自身的角度出發,也很難針對這個問題做出一個準確的決定。
不過值得慶幸的是,在亞馬遜的案例中,這種不公平沒有繼續蔓延下去,因為該公司意識到了自己在這起事件中應該扮演的角色以及承擔的責任,並且對此也做出了正確的決策。
然而,人工智慧的問題遠不止於此。目前,人工智慧應用最廣泛的產品大概就是個人數字助理了,比如蘋果的Siri,亞馬遜的Echo。在我們看來,這些數字助理只是為了方便我們的生活而出現的,像幫我們定鬧鐘、幫我們撥電話,等等。但實際上在某些壞人的眼中,它們可能是某些非法案件的幫凶。
早在2012年,美國佛羅里達州就曾發生過這樣一件事:一名大學生曾向Siri求助,在哪裡可以掩埋被他殺死的朋友的屍體。事情發生後,蘋果不得不更改了Siri的演算法,以使它在面對同樣的問題時,不會給出具體答案。有報道指出,現在如果對Siri提出同樣的問題,只能獲得“這很有趣”的回答。
醫療領域AI應用多,出現問題誰該負責?
在上述的AI應用,有些人會覺得距離自己很遙遠,那麼在每個人都無法避免的醫療領域呢?在我們的生活中,人為導致的醫療事故實際上還是很普遍的。很多專家認為這是美國的第三大殺手,而在英國,多達六分之一的患者在國家服務中心就診時出現了誤診現象。醫療領域人工智慧的出現,其目的之一就是減輕誤診數量,並且在某些情況下,該技術已經接近甚至超過了人類醫生的成功率。
聽起來似乎很美好,給人類的生存帶來了希望,但是大家似乎都沒有想過,如果這項能力驚人的技術出現了失敗,如果失敗是由機器或演算法造成的,那麼這一結果應該誰負責呢?別以為這是一個無厘頭的問題,在醫學領域,明確道德責任和法律責任對建立患者的信任度來說至關重要。同時,在決定如何賠償醫療事故受害者以及確保高質量的醫療服務方面,也扮演著不可或缺的角色。對此,邁阿密大學法學教授邁Michael Froomkin表示:“責任被認為是阻止人們做不該做的事情。”
“我們不能高喊矽谷在醫療保健方面取得了‘重大突破’的口號,”前NHS醫生,現任AI政策研究員的Matthew Fenech補充道。“我們需要把患者和安全放在第一位。”目前,醫學中使用的AI被稱為“決策助手”,這意味著它們(至少在法律層面上)是為了補充而非取代專家的意見。
“在某種程度上,這是一種免疫策略,但實際上它表示的是我們期待醫生們對決策提出質疑,”德保羅大學健康與智慧財產權法研究員Charlotte Tschider說。“這些裝置現在還不能取代人類知識。”反過來,這意味著使用人工智慧(通常是醫生)的醫療服務提供者仍要對所有可能出現的問題負責,只有少數病例例外,畢竟從法律的角度來說,他們的期待是醫生會權衡人工智慧的結果和建議以及其他證據,如傳統的診斷測試,病史,以及其他醫生的諮詢意見,對患者進行細緻的檢查。
AI也只是一個輔助工具。更簡單的理解為,假設你是一名醫生,在做手術時發現自己用的手術刀彎了,這時你不會不管不顧的進行手術,因為你知道自己要對此負責,從這個角度看,如果AI被用作決策支援,那麼醫生也要對此負相應的責任。
可能有的人會覺得,人工智慧是如何做出決策的,目前還是一個未解之謎。所以這種不透明性本身就帶來了很多問題。比如,我們如何確定人工智慧的錯誤是不可避免的還是疏忽造成的?為什麼在不瞭解其內部工作原理的時候,要讓醫生或醫療機構對此問題承擔責任呢?
但反過來說,如果我們將人工智慧系統本身作為一種負責任的法律人格,這就有點奇怪,因為這些機器人自己是沒有銀行賬戶或薪水收入的,所以對他們做出罰款沒有任何意義,同樣的,對一堆演算法提出監禁判決也沒有啥用。所以,針對這一問題,小智君(ID:Aiobservation)認為如果醫療裝置製造商生產了有缺陷的產品或者沒有充分警告使用者風險的存在,那麼在發生事故時,這些AI背後的公司有義務承擔責任,而醫生在使用過程中,沒有盡到自己的監管義務的話,也要付出相應的代價。
不過,考慮機器學習當下的狀態,不管是在哪個領域哪種情況下AI出現問題,追究其背後製造商的責任可能是有一定意義的,但在未來我們要做的是讓AI本身為自己負責成為可能,就像現在的自動駕駛汽車意義,它要出現在公共道路上,就必須在機動車輛部門完成註冊,如果出現事故太多次,那麼其許可能就可能被收回,同樣,未來或許有相似的規定出現,以便處理那些問題多多的演算法。
(文中圖片來自網路)
近期熱文:
最大屏最貴价最智慧最會拍最多色還有中國特供,蘋果又要重新定義了
投稿、約訪、合作,聯絡郵箱[email protected]
新增微信aixiaozhijun,更多交流或進AI觀察團