隱私組織呼籲美國政府採用AI通用指南,保障AI的安全使用
阿新 • • 發佈:2018-11-03
上週在布魯塞爾舉行的一次會議上公佈的12則通用指南,旨在降低風險的同時最大化利益,改進AI的設計和使用。AI多年來一直是基於機器決策的術語,但隨著技術被更廣泛採用,基於AI的結果對人類生活產生了更大的影響。
但通常這些決策都是通過專有和封閉演算法做出的,因此幾乎不可能知道決策是否公平或合理。
根據電子隱私資訊中心(EPIC)的規定,這些指南旨在融入AI,以確保對人權的保護。這包括瞭解決策結果所使用的因素,邏輯和技術的權利;消除歧視性決策的公平義務;並有義務確保系統免受網路安全威脅。
現在,EPIC希望將這些原則引入美國,在致美國國家科學基金會的一封信中,EPIC呼籲這個政府機構採用通用指南,幾個月後,它就國家AI政策提出了建議。
“通過投資努力滿足普遍原則的AI系統,美國國家科學基金會可以從一開始就促進準確,透明和負責任的系統的開發,”EPIC總裁兼執行董事Marc Rotenberg寫道,“道德開發,實施和維護的AI系統比那些不規範的系統花費更多,值得投資和研究。”
EPIC表示,這12項原則完全符合美國迄今已制定的七項戰略,使其採用的案例更加容易。超過200名專家和50個組織簽署了該指南,包括美國聯邦科學家和政府問責專案。
隨著政府對資訊的要求現已結束,在政府決定下一步將會採取什麼措施(如果有的話)之前,可能需要更長時間。這不是由美國國家科學基金會來決定,而可能是白宮的科技政策辦公室。白宮發言人目前還沒有迴應。
以下是指南的內容:
- 透明權。所有個人都有權知道與他們有關的AI決定的基礎。這包括訪問產生結果的因素,邏輯和技術。
- 人類決心權。所有人都有權做出最終決定。
- 識別義務。負責AI系統的機構必須向公眾公佈。
- 公平義務。機構必須確保AI系統不反映不公平的偏見或做出歧視性決定。
- 評估和責任義務。只有在充分評估其目的和目標,利益及風險後,才應部署AI系統。機構必須對AI系統的決策負責。
- 準確性,可靠性和有效性義務。機構必須確保決策的準確性,可靠性和有效性。
- 資料質量義務。機構必須建立資料來源,並確保資料輸入演算法的質量和相關性。
- 公共安全義務。機構必須評估部署指導或控制物理裝置的AI系統所產生的公共安全風險,並實施安全控制。
- 網路安全義務。機構必須確保AI系統免受網路安全威脅。
- 禁止祕密剖析。任何機構都不得建立或維護祕密的剖析系統。
- 禁止統一評分。任何國家政府都不得對其公民或居民建立或維持通用評分。
- 終止義務。如果不再可能對系統進行人為控制,建立AI系統的機構有義務終止系統。
原文連結:隱私組織呼籲美國政府採用AI通用指南,保障AI的安全使用
本文為ATYUN(www.atyun.com)編譯作品,ATYUN專注人工智慧。