力防 AI 危害人類,霍金、馬斯克力推 23 條人工智慧原則
2017/2/3 INSIDE
Quote:
2017 年 1 月舉行的 「Beneficial AI」會議 為基礎上建立起來的「阿西羅瑪人工智慧原則」,名稱來自這次會議的地點 – 美國加州的阿西羅瑪(Asilomar)市,確保 AI 為人類利益服務。
本次會議參加者大多是業界最富盛名的領袖,如 DeepMind 執行長 Demis Hassabis 和 Facebook AI 負責人 Yann LeCun 等。全球 2000 多人,包括 844 名人工智慧和機器人領域的專家已聯合簽署該原則,呼籲全世界的人工智慧領域在發展 AI 的同時嚴格遵守這些原則,共同保障人類未來的利益和安全。完整名單可以見 futureoflife.org。
這系列原則目前共 23 項,分為三大類:
1、科研問題
AI 研究的目標應該是「有益的智慧」。 它應該防止 AI 系統被駭客入侵。 它還應該解決「維護人類的資源和理想」。法律應該「跟上 AI 的步伐」,應該考慮人工智慧「價值觀」的問題。 此外,應該努力使研究人員和法律/政策制定者合作,並且應該「在 AI 的研究人員和開發人員之間培養整體的信任和尊重文化」。
2、倫理和價值觀
應根據原則以一種安全和透明的方式開發 AI。 自主系統應必須可以解釋它的行為。 創建 AI 系統的人必須對這些系統的使用方式承擔責任。 自主系統的設計應反映人類的價值觀。 人們應該有機會控制這些系統共享和使用數據的方式。AI 應該盡可能使更多多的人受益,並應該為人類做出貢獻,而不是僅僅得益於某些組織或個人。有的國家在競爭建立智慧的自主武器 ,這是很大的潛在危害,應該主動積極避免。
3、長期問題
我們不知道 AI 會有什麼能力,應該針對「災難或風險」提前規劃。
[ 這場座談可說是人工智慧的夢幻隊, 在座的左起:
- Elon Musk (Tesla, SpaceX)
- Stuart Russell (Berkeley) 計算機科學家
- Bart Selman (Cornell) 計算機科學家 待過AT&T和貝爾實驗室
- Ray Kurzweil (Google) Google工程總監,《人工智慧的未來》作者
- David Chalmers (NYU) 澳洲哲學家、認知科學家
- Nick Bostrom (FHI,牛津大學) 《超智慧:出現途徑、可能危機,與我們的因應對策》作者
- Demis Hassabis (DeepMind)
- Sam Harris 美國哲學家、腦科學家;《道德風景》《信仰的終結》《對話:伊斯蘭與寬容的未來》作者
- Jaan Tallinn(CSER/FLI) 愛沙尼亞程式設計師、物理學家、投資者
主持人:Max Tegmark(MIT物理學家、宇宙學家)]
阿西羅瑪人工智慧 23 原則原文........