力防 AI 危害人類,霍金、馬斯克力推 23 條人工智慧原則

 

「一個好的未來是什麼樣子?」特斯拉執行長伊隆·馬斯克(Elon Musk)在加州阿西羅瑪的 Beneficial AI 會議上表示。「我們正走向超級人工智慧,但也或許是人類文明的結束。」全球 2000 多人,包括 844 名人工智慧和機器人領域的專家聯合簽署了 23 條 AI 發展原則,呼籲全世界的人工智慧領域在發展 AI 的同時嚴格遵守這些原則,共同保障人類未來的利益和安全。

物理學家史帝芬·霍金和特斯拉執行長伊隆·馬斯克本週公開力挺一系列原則,用以確保擁有自主思考能力的機器保持安全發展,並符合人類權益運作。

機器正逐年變得更加智慧,研究人員相信他們在未來幾十年內可以擁有人類智慧水平。 一旦他們達到這個程度,他們就可以開始改善自己,並創造其他智慧,甚至更強大的 AI,牛津哲學家尼克·博斯特羅姆和其他幾個專家認為,應當稱其為超級智慧。

2014 年,馬斯克警告說,人工智慧有可能「比核武器更危險」,而霍金在 2014 年 12 月說,人工智慧可能會終結人類。 但它也是雙刃劍。 AI 也可以幫助治癒癌症及減緩全球暖化。

2017 年 1 月舉行的 「Beneficial AI」會議 為基礎上建立起來的「阿西羅瑪人工智慧原則」,名稱來自這次會議的地點 – 美國加州的阿西羅瑪(Asilomar)市,確保 AI 為人類利益服務。

本次會議參加者大多是業界最富盛名的領袖,如 DeepMind 執行長 Demis Hassabis 和 Facebook AI 負責人 Yann LeCun 等。全球 2000 多人,包括 844 名人工智慧和機器人領域的專家已聯合簽署該原則,呼籲全世界的人工智慧領域在發展 AI 的同時嚴格遵守這些原則,共同保障人類未來的利益和安全。完整名單可以見 futureoflife.org

這系列原則目前共 23 項,分為三大類:

1、科研問題

AI 研究的目標應該是「有益的智慧」。 它應該防止 AI 系統被駭客入侵。 它還應該解決「維護人類的資源和理想」。法律應該「跟上 AI 的步伐」,應該考慮人工智慧「價值觀」的問題。 此外,應該努力使研究人員和法律/政策制定者合作,並且應該「在 AI 的研究人員和開發人員之間培養整體的信任和尊重文化」。

2、倫理和價值觀

應根據原則以一種安全和透明的方式開發 AI。 自主系統應必須可以解釋它的行為。 創建 AI 系統的人必須對這些系統的使用方式承擔責任。 自主系統的設計應反映人類的價值觀。 人們應該有機會控制這些系統共享和使用數據的方式。AI 應該盡可能使更多多的人受益,並應該為人類做出貢獻,而不是僅僅得益於某些組織或個人。有的國家在競爭建立智慧的自主武器 ,這是很大的潛在危害,應該主動積極避免。

3、長期問題

我們不知道 AI 會有什麼能力,應該針對「災難或風險」提前規劃。

「人工智慧已經為世界各地的人們提供了日常使用的有益工具,」生命未來 (Future of Life) 網站上聲明,「它的持續發展,須以後文原則為指導,在未來幾十年甚至幾個世紀,為幫助人類更加強大。」

會議上,馬斯克坐在 Hassabis、Bostrom、Tallinn 和其他 AI 領域領導人組成的專家組中。 他們每個人都輪流回答他們所認為的超級智慧,Bostrom 在一篇學術論文中把它定義為「一種比每個領域最優秀的人類智慧還要優秀的智慧,這包括科學創造力、一般智力和社會技能」。

當小組被問到超級智慧是否可能,每個人都表示了十分的肯定,除了馬斯克,當他說「不」的時候應該也是在開玩笑。可見,這些大佬都認為超級智慧的發生是遲早的事情。有趣的是,當小組被問到是否期待超級智慧出現時,回答開始出現矛盾了,有四個人思慮再三覺得「這很難說」,而馬斯克說,這「取決於它到底是什麼類型的智慧了。」

「阿西羅瑪人工智慧原則」是開發安全 AI 的重要指南,它們獲得 AI 社群和廣大從業者的廣泛支持。路易斯維爾大學網路安全實驗室主任 Roman Yampolskiy 說:「從簽署名單數量可以看出,這些原則為人工智慧安全這個年輕的領域提供了可信度,但它仍然需要面對許多對否認 AI 風險的人,他們仍舊拒絕相信設計不當或惡意的 AI /超級智慧可能給人類帶來巨大風險」。

 

[ 這場座談可說是人工智慧的夢幻隊, 在座的左起:

  1. Elon Musk (Tesla, SpaceX)
  2. Stuart Russell (Berkeley)  計算機科學家
  3. Bart Selman (Cornell)  計算機科學家 待過AT&T和貝爾實驗室
  4. Ray Kurzweil (Google)  Google工程總監,《人工智慧的未來》作者
  5. David Chalmers (NYU)  澳洲哲學家、認知科學家
  6. Nick Bostrom (FHI,牛津大學)  《超智慧:出現途徑、可能危機,與我們的因應對策》作者
  7. Demis Hassabis (DeepMind)
  8. Sam Harris  美國哲學家、腦科學家;《道德風景》《信仰的終結》《對話:伊斯蘭與寬容的未來》作者
  9. Jaan Tallinn(CSER/FLI)  愛沙尼亞程式設計師、物理學家、投資者

    主持人:Max Tegmark(MIT物理學家、宇宙學家)]

阿西羅瑪人工智慧 23 原則原文........全文

 

 

文章標籤
創作者介紹

經濟新潮社EcoTrend官方部落格

EcoTrend 發表在 痞客邦 PIXNET 留言(0) 人氣()