在這周三,來自數百家公司的2000多名科學家,其中許多是機器人和人工智能領域的著名的研究人員和工程師,聯名簽署宣言,誓言絕不將他們的技能用于開發自主殺人機器。
這場宣誓行動由總部位于波士頓的非盈利組織未來生命研究所(Future of Life Institute)發起,來自36個國家的多達160個人工智能相關的公司、覆蓋90個國家的2400名個人簽署了宣言,他們承諾:在世界上的任何一個國家,自主武器都對公民構成了“明顯而現實的危險”,他們“絕不參與自主武器的開發”。
簽署者包括谷歌的頂級人工智能研究團隊DeepMind;歐洲人工智能協會;ClearPath Robotics/OTTO Motors;瑞典人工智能協會XPRIZE基金會;以及倫敦大學學院。簽署之一承諾的著名人士還包括頂尖的人工智能研究人員Demis Hassabis、Stuart Russell、Yoshua Bengio、Anca Dragan、Toby Walsh以及特斯拉和SpaceX的創始人伊隆?馬斯克。
絕不允許殺人機器人出現
“人工智能(AI)將在軍事系統中扮演越來越重要的角色,公民、政策制定者和領導人都迫切需要區分AI可接受的用途和不可接受用途。”
7月18日,2000多名AI學者共同簽署《致命性自主武器宣言》成為會議國際人工智能聯合會議(IJCAI)上的一項重要議題,這也是學界史上最大規模針對“自主武器”的聯合簽名宣言。
組織這次行動的創始人之一,MIT教授邁克思?泰格馬克(Max Tegmark)說:“我很高興看到人工智能的領軍人物從對話轉向行動,實施一項政治家們迄今未能實施的政策。人工智能有巨大的幫助世界的潛力——如果我們不能容忍其濫用,并致力于防止其濫用。自主殺人的AI武器就像生化武器一樣令人厭惡和不安,我們應該以對待生化武器的方式來處理自主武器。
以下是《致命性自主武器宣言》全文:
人工智能(AI)有望在軍事系統中發揮越來越大的作用。 公民、政策制定者和領導者有必要區分人工智能可接受和不可接受的適用范圍。
從這個角度來看,我們簽署者達成一致意見:永遠不應將人類生命的決定權委托給機器?!暗赖隆笔沁@個立場的一部分,我們不應該讓機器為那些應當受處罰的人做出生死決定。另一個強有力的觀點是:致命的自主武器,在沒有人為干預的情況下選擇和參與目標,將危及每個國家和個人的穩定。
眾多人工智能研究人員一致認為,若是通過致命的自主武器消除人類生命的風險或困難,它們可能成為一種暴力和壓迫的有力工具(尤其是在監視和數據系統相關聯時)。此外,致命的自主武器具有與核武器,化學武器和生物武器截然不同的特點,并且單一團體的單方面行動很容易因國際社會缺乏技術工具和全球治理體系而引發軍備競賽。防止發生這種軍備競賽應成為國家和全球安全的優先考慮事項。
我們聯名簽署人,呼吁各國政府和政府領導人共建一個擁有強大的國際規范、法規和反對致命自主武器法律的未來。 這些法律目前是沒有的,我們選擇保持高標準:我們既不參與也不支持致命自主武器的開發,制造,貿易往來或使用。 我們要求技術公司和組織以及領導者,政策制定者和其他個人加入我們的承諾。
《致命性自主武器宣言》的簽署者將進一步敦促將于8月份就自主武器問題舉行會議的聯合國在各國之間達成一致承諾,促使各國禁止自主武器。
|