數百名AI專家力挺馬斯克霍金:呼吁禁殺人機器人
11月9日消息,據CNBC報道,了解人工智能(AI)潛力的科學家對殺手機器人(也被稱為自主武器)深感恐懼。今年8月份,包括特斯拉電動汽車公司(Tesla)和美國太空探索技術公司SpaceX首席執行官伊隆·馬斯克(Elon Musk)在內的100多名科技界領袖簽署了一封公開信,呼吁聯合國禁止開發和使用人工智能武器。馬斯克也數次在推特上強調,他擔心AI全球軍備競賽會導致第三次世界大戰。
圖:2009年3月18日,在日本東京舉行的Terminator Exhibition展覽上,電影《終結者2》(terminator 2)中出現的機器人T-800全尺寸圖像
不久前,著名物理學家斯蒂芬·霍金(Stephen Hawking)也發出警告,強調監管AI的重要性。他在里斯本舉行的網絡峰會上說:“除非我們學會如何為應對和避免潛在風險做好準備,否則AI可能是人類文明歷史上最糟糕的事件。它帶來了危險,比如強大的自主武器,或者是少數人壓迫絕大多數人的新方法。”
11月2日,來自加拿大和澳大利亞的數百名AI專家加入了馬斯克和霍金的行列,向各自的政府提交了公開信,敦促他們支持聯合國禁止自主武器的行動。加拿大社區給加拿大總理賈斯汀·特魯多(Justin Trudeau)的信中寫道:“正如你所知道的,AI研究(包括研發能夠執行智能任務機器的嘗試)在過去十年里取得了驚人的進步。傳統AI得益于機器學習的迅速發展,使AI社區的雄心重新燃起,它們希望制造出能夠在人類監督或干預下進行復雜操作的機器。”
這封信指出,AI技術的發展有可能在許多領域幫助社會進步,包括交通、教育、衛生、藝術、軍事以及醫學等。但同樣的技術被應用于武器上,可能產生令人恐怖的后果。信中寫道:“AI具有革命性的意義。這些轉變(無論是實際還是潛在情況下)要求我們的理解,以及越來越多的道德關注。正是出于這些原因,加拿大AI研究團體呼吁你和你的政府讓加拿大成為世界上第20個反對AI武器化的國家。致命的自主武器系統,從決定目標的合法性和部署致命武力的角度,都在消除有意義的人類控制,這顯然違背了我們的道德底線。”
澳大利亞AI社區在給國家領導人的公開信中,也以類似的語氣和措辭表達了同樣的擔憂。信中稱:“正如許多AI和機器人公司(包括澳大利亞公司)最近敦促的那樣,自主武器系統可能會成為戰爭的第三次革命。如果它們發展起來,將會導致武裝沖突的規模以比以往任何時候都更大,而且在時間上比人類能理解得更快。致命的后果是,機器(而不是人類)將決定目標的生死。澳大利亞AI社區無法容忍AI被用于這種用途,我們只是想要研究、創造和促進其有益的用途。”(小小)