人工智能將來可能毀滅人類的真正原因
介紹:從英國著名理論物理學家斯蒂芬霍金,到特斯拉創始人埃隆馬斯克,以及其他世界級人工智能(AI)專家都曾表達過AI對人類生存的威脅。人類有一天會成為自己發明的機器人的受害者嗎?加州大學伯克利分校(C大學.
世界頂尖的人工智能(AI)專家,如英國著名理論物理學家斯蒂芬霍金、特斯拉創始人埃隆馬斯克等,都曾表達過AI對人類生存的威脅。
人類有一天會成為自己發明的機器人的受害者嗎?
加州大學伯克利分校的斯圖爾特拉塞爾是這一領域的專家。
他在新出版的《人類相容:人工智能與控制問題》(Human Compatible : AI與控制的問題)一書中指出,這種威脅并不是來自機器人開始有了自我意識,奮起反抗人類主人。
是因為這些機器人變得超級強大,最后很可能是因為人類的疏忽,給機器人設定了錯誤的目標,讓他們無心殺了我們所有人。
羅素教授說,這才是我們應該擔心的,而不是說人工智能開始有了自我意識,像好萊塢大片里描繪的那樣投奔人類,最后把我們都害死了。
羅素教授強調,我們要擔心的不是意識,而是他們的能力。
“超能力”
羅素教授在接受BBC采訪時說,假設我們發明了一個強大的人工智能系統,可以用來控制氣候變化,可以將大氣中的二氧化碳水平恢復到工業革命前的水平。
經過分析,人工智能系統認為最簡單的方法就是消滅人類,因為人類活動是最重要的二氧化碳來源。
當然,人類可能會對機器人說,你可以做任何事情,但你就是不能完全滅絕人類。人工智能系統可能會說服人類少生孩子,直到最后沒有孩子,人類慢慢滅絕。
這個例子是為了強調與人工智能相關的風險,這是人類在創造人工智能之前不想了解的。
超級聰明
根據存在風險研究中心(坎皮奇大學)的說法,大多數人工智能系統都是相對“狹窄”的應用程序,專門用于解決某一領域的特定問題。
但在1997年,超級計算機深藍打敗了國際象棋世界的衛冕冠軍加里卡斯帕羅夫,成為人工智能歷史上的一個里程碑。
但深藍雖然打敗了世界象棋的衛冕冠軍,但深藍可能連一局簡單的跳棋都贏不了。因為深藍的設計師特意讓它下棋。
但這只是開始。隨著人工智能的發展進步,AlphaGo Zero這個AlphaGo的最新版本,僅僅用了三天時間就和自己一起練習,達到了超人的水平。
AlphaGo Zero不需要太多通過深度學習的手工程序。成為圍棋、象棋、國際象棋(又稱日本象棋)的大師。
在這里,最震撼的是AlphaGo Zero完全是自學的。
劍橋大學風險研究中心認為,隨著人工智能越來越強大,它可能會成為超級智能。它將在許多或幾乎所有領域超越人類。
羅素教授說,這就是人類需要收回控制權的原因。
如何奪回控制權
羅素說,給人工智能更清晰的目標并不是解決這個問題的辦法,因為人類無法確定這些目標是什么。
拉塞爾說,人們應該徹底改變構建人工智能系統的整個基礎,例如,人工智能系統不應該給機器人一個固定的目標,而是必須明白他們不知道目標是什么。
一旦人工智能系統以這種方式運行,它就會服從人類的指揮。在執行任務之前,它會尋求人類的許可,因為它不確定這是否是你想要的。
羅素教授說,最重要的是他們(AI)會愿意接受隨時被關閉的選項,因為他們也想避免做你不喜歡的事情。
神燈中的精靈
羅素說我們現在發明的AI系統有點像傳說中神燈里的仙女。當你拍打神燈時,燈里的仙女出來了。你對小精靈說:“為我做吧。”
“如果AI系統足夠強大,它會完全按照你的要求去做,你會得到和你要求的一樣的結果。”
但羅素說,問題在于,就像神燈里的童話故事一樣,第三個愿望總是要求仙女“取消前兩個愿望”,因為我們不確定自己真正想要的是什么。
結果,試圖完成錯誤指令的機器人實際上成了人類的敵人,一個比我們強大得多的敵人。
到那時,就太晚了。