人類不必擔心強大的人工智能的發展
導讀:如今,很多人擔心人工智能技術會發展成邪惡的機器人,甚至到了統治世界的地步。 但別害怕,不會發生的。 人工智能已經進入人們的工作和日常生活。 正在推動醫藥,天氣預報,工廠自動化,自動駕駛汽車等行業的進步。 甚至高爾夫俱樂部制造商...現在,許多人擔心人工智能技術會發展成為邪惡的機器人,甚至達到統治世界的地步。 但別害怕,不會發生的。
人工智能已經進入人們的工作和日常生活。 正在推動醫藥,天氣預報,工廠自動化,自動駕駛汽車等行業的進步。 甚至高爾夫球桿制造商也使用人工智能技術來設計球桿。
事實上,人們每天都與人工智能互動。谷歌翻譯幫助人們瀏覽外國網站,并與不同國籍的人交談。 人工智能提供商已經將語音識別構建到許多應用中。 人們每天都使用Siri和Alexa等語音助理來幫助完成簡單的任務。 人臉識別應用程序自動標記照片,人工智能系統在圍棋和德州撲克等復雜游戲中擊敗專業游戲玩家,工廠機器人代替工作人員進行重復工作。
人工智能的最新進展使人們知道將來該去哪里。 科幻作家幾十年來一直在思考這個問題。 強大而友好的智能機器人,如星球大戰電影中的C3PO機器人,將出現在一些人描述的未來世界。 另一些人形容智能機器人既不友好也不邪惡,而且它是一種類似人類的弱點,如西方世界的人形機器人,它有自己的意識和情感,不愿意被人類奴役。 然而,在其他作家的作品中,也有對人類懷有敵意的邪惡機器人,如電影《哈爾:太空漫游2001》和《終結者》中的智能機器人。
關于人工智能潛在危險的猜測并不局限于科幻小說。 許多權威的技術專家預測,隨著人工智能系統變得更加智能,機器人最終將主宰世界。 特斯拉創始人埃隆·馬斯克說,人工智能是人類最大的生存威脅,它對文明的存在構成了根本的風險。 而已故著名物理學家斯蒂芬·霍金曾說過:“這可能預示著人類的終結。&根據rdquo;哲學家Nick Bostrom,人類未來研究所的創始人,人工智能對人類歷史構成了最大的威脅,甚至比核武器更大。
人工智能和狹義人工智能
這些技術人員和科幻作家所擔心的人工智能系統是強大人工智能的例子。 一個強大的人工智能(ai,AGI)系統共享人類的能力:推理、處理視覺、聽覺和其他輸入,并能夠適應各種環境。 這些系統和人類一樣,對各種事件和話題都有豐富的知識和溝通技巧。
虛構的強人工智能系統(即虛構的邪惡機器人)和今天的人工智能系統有兩個顯著的區別:第一,今天的每個人工智能系統只能執行更狹窄的任務。 例如,學會命名照片的人工智能系統無法做到這一點他甚至不能區分狗和大象。 它不能回答問題、檢索信息或進行對話。 其次,當今的人工智能系統在世界上對常識的了解很少,因此不能基于這些知識。 例如,面部識別系統可以識別特定的字符,但對其他人一無所知。 它不會被看作或聽到人類,也不會像人類一樣吃、睡、工作,也不會犯罪或墜入愛河。
今天的人工智能系統是狹義的人工智能系統,這是未來學家專家Rekuzwell在2005年發明的一個術語,用來描述這些差異:機器人只能執行一項特定的任務。 雖然狹義人工智能系統的性能可以使它們看起來很聰明,但事實并非如此。
相比之下,人類和虛構的智能機器人可以執行大量不同的任務。他們不僅能認出面孔,還能看報紙,做飯,系鞋帶,討論時事,并執行許多其他任務。 虛構的智能機器人也基于人類對世界的常識進行推理,將常識、經驗和背景知識應用于各種任務。 例如,當人類從柜子里拿出一個玻璃時,他們使用他們所知道的關于重力的東西,并知道如果他們不夠緊,玻璃就會從他們的出來。 人類不是從重力的定義或數學方程中的描述中獲得知識,而是無意識地從現實生活的經驗中獲得知識。 人們每天都用這些知識來完成許多其他任務。
新的人工智能范式
最大的問題是當今狹窄的人工智能系統是否會進化成具有人類智能的智能機器人,它可以使用常識推理來執行許多不同的任務。
而今天大多數突破性的AI系統都使用一個名為ldquo的系統;監督學習”機器學習形式,其目的是學習一個函數,它可以從信息輸入中識別輸出類別。 例如,面部識別系統以圖像為輸入,識別圖片中的人的姓名。 強化學習是相同的,目標是學習能夠預測給定狀態下最佳動作的函數。
多倫多大學機器學習專家杰弗里辛頓(jeffreyhinton)表示,他懷疑目前的模式,包括監督學習、強化學習和自然語言處理,是否會導致強大的人工智能和科幻小說中的邪惡機器人。 辛頓認為,采用人工智能可能需要放棄目前主導的監督學習范式。臉譜公司首席人工智能科學家YannLeCu也表示,監督學習和強化學習從來不會創造強大的人工智能,因為它們不能被用來創建對世界有常識的系統。
一些人工智能研究人員開始探索一些新的方法。 在評估這些新方法的可行性時,必須記住,對狹義人工智能成就的熱情不應轉化為對這些新方法的樂觀想法。 因為現有的狹義人工智能方法在構建強大的人工智能系統時將面臨一個死胡同。
像人類一樣學習
許多研究人員將人類學習描述為組合學習:學習許多技能,然后將它們結合起來學習新技能。 人類將學習關于世界的概念、規則和知識,隨著人們學習執行不同的任務,這些技能將發生變化。這些研究人員認為,常識人工智能推理(以及人工智能和邪惡機器人)的關鍵是建立人工智能系統,這些系統可以像人類一樣結合起來學習。 這個想法是允許人工智能系統學習概念和規則作為構建塊,以便他們能夠學習更高層次的概念和更高層次的概念第二條規則。
對這種方法最大的關注是人工智能系統在理解人類如何獲得常識知識方面進展緩慢。 40年前,關于人工智能系統是否能回答問題以及德國牧羊犬的耳朵是什么形狀的問題,人們爭論不休;。 雖然人工智能和認知科學領域的一些權威人士參與了分析和辯論,但仍然沒有明確的答案。 人工智能能否回答有關狗耳形的問題,只是眾多具有代表性的方案和推理過程之一。 此外,人們甚至不知道這些計劃和推理過程是天生的還是后天的。 五十多年來,這一直是學術辯論中不斷討論的話題。
那么,人們如何看待人工智能和邪惡機器人的真正進步需要多長時間?按照目前的進展速度,這可能需要幾千年,而且可能永遠不會發生。
深入學習
一些研究人員認為,雖然監督學習和強化學習本身就是建立人工智能系統的死胡同,但深度學習可能會把人們帶到他們的目的地。 Yann Lecun和Greg Brockman提出了擴展無監督學習系統的想法,希望能神奇地獲得常識,并學習基于這些知識的推理。
GPT-3系統是擴展性的一個很好的例子,它的能力比GPT-2系統強100倍,GPT-2系統本身比原來的系統強10倍。 GPT-2系統表現出驚人的能力,可以產生人類的聲音(即使并不總是連貫的),而GPT-3系統可以產生更好的結果。 開發GPT系統的開放人工智能研究人員認為,由于網絡規模的擴大,這是一種新興的功能。
GPT毫無疑問,3系統具有提取其訓練文本的統計規律性的強大能力,也可能具有記憶文本小片段的能力。 然而,它沒有能力學習常識,也沒有能力獲得基于這些知識的推理。 在這個階段,沒有證據表明常識和推理技能可以從這種方法中學習,也沒有理由相信它會發生。
提出了一種新的深度學習體系結構——用深度學習來突破狹義人工智能的局限性。 一個目標是學習更高層次的積木,可以幫助人工智能系統進行組合學習。 這是一個有趣的想法。
模擬大腦
行業專家提出的另一種強人工智能方法是了解人腦的物理結構,并在此之后建立人工智能系統模型。 經過幾十年的研究,人們只知道一些關于人腦如何處理信息的非常基本的事實。 例如,眾所周知,大腦皮層可以靜態和動態地存儲所學的東西,基底節區通過強化學習處理各種目標和選擇信息,而邊緣腦結構連接大腦和身體,產生動機、情感和事物的價值。
在大腦中建立神經元模型的想法已經提出了40多年,但尚未獲得真正的吸引力,部分原因是在理解人腦方面的進展非常緩慢。 在人工智能程序中,沒有具體的方法來模擬已知的人腦。在這方面,似乎沒有證據表明這種做法會成功。
更快的電腦
技術未來學家ray kurzweil一直認為人工智能將成為更大、更快的副產品。 奇點的概念是計算機能夠智能地改進程序的一個時間點。 他指出,一旦發生這種情況人工智能系統的智能將成倍增長,并將很快達到超人智能。 庫茲韋爾預測,奇點將出現在2045年左右。
也就是說,很難想象處理能力本身如何創造強大的人工智能。 無論是使用20世紀70年代,還是當今天的先進計算機沒有加載任何程序時,這些計算機都不能執行任何操作。 如果兩臺計算機都加載了文字處理器,則只能執行文字處理。 更新的、更現代的計算機將能夠更快地響應和處理更大的文檔,但它們仍然只進行文字處理。 未來的計算機也是如此。
更快的計算機本身不會產生人工智能。 正如Steven Pinker所說,更強的處理能力并不是解決所有問題的靈丹妙藥。 強大的AI不太可能實現,編程和學習算法可能是如此復雜,以至于需要非常強大的計算機。
強人工智能能否實現?
狹義人工智能系統背后的技術不能發展為邪惡機器人;。 對于如何實現強大的人工智能,業界提出了一些想法,但這些想法還不清楚。 自20世紀50年代末以來,人工智能研究人員就如何創造強大的人工智能提出了各種各樣的想法,但沒有人能成功,也沒有證據表明現在的想法會更好。
艾倫人工智能研究所(Allen Institute of人工智能)首席執行官奧倫·埃茨昂(Oren Etzion)表示,人們對實現強大人工智能的樂觀和恐懼源于狹隘人工智能系統的成功。 這種對狹義人工智能的樂觀自然蔓延到強大人工智能的前景。
人們可能會它不會發生在生活中。 人們可能幻想,技術將允許人類冬眠或隱身,或通過心靈傳送將人類的思想發送到計算機中,甚至逆轉人類的衰老。 在這種情況下,人們應該把人工智能和邪惡機器人分類。
原標題:不要害怕人工智能,作者:史蒂夫·沙瓦茨
[51CTO翻譯,請注明合作網站CTO.com的原文和來源