“奇點時刻”來臨,人類將同AI融合成新智能人,但要防備純AI進化
鋼鐵俠埃隆馬斯克曾撰文稱:“我們需要萬分警惕人工智能,它們比核武器更加危險!”
霍金則在接受英國廣播公司的采訪時表示,人工智能會迅速演變并超過人類,他的理由很直白,“一旦經過人類的開發,人工智能將會自行發展,以加速度重新設計自己”。
為何馬斯克和霍金會對人工智能如此的恐懼?
因為歷史可以告訴未來。
20萬年前,智人登上歷史舞臺,尼安德特人面臨的命運只有滅絕。
1492年哥倫布登上美洲大陸,美洲大陸的原住民遭受了血腥的屠殺。
眾多的歷史事實告訴我們,人類每到一個進化節點,進化后的種族會毫不留情地滅絕自己的創造者。
未來學家雷蒙德庫茲韋爾認為“奇點時刻”到來將終結純粹的人類文明。
所謂“奇點時刻”指電腦智能與人腦智能兼容的那個神妙時刻。
他預言“2045年”將是人類又一個“奇點時刻”
“強人工智能”時代到來,是帶領人類進入更美好的未來,還是丟進歷史的垃圾堆?
強人工智能時代到來,帶來的利好消息是:
通俗點說,強人工智能時代將創造出:金剛狼,鋼鐵俠那些科幻片中的超級人類。
一個非常強大新的物種,擁有非常強大的能力,將帶來:財富自由(絕對貧困不再存在)時間自由(青春永駐,永生不老)空間自由(超速旅行)
強人工智能帶來的壞消息是:由于強人工智能具有自主設計,自主進化的能力,AI可能會自主進化,由于AI強大的快速迭代能力,進化速度可能遠遠大于“新智能人”(人機融合)的進化速度,或許會出現《黑客帝國》中那種毀滅人類超級計算機智能。
因為純粹由AI進化出來的智能,太過強大,新智能人徹底被邊緣化,沒有用的物種遲早都是要被淘汰掉的。
(量子計算機。)
對于宇宙碳水化合物組成的生物體太過脆弱,而且碳水化合物組成的人腦容積有限,
從長遠來看,遠遠不如硅基生命強大和適應宇宙環境。
未來某一天,世界將會發生以下變化。
a,生物人將不再存在。b,人類身體將超級材料化,機械化;意識將虛擬化,這都將導致永生。
對于強人工智能一個可以接受的未來是:人類和AI不會成為對立的對象,人類可能會最終會擁抱AI,蛻去這個生命體的軀殼,成為“硅基生命”,一個可不斷全方位升級的生命形式,從某種意義上來講這是現代人類的落日,也是“新智能人”的朝陽。
至于“新智能人”和純AI之間的競爭,新智能人具有先天的優勢,由于AI是人類的創造物,人類可以設計安全碼控制純AI的危險性。
人類不用擔憂AI和強人工智能的融合,但要防止AI的獨立進化。