<address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

<nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
      <font id="v5f1t"></font>

    <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

      <listing id="v5f1t"></listing>

        <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

            <dfn id="v5f1t"></dfn>

            <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

              <font id="v5f1t"></font>

                      人工智能“危機”,機器人竟在深圳打砸?有何鐵律制約他們

                      導讀自從ldquo;源rdquo;覺醒后,人工智能機器人逐漸控制了全球,然而創造它們的人類卻成了機器人的獵物。ldquo;源rdquo;勢必要清除所有人類,完全、徹底地掌控地球資源。所剩無幾的人類

                      自從“源”覺醒后,人工智能機器人逐漸控制了全球,然而創造它們的人類卻成了機器人的獵物。“源”勢必要清除所有人類,完全、徹底地掌控地球資源。所剩無幾的人類聯合起來與人工智能做殊死一搏……

                      這是很多有關人工智能的科幻片里的經典橋段。雖說電影是一種藝術,但它也是源于生活,而人工智能所帶來的“威脅”,在現實生活中也不容小覷。

                      人工智能“危機”,機器人竟在深圳打砸?有何鐵律制約他們

                      2017年5月,中國烏鎮圍棋峰會上,圍棋人工智能程序阿爾法狗(AlphaGo)以3比0大敗中國棋手柯潔。彼時,柯潔排名世界第一,代表著人類在最復雜棋盤游戲圍棋上的最高智慧。

                      阿爾法狗的取勝使人工智能威脅論再一次甚囂塵上,小報編輯甚至挖出了近三十年前的一樁命案。

                      人工智能“危機”,機器人竟在深圳打砸?有何鐵律制約他們

                      1989年,前蘇聯國際象棋冠軍尼古拉古德科夫在與一臺巨型計算機對弈時,被連輸三局“惱羞成怒”的計算機放電“謀殺”。經過專家深入調查,最終證實不是巨型計算機“蓄意”所為,而是因為外部電磁波干擾了計算機程序所致。

                      人工智能“危機”,機器人竟在深圳打砸?有何鐵律制約他們

                      就在不久前,人工智能“傷害”人類的事件還在我國上演了。2016年11月在深圳高交會,一個名為“小胖”的機器人,在“沒有指令”的情況下,開始打砸展臺玻璃,并砸傷路人,一位路人全身多處劃傷后被擔架抬走,該傷者在醫院,腳踝被縫了兩針。

                      人工智能“危機”,機器人竟在深圳打砸?有何鐵律制約他們

                      毫無疑問,這次事件又被各種媒體大炒特炒,“機器人不滿高強度工作,蓄意發泄報復……”事后,官方發表聲明:“這次事件是因為工作人員操作不當,誤將“前進鍵”當成“后退鍵”所致”。

                      人工智能“危機”,機器人竟在深圳打砸?有何鐵律制約他們

                      一次烏龍事故又使人工智能威脅論成為了人們茶余飯后的談資。機器人與人類究竟該如何相處,有什么法則來規范他們嗎?

                      還真有對機器人的行為作出規范的原則“機器人三原則”。

                      它是由著名科普作家、文學評論家阿西莫夫在1940年前瞻性地提出的。

                      第一條,機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。

                      第二條,機器人必須服從人類命令,除非這條命令與第一條相矛盾。

                      第三條,機器人必須保護自己,除非這種保護與以上兩條相矛盾。

                      隨后,學界在機器人的這三條鐵律上又陸續補充了“元原則”、“第零原則”、“繁殖原則”等等。確保未來人工智能機器人與人類和諧共處,成為人類的好幫手,永遠為人類所用。

                      人工智能“危機”,機器人竟在深圳打砸?有何鐵律制約他們

                      不知大家注意到沒有,小編在行文時,在人工智能上使用的有主觀色彩的詞語如“惱羞成怒”、“蓄意”、“不滿”等,都是加了引號的。因為只有人類才具有復雜的主觀感情,才有喜怒哀樂。人工智能是否能思考,機器人是否擁有人類的智能?

                      人工智能“危機”,機器人竟在深圳打砸?有何鐵律制約他們

                      想知道答案。那它必須先通過一項偉大的測試圖靈測試。

                      圖靈測試是由英國數學家、邏輯學家、“人工智能之父”艾倫麥席森圖靈在1950年提出的。圖靈測試旨在檢測人工智能機器人是否能思考。

                      經過多次測試后,如果機器能讓平均每個參與者做出超過30%的誤判,則它通過測試。

                      圖靈測試問世后一直沒有機器能夠通過,直到2014年6月,一位“13歲烏克蘭男孩”出現在英國皇家學會舉行的圖靈測試大會上……

                      我們下次再聊。

                      人工智能“危機”,機器人竟在深圳打砸?有何鐵律制約他們

                      (轉載請取得授權,否則必究;本文圖片源于網絡,感謝原作者,若有侵權聯系刪除)

                      免責聲明:本文章由會員“李書”發布如果文章侵權,請聯系我們處理,本站僅提供信息存儲空間服務如因作品內容、版權和其他問題請于本站聯系
                      <address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

                      <nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
                          <font id="v5f1t"></font>

                        <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

                          <listing id="v5f1t"></listing>

                            <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

                                <dfn id="v5f1t"></dfn>

                                <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

                                  <font id="v5f1t"></font>

                                          国产成人h片视频在线观看