<address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

<nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
      <font id="v5f1t"></font>

    <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

      <listing id="v5f1t"></listing>

        <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

            <dfn id="v5f1t"></dfn>

            <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

              <font id="v5f1t"></font>

                      歐盟人權機構發布人工智能倫理報告

                      導讀導讀歐盟基本權利機構發布了一份關于人工智能的報告,深入探討了必須考慮的技術倫理問題。 聯邦鐵路局的這份報告題為《走向正確的未來》,開篇就

                      簡介:FRA發表了一篇關于人工智能的報告,深入探討了必須考慮的技術倫理問題。聯邦鐵路局的報告,標題為《走向正確的未來》(獲得正確的未來),介紹了一些人工智能在一開始就讓生活變得更好的方法,比如幫助癌癥診斷,甚至預測入室盜竊.歐盟基本權利機構(FRA)發布了一份關于人工智能的報告,其中深入討論了必須考慮的技術倫理問題。

                      歐盟人權機構發布人工智能倫理報告

                      聯邦鐵路局的報告,題目為《走向正確的未來》(獲得正確的未來),介紹了一些人工智能讓生活變得更美好的方法,比如幫助癌癥診斷,甚至預測入室盜竊可能發生的地點。

                      “可能性似乎無窮無盡,”聯邦俱樂部局局長邁克爾奧弗萊厄蒂在報告前言中寫道。“但是在使用人工智能的時候,如何才能充分維護基本的權利標準呢?”

                      為了回答這個問題,聯邦鐵路局采訪了100多名公共行政官員、私營公司的雇員和各種專家。

                      有證據表明算法有偏差,可能導致自動社交問題,比如民族檔案。如果人工智能的全部潛力將向全社會開放,這是一個需要回答的問題。

                      奧弗萊厄蒂說:

                      “人工智能不是絕對正確的,它是人做出來的,人會犯錯。”這就是為什么人們需要意識到什么時候使用人工智能,它是如何工作的,以及如何挑戰自動決策。歐盟需要澄清現有規則如何適用于人工智能。組織需要評估他們的技術如何在開發和使用人工智能的過程中干涉人們的權利。我們有機會塑造人工智能,它不僅尊重我們的人權和基本權利,而且保護和促進它們。"

                      人工智能正以某種形式應用于幾乎每一個行業,如果不是現在,那將是不久的將來。

                      人工智能偏向在某些行業比其他行業更危險。Frost就是一個明顯的例子,但在金融服務等領域,可能意味著一個人獲得貸款或抵押,而另一個人不能申請貸款。

                      如果沒有適當的透明度,這些偏見可能會在沒有人知道這些決定背后的原因時發生,這可能只是因為有些人在不同的社區長大,而每一個自動做出的決定都會對人產生非常真實的影響。

                      聯邦鐵路局呼吁歐盟:

                      為了確保人工智能尊重所有基本權利,人工智能可以影響許多權利,而不僅僅是隱私或數據保護。它還可能歧視或阻礙司法。未來人工智能的任何立法都必須考慮到這一點,并制定有效的保障措施。

                      人們可以質疑人工智能的決定。人們需要知道什么時候用人工智能,怎么用人工智能,怎么投訴,到哪里投訴。使用人工智能的組織需要能夠解釋他們的系統是如何做出決策的。

                      在使用人工智能減少負面影響之前和期間,私人和公共組織應評估人工智能如何損害基本權利。

                      為了對數據保護規則提供更多指導,歐盟應進一步明確數據保護規則如何應用于人工智能。在使用人工智能時,自動決策的含義和人的審查權需要更加明確。

                      評估人工智能是否歧視,對人工智能歧視的可能性和影響的認識相對較低。這就需要更多的研究經費來研究人工智能潛在的歧視效應,以便歐洲能夠防范。

                      要建立有效的監管體系,歐盟應該投資一個更加“一體化”的體系,讓企業和公共行政部門在使用人工智能時能夠負起責任。當局需要確保監督機構有足夠的資源和技能來完成這項工作。

                      近年來,歐盟加強了對谷歌等“大型科技”公司的審查,因為它們擔心侵犯隱私和濫用市場地位。上周,《人工智能新聞》報道稱,谷歌解雇了人工智能倫理研究主管蒂姆尼特蒲鴿,因為她在一封電子郵件中批評了她的雇主。

                      谷歌CEO桑德爾皮查伊(Sandahl Pichai)在一份備忘錄中寫道,“一位才華橫溢、杰出的黑人女性領導人不幸離開了谷歌,我們需要為此承擔責任。

                      “對我來說,讓我們的黑人、女性和代表性不足的谷歌員工知道我們重視你,知道你真正屬于谷歌,這一點非常重要。”

                      在本周接受BBC采訪時,Gebru稱谷歌和大型科技公司是“系統中的種族主義者”。有鑒于此,聯邦鐵路局報告中的呼吁顯得尤為重要。

                      免責聲明:本文章由會員“丁夕”發布如果文章侵權,請聯系我們處理,本站僅提供信息存儲空間服務如因作品內容、版權和其他問題請于本站聯系
                      <address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

                      <nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
                          <font id="v5f1t"></font>

                        <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

                          <listing id="v5f1t"></listing>

                            <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

                                <dfn id="v5f1t"></dfn>

                                <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

                                  <font id="v5f1t"></font>

                                          国产成人h片视频在线观看