<address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

<nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
      <font id="v5f1t"></font>

    <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

      <listing id="v5f1t"></listing>

        <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

            <dfn id="v5f1t"></dfn>

            <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

              <font id="v5f1t"></font>

                      第三代人工智能基礎設施的背后是技術應用的常識普及運動

                      導讀買了新電腦和手機,你會提前安裝好殺毒或安全軟件,還是等被黑客攻破了才悔之晚矣?處理傳染病疫情,是從源頭釋放藥物和疫苗,還是坐等醫院的患者超過治療和處理能力?面對危機輿情,是快速遏制傳播,還是拖到負面信

                      當你買新電腦和手機時,你會提前安裝殺毒或安全軟件,還是被黑后后悔?

                      第三代人工智能基礎設施的背后是技術應用的常識普及運動

                      應對傳染病疫情,是從源頭上釋放藥物和疫苗,還是等待醫院的病人超過治療和治療能力?

                      面對危機輿情,是應該迅速遏制蔓延,還是把負面信息拖得遠遠超出企業公關能力?

                      建造核電站時,是否有必要提前考慮其安全性,并嚴格部署安全措施?

                      答案顯而易見。

                      公共設施投入運營前,一定會做足消防、驗收等作業;殺毒軟件和定期更新漏洞已經成為桌面系統的常備工具;在汽車、手機等新產品的設計之初,安全將是首要考慮的因素之一……這就是主動安全管理在社會生產中的意義。

                      面對人工智能,總有科技公司和大V不斷強調AI的神奇,卻有意無意忽略了一些技術落地不可或缺的前提條件,包括——安全。

                      其實,對AI安全的擔憂是當今各行業落地AI時遇到的頭號焦慮和問題之一。

                      在12月9日舉行的“2020第三代人工智能產業論壇”上,清華系AI公司RealAI發布了一系列AI基礎設施,圍繞更安全、可靠、可信、可擴展的第三代人工智能,推動企業智能化升級。與以往基于深度學習的數字智能解決方案相比,有哪些不同?要回答這個問題,需要看今天企業和AI應用的兩難。

                      找回丟失的安全知識

                      隨著“新基礎設施”的吹響,AI在行業內大踏步前進,同時也出現了一些安全問題,暴露出安全管理意識的缺失。

                      AI意味著更高的計算成本,更快的數據交互,更高的轉換風險。出現算法問題或數據泄露或黑客攻擊怎么辦?之前業界沒有過多討論,但這是AI進入行業的前提,是業務創新發展的命脈。

                      AI需要什么樣的安全性?如開頭所述,在過去的幾十年里,主動安全管理已經滲透到社會生產和生活的各個方面。

                      學者埃里克霍爾內格爾在《Safety-I and Safety-II: The Past and Future of Safety Management安全管理的過去和未來》中對此進行了解釋:

                      在過去,只要某件事犯的錯誤很少或者沒有,就被認為是安全的(即“安全-我”模式)。隨著數字時代的到來,這種方法已經不能有效減少安全問題帶來的損失。黑客的攻擊威脅可能會使個人或企業無法挽回,如果他們沒有做出充分的反應。

                      于是在21世紀初,又發展了另一種安全管理模式,—— Safety II,認為安全的本質是保證盡可能多的事情是正確的,能達到預期的效果,并始終保持這種狀態。因此,我們必須積極主動,在事故發生之前采取一定的行動,在負面結果發展和擴散之前采取干預措施。

                      人臉識別涉及的隱私、數據風險等問題,之前已經被廣泛討論過,提醒我們AI需要完成“安全II”的能力。具體來說,就是預測、準備、應對和監控風險的能力。

                      請檢查您的“人工智能安全問題禮包”

                      如果按照Security II模式的主動管理邏輯來看AI產業化,會發現有很多安全隱患等待提前解決。

                      1.不可靠決策的算法模型。到目前為止,深度學習模型的黑箱和不可解釋性仍然難以避免。企業在訓練深層神經網絡時,可能會出現模型不準確、預測結果不可預測的情況。

                      然而,一旦不可靠的算法模型應用于高價值的關鍵敏感場景,如財務決策、醫療診斷、精密工業制造等。可能會造成生命財產的損失。

                      2.無法阻止的新攻擊方法。安全是一場技術性的攻防戰。目前,許多黑灰色生產商已經開始使用更尖端的技術發起攻擊,使得傳統的安全保護模式無法勝任。

                      比如利用“反樣”技術制造假臉欺騙移動支付的人臉識別模型,利用假音頻進行金融詐騙,制作假變臉視頻等。對于這種新的安全風險,主流廠商該模式仍然是傳統的“安全-我”理念,在發現問題后會做出反應并進行修復。而AI潛在的安全問題往往是滯后或隱藏的,比如訓練源處原始數據集的污染和中毒,問題的暴露。

                      3.日益嚴重的數據危機。為了提高人工智能能力,有必要最大化數據挖掘的價值。但在金融、醫療、公共安全場景的AI應用中,使用的數據往往涉及個人隱私信息,簡單明文數據的傳輸和利用可能導致隱私泄露。

                      另一方面,在具體的業務場景中,有價值的數據往往分散在不同的組織和用戶手中,形成大大小小的數據孤島。在應用過程中,數據的使用和消耗不受控制,存在濫用和復制的問題。同時,數據應用產生的收益不明確,數據所有權難以界定。

                      4.應用漏洞百出。雖然現在很多業務場景都使用了AI能力,但是應用效果并不盡如人意,比如算法偏差導致的白人和黑人的歧視,AI信用風險控制模型在特定領域的“歧視”,智能客服AI突然破口大罵用戶.雖然這些應用漏洞不會導致業務直接崩潰,但會大大降低業務效果,同時帶來負面的社會影響。

                      說到這里,大家可能會覺得AI不太靠譜。其實現在的AI方案成熟度和行業落地已經很高了,AI帶來的生產力價值遠超想象。

                      但從腳踏實地的角度來看,與其希望出現一個零事故零風險的理想化口號,更可行的辦法是把每一個算法,每一個系統,每一個項目都實施好,從源頭上構建實用可靠的AI。這也是當今大部分傳統行業對AI應用普遍缺乏認識,認為花錢回購是不利增長的神器,才發現是一張安全漏洞無數的漁網。

                      隨著AI進一步深入行業,需要盡快在技術價值和現實之間找到一個安全可控的平衡點。

                      防患于未然,關鍵時刻得靠學霸

                      正如愛因斯坦所說,提出問題往往比解決問題更重要,因為解決問題可能只是一種技能,需要創造性的想象力去提出新的問題和新的可能性,用新的角度看待舊的問題。而且標志著科學的真正進步。

                      這也是為什么,RealAI會引起我們的注意。

                      我們知道,人工智能的基礎模型、研究方法、基礎理論和各種模型的設計等等,底層創新一般都是由學術界率先垂范,比如2017年,圖靈獎得主Geoffrey Hinton就看到了傳統深度卷積神經網絡的問題,提出了膠囊網絡等新的深度學習方法,以期推動AI迭代。

                      在中國,清華人工智能研究院等頂級學術機構也在不斷嘗試搭建更可靠的AI和智能實現方式。而RealAI瑞萊智慧作為清華人工智能研究院的產學研技術公司,自然也能率先意識到高度依賴數據驅動的傳統機器學習時代存在的諸多安全隱患,針對上文提出的種種問題,RealAI的“學霸們”重構底層技術框架,推出全新范式,從技術側給出解決方法,比如:

                      將深度學習和貝葉斯方法的優勢有機結合,將數據和預測結果中天然存在的不確定性納入考慮,提升AI模型的泛化能力,從而實現可靠可解釋的AI;

                      保證在建模過程中,從關鍵特征和決策相關依據等不同維度給出解釋,增進人們對AI結果的理解;

                      通過對抗的方式發現AI算法存在漏洞的機理,并通過對抗防御技術指導魯棒AI算法和系統研發;

                      將領域知識引入到AI建模中,實現知識與數據的共同驅動;

                      通過與密碼學和分布式系統結合的方式,實現在明文數據不出庫的情況下,解決AI場景下的數據流通問題。

                      也許你已經發現了,集合了這些新技術能力的AI,已經不是我們所熟悉的那個“阿爾法狗時代”的深度機器學習了,而是第三代人工智能。

                      清華大學人工智能研究院院長、中國科學院院士張鈸教授是這樣闡釋的,第三代 AI 的思路是把第一代的知識驅動和第二代的數據驅動結合起來,通過利用知識、數據、算法和算力等 4 個要素, 建立新的可解釋和魯棒的AI,具備安全、可靠、可信和可擴展的特點。

                      沿著這一技術發展的底層思維邏輯演進,會發現在第三代人工智能基座上搭建AI應用,也就自然而然地實現了“安全II”——主動式安全管理,讓AI的潛在風險能夠從源頭就被預測、準備、響應和監控。

                      解決AI安全隱憂任重道遠,第三代AI無疑是中國學術界所給出的領先方向和解法。

                      沒有新基礎設施,就沒有“頂天立地”的第三代AI

                      AI很好,但如何才能被企業用起來?第三代AI要“頂天立地”,既需要高屋建瓴的學術創新,也需要“接地氣”地對接產業。想要融入真實的產業需求,自然離不開平臺基礎設施作為樞紐,成功完成技術價值到商業價值的轉換。

                      打個比方,企業只是想做一個美味的蛋糕,不需要從種小麥開始,找到一個提供面粉、黃油、模具的平臺采集到這種現成材料,是更省事省力有保障的選擇。

                      所以我們很欣喜能夠在AI助力數智化轉型的初始階段,就出現了RealAI這樣基于第三代人工智能技術的技術企業。

                      在“2020第三代人工智能產業論壇”上,RealAI發布了兩款最新AI產品——隱私保護機器學習平臺RealSecure和人工智能安全平臺RealSafe2.0 版本。

                      結合去年就推出的可解釋機器學習建模平臺RealBox,以及深度偽造檢測工具DeepReal,形成了一套從數據、算法、應用全鏈條對AI進行安全賦能升級的基礎設施平臺。

                      數據層面,最新發布的RealSecure隱私保護機器學習平臺,通過其自研的“隱私保護AI編譯器”,能夠自動將普通機器學習算法程序轉換為分布式、隱私安全程序。

                      這意味著,當銀行、政府、醫院等敏感場景想要實現數據流通又擔心隱私泄露等問題時,可以采用自動化隱私保護學習的方式,一鍵完成分布式隱私保護學習算法的建模,讓多個數據擁有方可以在無需透露敏感數據的前提下,來訓練更高性能的AI模型,打消企業和個人用戶的安全顧慮。

                      算法層面,升級后的RealSafe2.0版本,可以針對目標識別等算法進行安全攻防,并增加后門漏洞檢測等功能。就像殺毒軟件一樣,對應用的AI算法進行全面“體檢”,讓AI安全性的標準化檢測和增強成為可能。

                      高可解釋性的機器學習建模平臺RealBox,則借助貝葉斯概率機器學習,讓原本“黑箱”的模型訓練變得透明化、白盒化,各維度數據在決策過程中所占的比重等等都可以被解釋,這樣的算法做出的決策,自然更具有可信度。

                      應用層面,RealAI基于千萬級訓練數據打造了多特征融合和多任務學習、具備防御對抗樣本攻擊能力的偽造識別算法,推出DeepReal深度偽造檢測工具和一體機。

                      面對各種偽造App數據集和添加噪音來實施攻擊的行為,DeepReal可以對偽造內容和真實內容之間表征差異性進行有效辨識,在多個主流深度偽造App數據集和各類學術數據集上的檢測準確率超過99%。

                      這些能力在AI應用的各個環節貫穿,也讓第三代人工智能有了面向產業的價值釋放端口。RealAI CEO田天介紹道,人工智能要成為新時代的水和電,普及到產業的各個角落,需要完備的基礎設施建設。但不同于以往的數據平臺、算力平臺為AI提供基礎運算條件,RealAI 打造的原生基礎設施從增強AI自身底層能力出發,圍繞“算法可靠”、“數據安全”、“應用可控”三大能力,推動產業智能化走向安全可信的全新階段。

                      跨越鴻溝:“吃螃蟹”需要哪些動力?

                      對于產業端來說,最怕的不是投入,而是未知,這也是為什么在每一次轉型浪潮時,常常會有企業望而卻步。

                      每個行業與企業都有著自身的獨特性與具體需求,通用性AI往往難以施展拳腳;加上各自的技術基礎與認知階段不同,會出現有的企業急切想要構建全面的數智化系統,有的甚至連AI能做什么不能做什么都不知道。

                      如何讓企業愿意成為“第一個吃螃蟹的人”,AI技術公司需要做的不僅僅是大聲吆喝,更需要躬身潛行,做好平臺服務。

                      面對這一道難題,RealAI的“學霸們”做了三件事:

                      第一,打造自主可控的創新技術和底層框架,讓各行各業可以放心將數據、模型跑在上面。

                      最典型的,是此次發布的RealSecure所搭載的“隱私保護AI編譯器”。傳統聯邦學習往往都需要各個數據擁有方重新組建一個隱私保護學習團隊,或者堆人力將原來的機器學習代碼一點點改寫成隱私保護學習代碼,費時費力不說,還難以保證性能和適配性。

                      RealAI沒有沿著老思路“縫縫補補”,而是直接用底層編譯的方式,將聯邦學習算法結構成算子,通過算子的靈活組合來適配多種多樣的機器學習算法公式,就像“活字印刷術”中的“字模”一樣,可以被標準化、靈活取用。

                      另外在訓練過程中,首創以底層數據流圖的方式,讓數據的擁有方、參與執行方,以及通信是否需要加密,所有流程可視化展現,讓整個計算過程變得安全透明。

                      第二,鍛造成熟的垂直行業解決方案,為AI產業化“打樣”。

                      對于一些行業普遍存在的通用性問題,聯合頭部企業打磨出相應的解決方案,能夠給更多觀望者有所參考和啟發。

                      比如,在金融領域的信貸場景中,RealAI發現“數據有偏”是一個非常突出的問題,傳統建模過程中用到的數據都是經過層層篩選、最終跑過整個借貸業務流程的“好”樣本,但沒有貸后表現數據的客群中就沒有優質客戶了嗎?怎樣挖掘并服務好這群“數據隱形人”,RealAI以自研半監督回撈模型,判斷之前被拒絕的客戶究竟是否為優質資產,從中挖掘出10%與通過客群一樣的優質客戶,助力某銀行在無成本的前提下回撈拒絕客戶,實現了20%的資產規模增長。

                      工業領域的核心痛點則是算法可靠性。以智能檢測為例,重大設備的健康程度會直接影響企業生產效率和資產壽命,以往只能通過有經驗的維修人員來定期檢查、維護,效率低下,加上新生代檢修工人培養越來越困難,這時就需要高可靠性的AI來幫忙。

                      RealAI幫助工業企業打造的PHM設備健康診斷與預測性維護解決方案,就通過序列分析算法分析設備的監測數據,進行故障的實時診斷和預測,幫助規劃運維活動,避免停機和降低維修損失。在大壩安全智能監測場景中,提升50%的預測準確率。在光伏制造、油氣管道監測等場景中同樣可以發光發熱。

                      另外在公共安全領域,人臉識別技術被廣泛應用于刷臉支付等身份認證場景,背后與個人財產安全綁定,但識別模型本身卻存在被攻破的風險。RealAI與某大型支付企業合作,利用AI對抗攻擊算法全面發掘和修復人臉比對模型漏洞,提供防御方案,實現更加安全的刷臉支付。

                      類似的行業垂直解決方案還有很多,這些都是RealAI基于自身AI基礎能力,結合對于行業業務的理解,對產業智能化升級方向的洞察,所打造出的落地產品和解決方案,在不斷消弭技術到應用之間的鴻溝。

                      第三,“開箱即用”的一站式基礎保障。

                      通過此次發布的AI基礎設施平臺,我們發現,RealAI把相關技術力都封裝成了對應的工具和框架,企業碰到AI應用難題時,可以快速完成部署。

                      比如RealSafe平臺通過封裝多種自研的黑盒攻擊、白盒攻擊算法,以及業內首創的黑盒測評能力等等,通過界面化的操作,幫助用戶即便不具備專業的算法知識和編程開發經驗,也能輕易上手從根源上檢測跟防御潛在漏洞。

                      包括DeepReal平臺,通過軟硬件結合與適配,讓算法性能最大化,不需要企業再費勁進行調配。

                      今天,圍繞新基建展開的數智化升級,已經公認會給中國帶來長期的經濟紅利。其中,AI技術的普及速度與安全可靠,無疑是影響全局的關鍵變量。二者如同“DNA雙螺旋”一樣交織發展,才能夠打開人工智能產業“第二增長曲線”。

                      如果說智能化是一架高速飛馳向產業界的飛機,那么第三代AI技術及其基礎設施,就是這架飛機的安全裝置。

                      冒險,并非在任何時候都是一種美德。埃里克·郝納根就認為,企業在安全管理上應該更注重成功,而不是想當然地忽視風險,積極主動地引導各個業務環節向順利的方向發展,不要等待事故發生后“亡羊補牢”。

                      這或許也應該成為產業應用AI時的一種常識,而RealAI正在為我們補上這堂“常識課”。

                      免責聲明:本文章由會員“高悅”發布如果文章侵權,請聯系我們處理,本站僅提供信息存儲空間服務如因作品內容、版權和其他問題請于本站聯系
                      <address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

                      <nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
                          <font id="v5f1t"></font>

                        <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

                          <listing id="v5f1t"></listing>

                            <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

                                <dfn id="v5f1t"></dfn>

                                <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

                                  <font id="v5f1t"></font>

                                          国产成人h片视频在线观看