<address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

<nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
      <font id="v5f1t"></font>

    <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

      <listing id="v5f1t"></listing>

        <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

            <dfn id="v5f1t"></dfn>

            <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

              <font id="v5f1t"></font>

                      英偉達的新技術可以將AI模型訓練數據量減少20倍

                      導讀導讀Nvidia發展新的資料增強技術,可以大幅減少訓練人工智能模型所需要的資料量,研究人員僅使用來自大都會藝術博物館的一個小型資料集,就讓人工智能模型能夠創造出,過去可能需要數萬,甚至可能超過10萬

                      簡介:英偉達開發新的數據增強技術,可以大大減少訓練人工智能模型所需的數據量。研究人員只使用大都會藝術博物館的一個小數據集,該數據集允許創建人工智能模型。以前可能需要幾萬。甚至超過10萬個訓練圖像也能產生漂亮的圖像結果,這個研究結果是可以得到的.

                      英偉達的新技術可以將AI模型訓練數據量減少20倍

                      英偉達開發了新的數據增強技術,可以大大減少訓練人工智能模型所需的數據量。研究人員只使用大都會藝術博物館的一個小數據集,它使人工智能模型能夠產生美麗的圖像結果。在過去,要產生漂亮的圖像效果,需要數萬甚至十萬張以上的訓練圖像。研究結果可用于廣泛的領域,包括醫療保健和其他應用。

                      英偉達應用了一種叫做ADA(Adaptive Discriminator employment)的技術生成對抗網絡的StyleGAN2模型,大大減少了10到20倍的訓練圖像數據量,取得了同樣好的效果。生成對抗網絡(GAN)的一個特點是訓練材料越多,模型產生的結果越好。生成對抗網絡由兩部分組成:生成器和鑒別器。發生器負責合成圖像,而鑒別器識別圖像的真偽,并將有用的參數反饋給發生器,使發生器以后能產生更好的結果。

                      但是一旦訓練材料不足,鑒別器就無法提供足夠的信息讓生成器產生良好的效果,就像新手教練沒有足夠的經驗指導球員一樣,球員很難提高技術。所以訓練一個高質量的模型通常需要5萬到10萬個訓練圖像,但問題是在很多用例中,沒有足夠的樣本圖像可以使用,只用幾千個圖像訓練生成一個對抗網絡,通常無法產生逼真的效果,會出現Overfitting。

                      過去采用數據增強的方法來減少訓練和生成對抗網絡所需的數據量,但效果并不好,因為它沒有生成對抗網絡,而是學習了圖像旋轉、變形等失真,無法生成逼真的合成圖像。目前,英偉達提出的ADA方法可以自適應地應用數據增強方法,避免過度適應,使得StyleGAN2等模型可以使用較少的訓練圖像,獲得較好的效果。

                      研究人員將這一結果應用到過去的用例中,由于缺乏培訓材料,這些用例很難實現。例如,藝術家使用StyleGAN創作各種精美的繪畫,或者以傳奇插畫家手冢治蟲的風格創作新的漫畫。Adobe還應用這一技術提供了一種新的人工智能工具,神經過濾器。

                      研究人員還提到,這項技術有望應用于醫療保健領域,因為罕見疾病的醫學圖像很少,而且每個病例都有很大的差異,很難收集到大量有用的病理切片數據集。然而,使用ADA技術生成對抗網絡可以改善這個問題。

                      免責聲明:本文章由會員“王楠一”發布如果文章侵權,請聯系我們處理,本站僅提供信息存儲空間服務如因作品內容、版權和其他問題請于本站聯系
                      <address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

                      <nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
                          <font id="v5f1t"></font>

                        <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

                          <listing id="v5f1t"></listing>

                            <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

                                <dfn id="v5f1t"></dfn>

                                <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

                                  <font id="v5f1t"></font>

                                          国产成人h片视频在线观看