能區分GPU和CPU嗎?為什么GPU是人工智能行業的“利器”?
在第四次科技革命的東風下,云計算、大數據、人工智能等新興技術以其優越的便捷性和穩定性,開始給服務器市場帶來新的活力。其中,近幾年出現了一種普通用戶熟悉又陌生的GPU。
近日,PC巨頭英特爾發布了首款數據中心獨立顯卡,即服務器GPU。蘋果新的M芯片也曝光了,GPU達到了128核。GPU與人工智能呼應后,不僅重構了當前的產業結構,還為整個市場帶來了新的有效增量,一個全新的“GPU黃金時代”似乎正在如火如荼地展開。從“隨太子讀書”到“占便宜”,GPU是什么?為什么GPU開始出現在AI應用中?
GPU是什么?
適用于并行大數據的操作組件
說到GPU,就不能不提到CPU,CPU是英文中央處理器的縮寫,也叫中央處理器。它不僅是計算機的操作核心,也是控制核心,其主要功能是協調計算機系統的工作。
現在買手機經常看到“高通驍龍”和“聯發科”這兩個字,買電腦也能看到“Core”和“AMD”這兩個CPU中央處理器的品牌。
GPU是英文Graphics Processing Unit的縮寫,即專門為PC或嵌入式設備設計的執行圖像操作的微處理器。與CPU相比,GPU專注于大量工作,主要執行復雜的數學和幾何計算。
比如計算機顯卡的核心就是GPU處理器。顯卡的主要任務是讀取和顯示圖形圖像,需要復雜的并行計算,降低了核心CPU的計算負荷,與計算機CPU的速度關系不大。顯卡性能越好,GPU越高級,這也是為什么很多游戲玩家對GPU有很深的感情。
北京郵電大學計算機學院副教授楊旭東說,中央處理器和圖形處理器有許多相似之處。例如,兩者都是為完成計算任務而設計的處理器,都遵循馮諾依曼計算機體系結構。但是,兩者的區別也很明顯。CPU的結構屬于單指令單數據處理結構,邏輯計算能力強;GPU是單指令多數據處理結構,數據處理能力強。
總之CPU擅長指揮全局復雜邏輯計算,GPU擅長數據并行計算,所以特別適合處理大而統一的數據。
對于復雜的2D渲染或3D圖像處理,CPU會花費大量資源進行處理,不僅會降低其他方面的工作效率,還會影響使用體驗。于是CPU把一些高幀率的游戲畫面和高質量的特效交給GPU處理。
另一方面,GPU不能單獨工作,必須由CPU控制調用才能工作。CPU發出指令后,GPU收到自己的任務才開始工作。
GPU最初用于個人電腦,后來應用于移動智能終端,以解決多媒體數據處理的問題。在人工智能和大數據廣泛應用的今天,人們把GPU放在服務器端,俗稱服務器GPU。隨著通信技術/網絡技術的發展,數據處理越來越側重于服務器計算。楊旭東表示,服務器GPU可以用于專業可視化、計算加速、深度學習等應用,也支持云計算、人工智能等一系列技術的發展,有望成為GPU行業未來應用的重點。
CPU和GPU結構差異示意圖。為了提高效率,GPU可以大幅削減整數計算性能,并移除大量緩存
解析服務器GPU:
數據中心獨立顯卡
前面提到了服務器GPU。巧合的是,新冠肺炎疫情正好給了服務器GPU一個全新的機會。
今年以來,受疫情影響,全球在線業務量大幅提升,用戶數量激增。比如流媒體觀看視頻數量增加,第二季度全球流媒體播放時間同比增長67%。再比如云游戲市場。近年來,01030等游戲
特別是在云游戲市場,它可以像高端電腦一樣玩出高質量的游戲大作,同時不占用過多的本地存儲空間。甚至索尼的PS系列也會在未來通過云游戲宣傳可以兼容以往產品的內容。
但是云游戲實現起來并不容易,其中一個很大的技術瓶頸就是虛擬化。普通虛擬桌面不支持GPU虛擬化,而游戲嚴重依賴GPU渲染。沒有GPU虛擬化,云游戲無法實現。同時還會出現網絡不穩定導致延遲、高清屏幕顯示效果差、運營成本高等問題。這就需要云服務器的專用顯示芯片“服務器GPU”發揮作用。
基于這些要求,11月中旬,一家計算機巨頭公司正式推出了其首款用于數據中心的獨立顯卡,即服務器GPU,名為SG1。這是一款專為Android云游戲和流媒體服務設計的高密度、低延遲產品。
該公司表示,未來服務提供商可以在不改變服務器數量的情況下獨立擴展顯卡的容量,并在每個系統上支持更多的流量和用戶。比如一個典型的雙卡系統可以支持100多個Android云游戲并發用戶(同時執行一個操作或腳本,對服務器施加實際壓力的用戶),最多可以擴展到160個并發用戶。
記者查了一下數據,發現2012年云游戲剛剛興起的時候,GPU只能支持4個用戶的并發。到2020年,雖然它增加到了50個用戶的并發,但GPU和SG1的160個并發之間仍然有明顯的差距。
云游戲的發展可以在高清大屏幕上為玩家呈現更高質量的內容,提高游戲的視覺效果,而SG1的突破帶來了更高的性價比,可以通過軟硬件協同優化解決成本問題。對于尋求降低成本和提高效率的云游戲運營商來說,這無疑是一個溫暖的春風。
2020年9月6日,北京國家會議中心中國國際服務貿易博覽會5G云游戲展示(來源/視覺中國)
坐上人工智能的快車,
未來GPU會取代CPU嗎?
人工智能、虛擬現實和自動駕駛等技術近年來引起了高度的市場關注,成為科技和投資領域最熱門的話題。尤其是深度學習引領的AI應用,因為AlphaGo在人機對戰中的大獲全勝,更是在全世界吹起一股AI風潮。
隨著科學技術的發展,GPU早已不是計算機當中最為基礎的“搬運工”,因為擅長大規模并發計算,所以GPU除了圖像處理,也越來越多地參與到計算當中來,在人工智能、金融學、密碼學、云服務等領域開始發揮越來越重要的作用。尤其是人工智能產業中,甚至成為行業內公認的“利器”之一。
GPU為何在AI應用當中嶄露頭角?楊旭東解釋說,除了機器學習的幫忙,深度學習的類神經演算法也在人工智能應用當中發揮著重要的作用。深度學習當中有一種技術叫“卷積神經網絡CNN”,這種網絡在數學上是許多卷積運算和矩陣運算的組合,恰恰和GPU本來能做的矩陣運算十分相似,因此深度學習就可以用GPU進行加速。
▲卷積神經網絡的端到端結構示意圖
從2011年人工智能研究人員首次使用GPU為深度學習加速之后,GPU就開始在人工智能領域發揮巨大作用,這也讓GPU本身有了跨越式的發展。十年時間內,不僅在性能上提升了20多倍,市場規模也得到了大幅提升。有機構預測,到2027年,全球GPU市場規模有望突破2000億美元,從2020年到2027年,復合增長率有望高達33%。
因此有觀點認為,按照現在的發展速率,因為CPU處理器已經出現了性能過剩等問題,若干年以后,GPU有望取代CPU。而在2017年的某場會議當中,英偉達(NVIDIA)CEO黃仁勛也曾公開表示,摩爾定律已經失效,GPU最終會取代CPU。
摩爾定律是由英特爾創始人之一戈登?摩爾所提出,其主要內容為:集成電路(芯片)上可容納的晶體管數目,約每隔18至24個月便會增加一倍,性能也將提升一倍。
但近年來,隨著以智能手機處理器性能的過剩以及性能提升的放緩,摩爾定律開始受到越來越多的質疑。
“GPU很難取代CPU,甚至在未來很長一段時間都無法實現。”楊旭東對這樣的觀點給予了否認。他解釋說,這是因為從設計邏輯上來看,兩者就有著根本的區別,CPU要統籌控制整個系統,各種復雜的指令都要它來執行,GPU如果也要這樣做,自身就會變得復雜起來,連本職工作也無法完成了,所以GPU是無法取代CPU的。
“目前主流CPU晶體管數量在10億左右,而頂級GPU晶體管數量已經達到了100億甚至更多,所以CPU做不了GPU的事情,GPU也完成不了CPU的工作。”但楊旭東強調,未來隨著制造技術進步和芯片的縮小,CPU和GPU架構之間將得到很好的融合。也就是說,CPU進一步強化處理數據模塊的能力,GPU也可以承擔更復雜的指令,最終促進計算機性能的大幅提升。(來源:科普中央廚房 | 北京科技報)