歡迎光臨
我們一直在努力

全球最大GPU“猛獸出籠”! 挖礦顯卡缺席黃仁勳的“星戰”GTC ,英偉達重新定義圖形與計算丨現場

長按識別二維碼,收看2018《麻省理工科技評論》區塊鏈商業峰會

從 PC 遊戲繪圖起家,然而在計算發光發熱的 NVIDIA,在本次 GTC 2018 中,雖然提出了光線追踪技術的普及化願景,但主角依然是在計算領域。

 

圖丨黃仁勳登場(圖片來源:DT君)

雖然 NVIDIA 一直以來都被認為是繪圖架構公司,但由於 GPU 計算概念的興起,NVIDIA 轉身一變成為計算架構設計公司,更成為帶動 AI 產業發展的重要推手。 通過使用GPU 的高度並行計算方式,大幅縮短AI 應用所需要的模型訓練時間,改善過去純CPU 架構服務器面臨大量數據的並行計算的性能瓶頸,讓訓練的設備可以快速商業化、平民化,AI 產業 也藉此得以蓬勃發展。

   

雖然現在有不少號稱可以取代 GPU 的 AI 芯片推出,但事實上,要把 NVIDIA 在過去 10 年累積起來的堅實 CUDA 生態打敗,可說是難如登天,接近不可能完成的任務。

除了計算和自動駕駛領域,NVIDIA 原本自豪的繪圖技術在過去兩年卻沒有提出什麼新架構,要知道早年 NVIDIA 可是曾經半年推一個新架構,把競爭對手打到非死即殘。 2017 年發表的 Volta 是針對計算優化,除了額外增加的 Tensor Core 外,架構及繪圖性能表現與 Pascal 並無二致。 甚至可以說,在 PC 繪圖技術方面,過去兩年基本上都還是以 Pascal 技術為核心。

 

所以 NVIDIA 在繪圖技術方面已經遇到瓶頸了? 那也未必,其實NVIDIA 也在想如何憋出大招,比如說前陣子NVIDIA 宣布實作RTX 實時光線追踪(Raytracing) 技術,不僅支持微軟在今年GDC(Game Developers Conference) 上宣布的DirectX Raytracing(DXR ) API,也預計要推出支持RTX 的Quadro 專業繪圖卡。 考慮到光線追踪所需要的計算量極為龐大,因此相關架構必須要在Volta 以及下一代GPU 上才能以硬件的方式來實現,而這正是利用Tensor Core 所帶來的龐大算力來達成光線追踪 的計算。

 

雖然本次GTC 大會並沒有宣布新款繪圖架構,但根據DT 君得到的信息,NVIDIA 下一款消費性芯片將是圖靈(Turing) 架構,而類似Pascal 和Volta 之間的關聯,安培(Ampere) 將會以是圖靈為基礎的專業計算卡。 而不論在消費卡或者是計算卡,Tensor Core 的持續引入使用也應會是不變的方向。

 

在 GTC 開場演講中, 黃仁勳正式發布英偉達新一代顯卡 NVIDIA Quadro GV100。 Quadro GV100 具有 32GB 內存,且可藉助 NVIDIA NVLink 互聯技術,通過並聯兩塊 Quadro GPU 擴展至 64GB。

圖丨黃仁勳正式發布英偉達新一代顯卡 NVIDIA Quadro GV100

黃仁勳演講內容:

重現照相質量的3D世界一直以來是3D圖學的終極目標,真實世界中光線來自四面八方,為了要重現真實世界,就必須把各個光線的來源綜合計算,複雜度極高, 傳統GPU可能一秒只能計算一格畫面,但我們今天利用新技術,可以達到每秒60張畫面,這是非常不可思議的突破。

 

我們過去利用了許多不同的圖學技巧,不論是要降低計算負擔,或者是加速執行,但仍然很難真實重現照片畫質。

 

圖丨黃仁勳演講現場(圖片來源:DT君)

但決定畫面真實與否的最終條件,往往是畫面中的小細節,比如說光線和物件之間的折射、散射、漫射、透射與反射等等,通過光線追踪技術,我們可以把真實世界的 畫面成像原理搬到3D圖學當中,並且利用我們的GPU技術架構來完成。

 

要考慮到不同的物件會吸收光線、折射光線的程度不同,比如說玻璃、塑膠,甚至我們的皮膚,都會一定程度的吸收光線, 因此我們利用了subsurface scattering來達到這樣的效果,這在一般計算機圖學中是非常難以達到的效果,但通過光線追踪技術,我們可以輕易的達到。

 

黃仁勳用一段星際大戰影片來展示光線追踪的效果,其效果幾乎和真實的電影畫面毫無差異,用肉眼幾乎看不出來是計算機計算的影片。 尤其是在帝國士兵身上的鎧甲效果,反射光源後,和周圍環境進行多次折射和反射,以及光線的吸收,最終形成非常真實的畫面,幾乎和電影畫面沒有差別。

 

圖丨黃仁勳用星際大戰影片來展示光線追踪的效果 (來源:DT君)

這樣的畫面是在DGX超級計算平台,通過2塊Volta繪圖卡達成。 這是世界首次以實時呈現光線追踪的效果。

 

在電影產業中,其實相關與光線處理相關的圖學技術都被使用,當你看到廣告、影片中,很多憑空創造出來的產物,基本上都是利用GPU創造出來的,而GPU每年都創造 了超過10億張這些數字創作。 通過GPU計算,我們讓產生這些圖像的成本和需要的時間降到最低,我們可以說,用越多GPU,你越省錢!

 

圖丨The more GPU you buy,the more you save

如今,通過使用Quadro GV100,我們可以在單一機架中取代傳統龐大耗電的render farm,目前主要電影創作者都逐漸往這個方向前進,比如說Pixar,就利用了這樣的架構來產生他們的電影 畫面。

 

而考慮到世界上有多少電影工作室正在從事電影相關創作,我們可以考慮一下這個市場規模會有多大,牽涉到多大的金額,天文數字。

GPU推動了AI產業的發展,但AI產業也同時推動了GPU的進步, 不只是GPU架構本身,還有相對應的開發環境與軟件生態,考慮到目前AI生態越來越蓬勃發展,我們可以說現時是個最佳的時間點,是讓產業改頭換面,前進到AI的領域中 。

 

圖丨各種各樣的AI Network正在湧現

而為了滿足這些開發者的需求,超過800萬個開發者下載了我們的CUDA工具,他們創造出來的計算效能超過370PETAFLOPS。

 

這些高性能計算很大程度都是要用來改變世界,包括研究疾病、醫療、氣候變遷,甚至了解HIV的結構。

 

我們拿2013年的GPU架構和今年推出的最新產品相比,我們的GPU每隔五年就達到10倍的效能成長,傳統半導體有摩爾定律,但是在CUDA GPU中,我們創造了不同的定律, 不只是硬件本身,我們也針對算法不斷的改善,總和以上的努力,我們才能達到這樣的成就。

 

傳統服務器的龐大、耗電,通過我們的GPU有了根本性的改變,我們可以說,你們在計算領域用了越多的GPU,其實就是越省錢!

 

在醫療圖像方面,很多疾病是越早偵測就越有機會治愈,但如何偵測疾病,視覺化的身體掃描技術,包括超音波、斷層掃描等,如果能夠利用3D技術重建掃描結果,我們可以 看到更真實的結果,而不是能依靠不明顯的陰影來判斷病徵。

圖丨英偉達在醫療上的合作夥伴

通過遠端與醫療圖像設備連線,這些設備產生的圖形實時反饋到我們的CUDA服務器中,並實時產生這些清晰的動態圖像,通過深度學習,我們可以輕易判讀這些掃描的結果,並還原到我們 肉眼可以簡單判讀的3D立體型態。 通過把這些服務器虛擬化,利用AI來後處理這些醫學圖像,我們可以創造出更容易判讀,且更不容易誤判的醫療圖像。

 

深度學習可以說重新塑造了我們現在的AI應用,從過去厚重、龐大、笨拙的印象,變呈現在輕巧、快速、聰明的結果。 從芯片設計者,到互聯架構,到軟件設計者,再到OEM廠商等,不論你在供應鏈中的哪個環節,我們都可以全力支持。

 

客戶想要達成不同的計算目標,不論是購買成品,或者是自行架設,我們都能滿足客戶的需求。

近十年從機器學習到深度學習,從最早的模型,衍生出無數種不同的神經網絡、模型,隨著應用的增加,也越來越複雜。  

 

當然,為了要應付這些複雜的神經網絡計算,現有的小型GPU其實很難以負擔,但我們從不同的方向去思考,如果把個別的GPU通過高效能的互聯結構結合起來,形成一個巨大的GPU ,這個GPU上面可以創造出過去不可能達成的計算成果。

 

圖丨用NVSwitch互聯16個GPU的DXG2 server

我們通過NVSwitch達成了這個目的,通過這個互聯架構,我們在DXG-2 server中互聯了16顆GPU,形成一個龐大的GPU架構,通過最新的NVLink,技術,GPU和GPU之間可以用比PCIE快 20倍的效率互相溝通。 這個互聯結構不是網絡狀結構,而是速度更快的交換器結構,通過這樣的互聯設計,我們在單一結構中實現了2PETAFLOP的驚人效能。 而且只需要2000W的功耗。 其功耗性能比可說遠遠超出目前的超級計算機。

圖丨黃仁勳和世界上最大的GPU合影

現在新的AI芯片把雲計算、深度學習看得太簡單,要考慮的因素太多,包括延遲、學習速率以及準確度等等,並不是在機架中塞進幾個ASIC芯片就能夠輕易解決 的工作。 我們要把盡可能快速的產生模型,盡可能讓模型更小,盡可能確保正確的結果輸出,背後的最大功臣就是開發工具。 繼去年針對推理大幅進化的TensorRT3之後,我們現在推出了最新的TensorRT 4,支持更多主流框架,也更能把不同的神經網絡部署到雲服務器當中。 這個版本我們又更加強化了推理性能。

通過TensorRT、NCCL和cuDNN,以及面向機器人的全新Isaac軟件開發套件,基於GPU的計算生態也更加完整。 此外,通過與領先雲服務提供商的密切合作,各大主流深度學習框架都在持續優化,以充分利用NVIDIA的GPU計算平台。

NVIDIA新推出的DGX-2系統通過借鑒NVIDIA為所有層級的計算堆棧開發的各種業界領先的技術優勢,實現了每秒2千萬億次浮點運算的里程碑式突破。

圖丨黃仁勳演講

DGX-2是首款採用NVSwitch的系統,其中採用的16個GPU均共享統一的內存空間。 這讓開發者獲得了相應的深度學習訓練能力,以處理最大規模的數據集和最複雜的深度學習模型。

DGX-2能夠在不到兩天的時間內完成對FAIRSeq的訓練,FAIRSeq是一種採用最新技術的神經網絡機器翻譯模型,其性能相較於去年9月份推出的基於Volta架構的DGX-1提高 了10倍。

我們在此也要宣布推出DRIVE Con​​stellation計算平台。 該平台基於兩個不同的服務器,第一台服務器運行DRIVE Sim軟件來模擬自動駕駛汽車的傳感器,例如攝像頭、LiDAR和雷達,第二台則包括英偉達強大的Drive Pegasus自駕車AI計算機,運行完整的 自駕車軟件堆棧和處理過程,就像駕駛汽車的傳感器一樣。

 

通過虛擬仿真,人們可以通過測試數十億英里的自定義場景和罕見的場景案例來增強算法的穩健性,最終所花的時間和成本只是在真實物理道路上需要的一小部分。

AI 生態突飛猛進,GPU 是背後最大推手

 

2017 年可說是各類型 AI 產業從概念、技術到應用落地的關鍵年,2018 年我們能看到不只是既有的產業紛紛引入 AI 的概念,新的產業也都紛紛因應而生。

 

然而AI 所需要的龐大數據處理以及模型建立過程需要極為強大的計算能量才有辦法應付,而業界直到數年前都還只能依靠純粹的CPU 架構所建立的數據中心以及超算平台來進行AI 模型的訓練,不僅成本昂貴,訓練過程也曠日廢時,成本效益太低,若沒有過去幾年NVIDIA 在GPGPU 技術與CUDA 環境生態的耕耘,我們就看不到現在AI 產業的蓬勃發展。

 

圖丨DGX-2在訓練FAIRSEQ方面的性能,要比去年推出的DGX-1快了10倍

而不論未來是否會有新的架構取代 GPU 成為 AI 計算的核心,我們都不能忘記 GPU 在這波 AI 崛起的潮流中所扮演的關鍵性角色。

 

當然,面對各家架構的挑戰,NVIDIA 自然也是準備好壓箱寶應對,比如說原本GPU 的大量並行計算結構對訓練有極大的優勢,但是推理計算性能表現極差,後來通過Tensor Core 的 集成得以有效的解決;而配合Tensor Core 推出的Volta 架構,主要改善的部分在於CPU、GPU 與GPU 之間的互聯能力以及帶寬,藉此輸出更高的計算能力,甚至可和專注於機器學習的 Google TPU 架構相提並論。

 

NVIDIA 雖無全新架構,但通過細節的強化仍將穩居 AI 霸權地位

 

本次 GTC 2018 大會中,其實 NVIDIA 要傳達的概念是: 雖然 AI 產業中新架構不少,但我們要堅持做好自己分內的工作,並一次次的突破,對我們而言,最大的挑戰是自我突破,而不是外來的市場阻礙。

 

也因此,雖然嚴格上來說並沒有真正意義上的新架構推出,基本上都是既有架構的強化,或者是開發生態的完備,但通過這樣的改進,其帶給市場的應用感受以及性能突破 ,都是NVIDIA 都是要向市場傳達的信號:對手還有太多不到位的地方,難以挑戰我們在市場上的霸權。

 

圖丨英偉達的AI平台

黃仁勳在也再次強調: “深度學習的迅猛進步暗示著未來還將發生什麼,許多這些進步都依賴於NVIDIA 的深度學習平台,它將很快成為世界的標準。我們正以超越摩爾定律的驚人速度大幅提高我們平台的性能 ,由此帶來的重大突破將改變醫療、交通、科研以及其他無數領域”。 NVIDIA 不只要主導計算領域市場,甚至要帶領半導體產業持續前進。

 

Tensor Core 與平台生態進一步優化,在不改變大架構的前提之下性能巨幅成長

 

除了DGX-2,NVIDIA 也同樣在GTC 2018 中,更加強調Tensor Core 帶來的高效能推理能力,通過新版TensorRT 開發環境整合了TensorFlow 框架,並且擴增了可轉移深度學習模型框架ONNX 的支持,借 此建構超大規模的數據中心。 而通過革命性的 NVswitch 互聯技術,DGX-2 可以在不到兩天的時間內訓練出最先進的神經機器翻譯模型 FAIRSeg,其性能比使用 Volta 的 DGX-1 提高 10 倍。

 

開發者可在基於 NVIDIA 的 GPU 深度學習加速設計,支持包含 Caffe 2、Chainer、CNTK、MXNet 以及 Pytorch 等先進的深度學習框架。 雖然終端和邊緣計算等著重於推理的本地AI 計算越來越普及,但是雲端低延遲的推理需求仍然持續成長,配備Tensor Core 的NVIDIA GPU 加速設計不僅可以滿足這方面的應用,一方面也是為了避免 如FPGA 以及其他基於NPU 或TPU 等強調推理性能表現的雲端加速設計有可乘之機,威脅其市場地位。

 

圖丨通過kubernetes,可以快速的擴展GPU雲服務器的規模,性能可以依比例增加,中間的損耗極小

NVswitch 這個最新的互聯技術是NVIDIA 這些新產品效能得以提升的關鍵,此技術的頻寬比最好的PCLeswitch 要高了不少,研究人員能夠建立更多的GPU 彼此相互連接的系統,幫助突破此前 的系統限制,運行更大量的數據,同樣為處理複雜的數據打開了大門,包括神經網絡並行訓練的建模。

 

NVswitch 延伸了 NVlink(NVIDIA 的一種高性能 GPU 互聯技術)取得的創新,NVswitch 讓開發者們能夠建立更先進的系統,用以基於 NVlink 的 GPU 更靈活的進行拓撲連接。 通過 NVswitch,系統中的 16 個 GPU 將使用統一的存儲空間,開發者可以用深度學習的力量去處理最大的數據集以及建立最複雜的深度學習模型。

 

當然,有了良好的硬件環境,軟件生態也必須兼顧,NVIDIA 大方的把深度學習和 HPC 軟件堆棧更新免費提供給其開發者社區。 該社區目前共有超過 820,000 名註冊用戶,而一年前約為 48 萬。 其更新包括新版本 CUDA, tensorRT,Nccl 和 cuDNN,以及用於機器人的 Issac 軟件開發套件。 此外,通過與領先的雲服務提供者的緊密合作,每個主要的深度學習框架都在不斷優化,以充分利用 NVIDIA 的 GPU 計算平台。

 

Volta 架構繪圖能力和 Pascal 沒有差別,但 Tensor Core 可能成為圖形計算主角

 

從 2017 年推出至今,Volta 架構已經成為 NVIDIA 計算平台中的核心,然而該架構基本上只是針對算力輸出優化的 Pascal,目的是要應對來自機器學習領域中各家新架構的挑戰。 在繪圖能力方面,依照實測數據顯示,Volta 的 CUDA 單元在繪圖性能方面與 Pascal 幾乎一模一樣,而且就算是 12nm 工藝,也無法壓制 5120 個 CUDA 計算單元的熱情。

 

Volta 與 Pascal 除帶寬與互聯技術的優化外,最大的差別在於 Tensor Core 的有無。 前面也提到,NVIDIA 支持了微軟最新提出的光線追踪技術,該技術本身需要大量的矩陣數學計算,而Tensor Core 本身是一種矩陣乘累加的計算單元,剛好光線追踪算法本身即需要龐大的矩陣 計算量。 當然,NVIDIA 還未公佈其光線追踪的實作方式,但是在年初 EmTech 中專訪 Bill Dally 時,就曾透露未來 Tensor Core 將會使用到遊戲環境中。

 

圖丨“Yes, this is one GPU”

而支持微軟的光線追踪技術標準便可能是 Tensor Core 進入繪圖領域的首個技術應用,且不只是遊戲繪圖,專業繪圖也當然同樣兼顧。

 

目前的GPU 繪圖技術基本上都是基於光柵化(Rasterization) 計算方式,也就是把3D 虛擬空間裡面的所有物件剔除所有視角不可見的部分(包含被前方物體遮住的後方物體),這種刪除 不可見部分的技術稱為Z-buffer Culling,通過此技術,可以將立體的虛擬世界壓縮到平面上,也就是我們肉眼所看到的遊戲畫面,然後再依照這個平面來進行打光、貼圖、 渲染等成像步驟。

 

光柵化技術好處是非常節省計算能量以及存儲空間,但缺點是成像的畫面因為缺乏物體與光線的實時互動以及光影和 3D 材質的交互影響作用,看起來比較不真實。 但以光線追踪的方式來形成 3D 圖像,不僅在光線的過渡將更為自然,未來圖形的材質呈現能力也會更逼近真實世界。

 

雖然與遊戲相關的光線追踪技術僅止於前陣子在GDC 上宣布要支持微軟在今年GDC(Game Developers Conference) 上所宣布的DirectX Raytracing(DXR) API,但NVIDIA 自己的DXR 技術則是會搬到 專業繪圖上,也就是Quadro 平台中,其在GTC 2018 上推出的Quadro GV100 上,結合GPU 本身就具備的AI 與物理現像模擬能力,幫助專業3D 製圖企業與遊戲開發商,用更快速的方法來 打造更真實的虛擬世界。

  

NVIDIA 在 GTC 上推出的全新世代 Quadro GV100 支持了以下特性:

 

支持多樣化的 API 實作—

開發者可以通過 NVIDIA OptiX 軟件來輕鬆使用 RTX 光線追踪技術,同時也支持微軟的 DXR API,未來 Vulkan 以及其他開放 API 也會陸續支持,讓存取 NVIDIA GPU 的硬件計算能力更多樣化。

 

真實光線、反射、折射等視覺表現,以及物理特性支持—

GV100 以及 NVIDIA RTX 光線追踪技術可以用非常直覺的方式來達到電影等級的光影特效呈現能力。

 

AI 輔助的圖像渲染能力—

OptiX 軟件可以利用 AI 功能,幫助開發者快速實現圖像去噪功能,同時可利用各種交互接口協助開發者流暢的進行設計。

 

高度彈性的可調整規模性能輸出表現—

製圖所需要的雙精度計算能力,可搭配 NVLink 技術將顯存擴展到 64GB 以上,可更好的進行大型複雜模型以及圖像的渲染成形。

 

可和 VR 接口進行高度合作、互動的設計與創意流程—

Quadro GV100 支持在 VR 環境內實時預覽先前創造出來的模型或虛擬世界,並且可實時進行互動與調整,而虛擬世界中的物體也都能符合相對應的物理原則。

長久耕耘遊戲與 AI 生態的 NVIDIA 自然也了解生態支持的重要,因此推動像 DXR 光線追踪這樣的新技術,自然也需要和業界共同耕耘、發展。

目前此技術已經得到主要的遊戲開發商、圖像設計軟件商的大力支持,預計在不久的將來就可看到非常廣泛的支持應用出現。

 

AMD 及微軟 DirectX 12 的失敗拖累產業發展,但 2018 年遊戲繪圖技術將有機會迎來革新

 

NVIDIA 以 GPU 計算的概念為 AI 產業開了一扇門,而 AI 產業的蓬勃發展也為 NVIDIA 的事業帶來豐厚的回報。 然而AI 議題讓」計算」在過去兩年壓下了」繪圖」,也因此,雖然其GPU 產品不論是在數據中心、汽車產品,甚或是挖礦應用,可說佔據所有人的目光,但是在 繪圖技術方面,這兩年卻幾乎沒有太大成長。

 

圖丨同樣訓練Alexnet,五年前同樣的數據量需要6天,現在的架構只需要18分鐘,快了500倍

以NVIDIA 為例,Pacal 架構發表至今已近兩年,但仍居市場主流不退,不論在遊戲繪圖,或者是專業製圖方面,都還是主力產品,這對過去曾經半年推出一款全心架構的 NVIDIA 而言,幾乎可以說是一種極為怠惰的行為了。

 

不過這也不全是NVIDIA 的問題,微軟早在2015 年發表其最新一代的繪圖API 庫DirectX 12,引入了高度平行化的繪圖計算能力,可大幅降低繪製命令開銷(draw call overhead),強化渲染效率 ,且其計算彈性也更高。 但由於僅有Windows 10 操作系統支持DirectX 12,舊有的Windows 7 無法升級支持,且DirectX 12 遊戲開發需要更高深的編程技巧,而想要挑戰技術極限的遊戲開發者卻僅九牛一毛,也因此, 時至今日,真正採用DirectX 12 開發的原生遊戲仍屈指可數。

 

DirectX 12 的高彈性是以更高的開發成本為代價,要想充分利用 DirectX 12,開發者們需要對自己現有的引擎進行大幅重建和優化,但換回的成果卻是相當有限。 舉例來說: DirectX 12 本身就擁有強大的多 GPU 支援能力,理論上可允許遊戲利用 NVIDIA+AMD 的雙顯卡配置組合,雖然看起來很炫,但實際上不會有人這樣用。

 

以 DirectX 11 的 SLI 或者 Crossfire 雙顯示卡配置文件為例,都是由 NVIDIA 和 AMD 提供的,但 DirectX 12 需要開發者自己完成全部開發工作。 然而最後又有多少玩家能真正受益呢? 所以現在大多數開發者放棄 DirectX 12 可以說是毫無意外。

圖丨英偉達為GPU雲創造了一個框架庫,包含了市場上所有主流的計算框架,並且已經被應用到不同的雲服務廠商當中

NIXXES 公司 CEO Jurjen Katsman 曾說過,DirectX 12 將為 4K 超高畫質的頂配硬件玩家帶來終極體驗,DirectX 12 能夠解決 CPU 的瓶頸限制,同時帶來 GPU 的 10% 效能提升。 然而現在看來,DirectX 12 由於開發環節的門檻極高,讓它帶來的優勢顯得沒有說服力。

 

而因為API 開發難度高,遊戲廠商不願意冒險支持,繪圖芯片廠也就少了改革架構來配合API 發展的動力,NVIDIA 也樂得分心發展GPU 在計算方面的潛力,無心插柳柳成蔭,不僅開創 了AI 計算霸業,也把NVIDIA 的營收與股價推往另一波高峰。

 

另外,傳統繪圖技術競爭對手中,不止AMD 積弱不振,英特爾的內顯亦是毫無進步,因此推動NVIDIA 改朝換代的壓力極小,不過2018 年,AMD 即將推出的新一代GPU 架構可望有較 大的進展,而英特爾與AMD 的合作又恐會侵蝕NB 產品的獨顯市場,因此NVIDIA 今年將把事業發展重心從計算稍微往繪圖偏移,即便幅度可能不會很大,但也足以帶給 業界驚喜了。 更重要的是,AMD 今年積極重返 PC 遊戲繪圖市場,若 NVIDIA 沒有事先預防,那麼 AMD 可能會重演 2017 年 Zen 架構處理器的成功氣勢,一舉奪回市佔。

 

深度學習與遊戲開發的碰撞

 

NVIDIA 首席科學家暨研究部門資深副總裁 Bill Dally 曾在專訪中對 DT 君表示:深度學習和圖形學之間有很大的協同作用,我們的發現是,通過深度學習,我們可以使圖形更好。 然後進行視頻研究,開發圖像抗鋸齒和去噪的新算法,並提供圖像的時間穩定性,這些都是基於深度學習。 因此,通過擁有深厚的學習推理能力,芯片現在實際上在圖形表現方面會比沒有 TensorCore 更好。

 

但其實不僅在計算機圖學方面可以好好的利用深度學習來進行更有效率的渲染工作,即便是遊戲關卡本身的設計,甚至NPC(Non-Player Character) 角色的行動定義,都可以通過深度學習或者 是AI 的自動管理來達成。 想像一下,如果遊戲中的NPC、動物、生態、產業等,配備了支持各種應用模型的AI 思考模塊,那麼我們在遊戲過程中可以對非玩家角色以及環境之間會形成更像真實世界與 真人的互動,而這些AI 模塊可以充分和遊戲劇情演進以及預先設定的人物性格緊密相連,並帶給玩家更加沈浸的遊戲體驗。

 

而本次GTC 上有不少議題圍繞著深度學習與遊戲開發之間的關係,我們都知道,過去幾年來,遊戲在場景設計、人物互動等越做越複雜,規模也越來越龐大,如果 以傳統的遊戲開發方式來做遊戲,那每個互動的場景以及角色應對都必須通過人力編排,這些工作內容包含了台詞、行動或者是其他互動,如果像主流的3A 大作,光是在這些與 劇情相關的安排方面就必須花費非常龐大的人力成本。

 

知名的遊戲大廠UBI 近來也在其遊戲開發環境中引入了AI 輔助功能,雖然初步功能僅止於除錯方面,但未來這類工具將對整體遊戲產業的發展產生更深遠的影響,遊戲開發 流程亦將可有效縮短,並藉此大幅降低開發成本。

 

為免 AMD 鹹魚翻身,NVIDIA 踩線祭出合作夥伴計劃確保市場

 

2018 年 3 月 1 日,Nvidia 發起了一項名為 GeForce 合作夥伴(GeForce Partner Program ,GPP)的計劃。 NVIDIA 稱此計劃是為了保證企業與玩家之間足夠的透明,對於參與其中的製造商和代工廠,可以獲得得Nvidia 的資源支援,遊戲捆綁優惠,銷售回扣,包括全管道的PR 推廣、提早嚐鮮 新技術的機會、得到Nvidia 工程師的支援參與遊戲產品調試等。 另外 GGP 計劃可以隨時加入和退出,沒有強制措施。

 

然而有闆卡廠商對DT 君表示,畢竟NVIDIA 也是經過大風大浪的廠商,即便踩線,也會相當程度的自保,比如說在合約條款中就不會提到排擠對手的字樣描述,也不會 寫明若違反規則將受到怎樣的處罰。 然而即便條文中沒有寫明,但根據過去做過同樣限制,具有市場獨占地位的廠商的作法,基本上都帶有相當大的強制性質,如果不配合,幾乎都會受到減少供貨,甚至斷貨 的懲罰。

 

也因此,根據其所知,目前主要的闆卡廠商幾乎都已經加入該計劃,而配合的產品品牌,比如說華碩的ROG 系列,微星的Gaming 系列,以及技嘉的Gaming 系列,基本上就不會 出現NVIDIA 的競爭對手,也就是AMD 的產品。

 

不過 NVIDIA 還是保留了一點空間給對手,只要不是掛廠商與 NVIDIA 合作的產品品牌,就不在此限制的範圍。

 

以NVIDIA 在PC 獨立繪圖芯片市場將近7 成的市佔地位,此舉可以說踩在壟斷的邊緣模糊地帶,是相當危險的舉動,過去英特爾就曾因為類似的舉動而被貿易組織裁罰,面臨 高額罰金不說,同時也判賠AMD 不少金額。

 

但為明知風險何仍堅持祭出這個作法,DT 君認為,以過去NVIDIA 和AMD 的知己知彼程度,顯然NVIDIA 已經預期AMD 今年稍晚即將推出的新產品可能造成一定的威脅,而NVIDIA 過去分心計算 市場,在繪圖領域沒有太多著墨,也給了AMD 一定的存活空間,為維持市場優勢,避免AMD 推出真正殺手級產品來個鹹魚翻身,先行通過市場操作,不讓對手乘虛而入,另外 也將盡快補上新架構,避免給對手可乘之機。

 

當然,這些市場策略看起來並不是那麼光明正大,但回顧半導體產業歷史,當一家企業的產品在市場上具有絕對優勢時,要確保其市場地位,除了本身技術要持續革新以外,在市場營銷策略上 多多少少都會採用排他的作法,其實過去英特爾幹過類似的事情,arm 亦曾採取類似的策略,NVIDIA 在GPU 繪圖市場雖有接近壟斷的地位,但其實其寶座並不特別穩固,畢竟AMD 雖然 營銷策略一向失敗,但其繪圖技術公認不下於NVIDIA,只要產品規劃得當,對NVIDIA 仍是相當大的威脅。

 

-End-

 

未經允許不得轉載:頭條楓林網 » 全球最大GPU“猛獸出籠”! 挖礦顯卡缺席黃仁勳的“星戰”GTC ,英偉達重新定義圖形與計算丨現場