[新聞] NVIDIA黃仁勳在GTC CHINA 2019說了些甚

作者: ynlin1996 (Kennylin)   2019-12-20 21:05:31
NVIDIA黃仁勳在GTC CHINA 2019說了些甚麼?
http://bit.ly/34Fgh2H
2019 年 12 月 18 日,AI圖形處理器大廠輝達 (Nvidia) 一年一度GTC CHINA論壇,執行長黃仁勳的主題演講更是精彩,除發表Nvidia新產品外,還可從演講中分享他對AI 領域的未來發展提出自己獨到見解與預測。
隨著5G推出及演算法的演進,眾多AI軟硬體解決方案不斷推出,未來誰將主導市場仍然未可知。
專為機器人推出全新版本Isaac軟件開發套件(SDK)
全新版本Isaac軟件開發套件(SDK),為機器人提供更新的AI感知和仿真功能。包括:Isaac Robotics Engine(提供應用程序框架),Isaac GEM(預先構建的深度神經網絡模型、算法、庫、驅動程序和API),用於室內物流的參考應用程序以及Isaac Sim的第一個版本(提供導航功能)。新版本導入了使用Isaac Sim訓練機器人,並將所生成的軟體部署到真實機器人中。這有望大大加快機器人的開發速度,從而實現綜合數據的訓練。
推出六款RTX的新進展
輝達去年(2018)發布了RTX新一代GPU架構Turing(圖靈),以及一系列基於圖靈架構的RTX GPU。黃仁勳表示圖靈架構被視為輝達十多年來在計算機圖形領域最重要的創新,將光線追踪技術引入輝達的GPU中。目前已有多款遊戲機支持RTX。這次論壇,也推出六款RTX。目前,輝達已經賣出15億塊GPU圖形加速器以相同的CUDA架構。
輝達還推出了Max-Q設計,對超高的GPU效能和總體系統進行優化,可以用於輕薄的高性能筆記本電腦。
推出START雲遊戲服務。隨著雲計算的普及,雲遊戲也將越來越普及。黃仁勳在GTC China 2019宣布,輝達與騰訊遊戲合作推出START雲遊戲服務,該服務已從今年(2019)初開始進入測試階段。START使遊戲玩家可以隨時隨地,即使是在配置不足的設備上也能玩3A級遊戲。
推出Orin 瞄準自動駕駛汽車和機器人
Orin是輝達花費4年時間投入數十億美元打造,性能比最新一代Xavier提升7倍,算力最高可達200TOPS。Orin是一種SoC系統級晶片由170億個電晶體(transistors)組成,整合輝達新一代GPU架構和Arm Hercules CPU內核以及全新深度學習和計算機視覺加速器,每秒可運行200萬億次計算(200TOPS),幾乎是輝達上一代Xavier系統級晶片性能的7倍。Orin計劃2022年投產。預計應用於自動駕駛汽車和機器人中同時運行的大量應用和深度神經網絡,符合ISO 26262 ASIL-D等系統安全標準。
DRIVE AGX Orin作為一個軟體定義平台,支援從L2級到L5級完全自動駕駛汽車開發的兼容架構平台,將成為OEM開發大型複雜的軟體產品的最佳工具。Nvidia宣稱Orin和Xavier均可相容於開放碼的CUDA、TensorRT API及各類庫進行編程,因此開發者能夠在一次性投資後使用跨多代的產品。
目前,滴滴將與輝達一起使用Orin共同推進自動駕駛和雲計算領域的發展和合作,從選擇輝達DRIVE作為他們的L4級的AV平台和雲計算平台,採用輝達的AI技術應用在它們的滴滴自動駕駛車輛當中,並且也支持“滴滴雲”。
轉移學習和聯邦學習協助業者降低AI門檻
面對自動駕駛安全議題,其實,早前輝達的DRIVE結構就AI導入數據中心中“端到端平台”。也就是說,真正技術在道路上使用之前,首先是要在數據中心進行驗證。同時,先第一步就是海量的數據收集工作。在有人駕駛的車輛上,需要安裝很多的感測器,包括攝像頭及雷達以達到收集大量的數據,以協助汽車廠商已經可以構建和部署具有功能安全性、並符合諸如ISO 26262等國際安全標準的自動駕駛乘用車和卡車。
遷移學習使NVIDIA DRIVE使用者能夠借助NVIDIA在自駕車開發領域的大力投入,加速開發感知軟體,並基於各自的應用和目標進一步開發這些網路。
聯邦學習最主要的功能就是能夠保證數據隱私不被侵犯。按照官方說法,無論是醫院、實驗室、汽車公司,大家都可以去開發並且訓練這些神經網絡,數據還可以保存在本地。或可以把一些訓練和處理後的結果上傳到雲端伺服器上,促進公司之間的合作,包括各品牌之間的合作、各地區之間的合作等等,而它能夠保證數據隱私不被侵犯。
輝達宣稱,更重要的是,這些工具讓汽車客戶能夠去針對他們自己的車型來定制化自己的軟體開發。
GPU替換CPU,成本僅1/10,性能提升百倍
輝達已推出AI平台可應用於訓練、雲端、終端、自動駕駛。輝達Telsa v100 GPU,利用這些TB級的數據集去創建一個模型、在GPU上訓練這些數據,然後把它放到GPU的記憶體當中去訓練TB級別的數據,GPU訓練成本只有CPU的十分之一,並且支援更大規模的模型訓練。黃仁勳也表示GPU不是要替代CPU,而是AI負載一個更好的選擇。
推出TensorRT 7B軟體優化是實現會話式AI的關鍵
根據黃仁勳的數據,GPU+Arm的硬體,加上CUDA以及TensorFlow的優化,Arm進行深度學習的性能是x86處理器性能的96%。2018年輝達發布了計算圖優化編譯器TensorRT5,通過優化PyTorch和TensorFlow等框架中訓練出來的AI模型,減少計算和內潤訪問,讓模型在GPU上運行的效率大幅提升。
今年GTC China 2019上宣布推出TensorRT 7,它支持各種類型的RNN、Transformer和CNN。TensorRT 7能夠融合水平和垂直方向的運算,可以為開發者設計的大量RNN配置自動生成代碼,逐步融合LSTM單元,甚至可跨多個時間融合。相比TensorRT5只支持30種變換,TensorRT 7能支持1000多種不同的計算變換和優化。
若要實現會話式AI,首先需要把語音轉化為文字,然後藉由AI語音算法模型獲得需要的語音,並理解其含義,再將回應合成為語音進行回覆。對話式AI需要可編程性、豐富的軟體堆疊以及低GPU延遲。若以TensorRT 7,可在300毫秒(0.3秒)內完成複雜的工作。
作者: allenxxx (fufuxxx)   2019-12-20 21:24:00
很明顯他說英文,美帝的語言
作者: outzumin (阿呆銘)   2019-12-21 05:58:00
幹我笑了

Links booklink

Contact Us: admin [ a t ] ucptt.com