XR混合現實火了一段迅速涼下來,區塊鏈火了一段迅速涼下來,元宇宙火了一段也迅速涼下來。
混合現實、區塊鏈、元宇宙之所以如此“跌宕起伏”,主要是因為它們固然前景美好,但現階段更多停留在美好的概念上,理想豐滿,但現實骨感。
無論是技術角度,還是市場應用角度,它們都還缺乏足夠的根基,并不能真正給人們的日常工作、生活、娛樂帶來顛覆性的體驗,新鮮感一過自然乏人問津。
(資料圖)
現在,AI人工智能大火,甚至更勝以往,它會重蹈覆轍嗎?
答案簡而言之:不會,只是需要時間。
圖源:Pixabay
事實上,任何一項技術的普及,都離不開兩個核心點:一是足夠強大的硬件產品做基礎,二是足夠豐富的生態做支撐。AI當然也是如此。
AI技術其實并不新鮮,早已有之,之所以如今被引爆,正是多年來的行業耕耘到了開花結果的時刻,無論硬件還是生態都頗具雛形,這也是它和混合現實、元宇宙概念最大的不同。
在硬件方面,豐富、強大的AI加速器、CPU處理器、GPU加速器都可以高效率地搞定各種AI推理、訓練負載。
在應用方面,就更加數不勝數了,唯一限制的可能只有我們的想象力。
當然,這并不是說AI已經完美,還需要做的工作太多太多,尤其是和普通消費者關系最密切的日常工作、生活、娛樂,都大有可為,整個行業也都在全力推進AI的普及。
比如說PC,很多人覺得它老了,落后時代了,但在AI時代,老樹也可以開新花,一個全新的“AI PC”時代正在徐徐到來。
作為PC最核心的靈魂,CPU處理器也在積極跟上AI的時代步伐,比如AMD的銳龍7040系列,就是全球首款集成獨立AI引擎的x86處理器,為實時AI體驗提供強大的性能。
多年后回顧歷史,這很可能是標志性的一刻。
我們知道,CPU之所以被叫做“通用處理器”,就在于它強大的適應性,幾乎任何工作都可以勝任。
但畢竟術業有專攻,對于一些特定工作,還是專用硬件更加高效,而將它們集成在處理器內部,就是最為完美的解決方案,兼顧高效、高性能、低成本等優勢。
AMD銳龍7040系列處理器集成了AMD乃至整個x86移動行業迄今最先進的技術,包括4nm制造工藝、Zen 4 CPU架構、RDNA 3 GPU架構,以及全球首發的獨立AI單元——Ryzen AI引擎。
Ryzen AI引擎基于專門設計的XDNA AI架構,由多個獨立的AIE單元組成,還有獨立的內存電壓單元、內存控制器單元、高速互連通道。
它脫離了對云側算力的依賴,可以直接在本地無延遲、高效率地靈活處理不同的AI神經網絡,包括CNN(卷積神經網絡)、RNN(循環神經網絡)、LSTM(時間遞歸神經網絡)等,并支持INT8、16、32、BF16等各種數據類型,還具備實時多任務能力,可處理最多4條并發空間流。
Ryzen AI引擎的峰值算力可以達到10TOPS(每秒10萬億次計算),可以輕松應對日常的AI推理負載設計,而且能效遠超CPU、GPU。
還有非常關鍵的一點,那就是將AI工作負載從云端轉移到本地硬件之后,可以大大降低延遲,也不再需要排隊從而加快處理速度,還有助于將敏感數據排除在云端之外,確保用戶隱私安全。
Ryzen AI引擎的這種高性能、高效率,最終會在視頻協作、內容創作、生產力、游戲和防護方面,為用戶帶來更豐富的實時AI體驗。
硬件有了,要想充分發揮效力,軟件開發支持更是關鍵。
為了便于開發者以最高效率利用Ryzen AI引擎,AMD提供了獨特的一體化AMD AI堆棧,可以綜合利用CPU處理器、XDNA引擎的算力與能力,支持ONNX、TensorFlow、PyTorch等多種模型,OS系統廠商、OEM廠商、ISV獨立軟件開發商、個人開發者都可以自由使用。
作為整體AI方向的一部分,AMD正在向Windows開發者提供Ryzen AI軟件的早期訪問權限,方便其在銳龍7040系列處理器上運行AI工作負載。
值得一提的是,AMD使用了開源AI框架Vitis AI Execution Provider(EP),它在ONNX Runtime中支持Microsoft Olive,并提供卓越的CPU支持,包括無縫和逐步提升Ryzen AI引擎加速,可以根據工作負載的特性,自動決定是在CPU上還是在Ryzen AI引擎上調度工作負載。
Ryzen AI軟件平臺將在今年晚些時候全面推出,為開發人員提供將AI融入現有應用、開發全新AI應用的所需工具,并發布更多的工具鏈、庫、指南,以簡化AI開發。
說一千道一萬,技術最終是要為用戶體驗服務的,只有落地到實際場景中才有價值。
PC平臺上的AI還處于初期起步階段,從硬件到技術再到應用都剛邁出第一步,AMD勇敢地走在了最前列。
目前,x86處理器中集成專門AI處理模塊的,只有銳龍7040H/HS系列。基于AMD銳龍7040系列處理器的筆記本產品越來越豐富,游戲本、輕薄本、設計本、辦公本等等應有盡有,無論你有什么需求,無論想要超高性能,還是超高性價比,總能找到合適的。
英特爾這邊要等到下一代處理器,也就是第14代酷睿可能才會有類似的設計。
另外,根據目前的信息,下一個版本的Windows(很可能命名為Windows 12)將專注于AI體驗,深度集成人工智能功能,包括分析當前信息,根據上下文提供APP快速啟動選項,識別圖像中的對象和文本等等。
但此類的AI功能將需要像Ryzen AI這樣的專用硬件支持才能運行。可以說AMD在專用AI引擎這方面的先發優勢,是無法比擬的。
這里我們就以雷蛇的靈刃14來簡單感受一下Ryzen AI帶來的變化。
靈刃自進入筆記本市場以來,一直追求極致和性能,這臺靈刃14就是典型代表,更是14英寸游戲本的標桿。
靈刃14配備了一顆頂級的AMD銳龍9 7940HS處理器,8核16線程,主頻最高,性能釋放最高達75W,同時搭配RTX 4070顯卡,4608個CUDA核心,性能釋放可達140W。
它還有14英寸超窄邊屏幕,2560×1600高分辨率,240Hz高刷新率,1100:1高對比度,500nits高亮度,100% sRGB/100% DCI-P3廣色域。
其他方面,雙通道DDR5-5600 16GB內存、三星PM9A1 1TB PCIe SSD、高通Wi-Fi 6E無線網卡、雙USB4接口、大電池和100W PD快充,應有見有。
14英寸的它只有不到18毫米厚度、公斤重量,如此輕薄卻能釋放比很多游戲本都強悍的性能,銳龍9 7940HS對比上代銳龍9 6900HS單核性能提升16%,多核性能提升29%,140W滿血的RTX 4070則可以在2K分辨率下讓所有3A游戲超過60FPS。
更關鍵的是,雙風扇、超大VC液冷均熱板、液態金屬導熱硅脂相配合,可以讓滿功耗釋放的銳龍9 7940HS、RTX 4070的溫度分別控制在不超過97℃、84℃。
雷蛇靈刃14 2023的售價為16GB、1TB 22999元,32GB、1TB 23999元。
購買鏈接:京東(22999元)
考慮到操作系統支持是一切的根基,AMD選擇了與微軟聯合,將Ryzen AI引擎的能力直接集成在Windows 11系統中,最典型的就是對于攝像頭的使用。
在雷蛇靈刃14筆記本上,我們進入系統設置的攝像頭部分,或者直接打開相機應用,就可以看到三種不同的相機效果,而在沒有Ryzen AI等獨立AI引擎的電腦上是看不到這些功能的。
它們都可以利用Ryzen AI引擎進行加速,對于經常參加視頻會議的上班族來說非常實用。
一是自動取景,攝像頭會自動將用戶納入拍攝范圍內并進行對焦。
比如當你從近距離居中目視攝像頭,轉向遠處偏轉一定角度,攝像頭就會自動跟隨你的移動,讓你盡可能處在畫面居中且對焦的位置。
二是眼神接觸,即使你正在看屏幕上的內容或者其他地方,沒有盯著攝像頭,也可以進行目視接觸,就像你正在進行視頻通話。
三是背景模糊,分為兩種級別,一是標準模糊,背景會被重度模糊根本看不清,二是縱向模糊,背景會被輕度模糊以使用戶始終處于對焦狀態。
三種相機效果是可以結合使用的,可以任意開啟其中一個或者多個。
標準模糊效果
標準模糊+自動取景+眼神交流
你可能會說了,這些技術都不算很新鮮,尤其是背景模糊,很多視頻會軟件也能做到。
但是,這三種效果都需要進行即時運算,不能有任何明顯的延遲和卡頓,傳統上使用CPU處理器的話會相當占用資源,特別是對于筆記本來說很容易影響續航,而且有時候識別處理容易不到位,比如不該模糊的地方反而被模糊了。
交給專業的AI引擎之后,就可以將CPU資源釋放出來,減輕其壓力,有利于延長續航,而且利用AI的特性,可以讓效果更精準。
以上只是Ryzen AI引擎的一個簡單應用實例,未來它還會在更多領域大展拳腳,包括內容與生產力創作、工作助手、生活助手、視覺計算與游戲等等。
有了AI,以往需要復雜人工操作、耗時耗力、需要各種腦力思考和強大CPU/GPU算力才能完成的工作,談笑之間就能輕松搞定,不但解放手中的設備,還能解放人的大腦,將更多精力放在創意與思考上。
這,就是科技進步最大的意義。
對于AMD來說,銳龍7040系列處理器上的Ryzen AI引擎,只是其全方位AI戰略的一部分,也是一個全新AI PC時代的開端。
再加上行業領先的AMD EPYC數據中心高性能處理器、Instinct HPC/AI加速器、Xilinx AI計算加速器,AMD已經擁有了業界獨一無二的、完整的AI產品線,可以滿足任何AI應用負載的需求。
正如AMD CEO蘇姿豐博士所說,AI,是未來十年最重要的事情。
標簽:
新聞排行
圖文播報
科普信息網 - 科普類網站
聯系郵箱:920 891 263@qq.com 備案號: 京ICP備2022016840號-87
版權所有:科普信息網 www.www44bkbkcom.cn copyright © 2018 - 2020
科普信息網版權所有 本站點信息未經允許不得復制或鏡像,違者將被追究法律責任!