免费观看黄色视频wwww,日本午夜成人电影免费观看,欧美一级a在线作爱免费观看,黄色视频免费在线观看,亚洲美女av免费观看,日韩毛片在线3p,亚洲黄色在线免费观看

?
當(dāng)前位置:首頁 > 娛樂

Intel新顯卡賣爆!24GB大顯存也在路上 AI玩家都來搶了

著實有點Amazing啊。新顯

這兩天GPU圈子發(fā)生了個事兒,賣爆被網(wǎng)友們討論地津津樂道——有一款顯卡賣爆了。大顯都搶

Intel新顯卡賣爆!24GB大顯存也在路上 AI玩家都來搶了

火到什么程度呢?存也就是一進貨就被搶光。

GPU供不應(yīng)求其實已經(jīng)司空見慣了,新顯但之所以這次能被熱議起來,賣爆是大顯都搶因為這款產(chǎn)品背后的廠家。

不是存也你以為的NVIDIA、AMD,新顯而是賣爆……Intel。

為什么會如此?大顯都搶

從玩家們的討論中不難得出答案——性價比夠高,2000元價位就能在2K畫質(zhì)下暢玩3A游戲。存也

The 新顯Verge也非常“直給”地給予了一句評價:

Intel終于在GPU上拿下了一次勝利。

而這款顯卡,賣爆正是大顯都搶Intel不久前發(fā)布的第二代銳炫B580,售價僅2049元起。

要知道,NVIDIA 299美元的RTX 4060和AMD 269美元的RX 7600,僅配備了8GB的VRAM。

但I(xiàn)ntel的銳炫B580不僅價格比它們低,還配備了12GB的VRAM和192bit的顯存位寬。

即使是價格更低的銳炫B570(219美元,下個月上市)也配備了10GB的VRAM。

除此之外,還有一個更有意思的事情。

雖然銳炫是游戲顯卡,但畢竟是GPU啊,于是……也有一部分人買來開始搞AI了。而這,可能會讓它未來的銷售再增三分熱度。

這不,有人在Reddit上就分享了怎么在銳炫B580上搞AI畫圖Comfy UI了:

不僅是個人用戶的嘗鮮,我們還打聽到有些企業(yè)已經(jīng)著手把Intel的顯卡塞進包括工作站和服務(wù)器在內(nèi)的商用計算設(shè)備中了,具體搭配的“食譜”就是:Intel至強系列CPU+銳炫顯卡。

不過暫時用的還是Intel上一代的A770,作為上一代的旗艦型號,A770有著16G大顯存,用在AI推理上,也算游刃有余。

據(jù)可靠的消息,如此組合最為搶眼的優(yōu)勢,同樣是“性價比”三字。

而由此引發(fā)的,更值得討論的一個話題應(yīng)當(dāng)是:

消費級顯卡搞AI,到底行不行?

首先可以看出來,無論個人還是企業(yè),買Intel消費級顯卡來搞AI,基本都是來做AI推理的。

實際上,推理算力需求正在飛速增長,大有超過訓(xùn)練算力需求之勢。

一方面,隨著行業(yè)熱議的“預(yù)訓(xùn)練Scaling Law撞墻”了,像OpenAI o1/o3系列模型也開始依靠增加推理算力提高模型能力。

另一方面,AI應(yīng)用落地的爆發(fā)也使得推理需求大幅增長,這些需求往往不強求算力的溢出甚至極致,即所謂硬需求不高,而是更加注重實現(xiàn)夠用的性能(包括并發(fā)度和時延),以及與之同步的易獲取、易部署、易使用和成本上是否夠?qū)嵒荨?/p>

那么做AI推理為什么選擇Intel游戲顯卡?

正如前面分析,性價比肯定是一大考慮因素。

從硬件方面講,即使是頂級的算力卡,單卡做AI推理在面對高并發(fā)等場景時,顯存也會成為瓶頸,但升級到四卡、八卡成本又會飆升。此時,Intel A770這種2000元價位就有16G大顯存的型號,就成了兼顧性能與成本之選。

從應(yīng)用方面講,很多場景其實對每秒token生成速度要求并不高,特別是有流式傳輸?shù)葍?yōu)化手段,只要first token latency到位了,后面生成速度滿足一定要求,體驗就很好。

這是我們拿到的4張Intel銳炫A770顯卡跑Qwen2.5 32B模型的演示Demo,來感受一下這個速度,是不是足夠了?

看到這里可能有人要問了,用Intel顯卡跑AI,CUDA的問題怎么解決?

拿最流行的大模型推理框架之一vLLM來說,得益于開源軟件的發(fā)展,其早已實現(xiàn)了高級別的抽象和封裝,其實換用哪種硬件,用起來都沒差太多。

再加上Intel自己提供的開源oneAPI,就能做到很低的遷移成本。

可能還有人要問了,那為什么不選專用AI推理加速器,比如風(fēng)頭正盛的Groq、Sambanova這些?

這就要說到,多模態(tài)交互是現(xiàn)在AI應(yīng)用的一大趨勢,無論是與AI視頻對話、數(shù)字人,還是直播、短視頻場景的一些應(yīng)用,都同時會用到視頻解碼或圖形渲染能力,這就非得是通用GPU不可。

專用加速器雖然在特定任務(wù)上有優(yōu)勢,但在處理多樣化需求時,通用GPU更具靈活性。

所以總結(jié)來看,用Intel顯卡搞AI推理,算力夠用,大顯存還有,可行性就有了,性價比也有了,對于現(xiàn)有業(yè)務(wù)來說,遷移成本更是理想。

后面能拿下多大市場,會不會成為一個趨勢,就拭目以待了。

Intel的曲線突圍

Intel消費級顯卡被企業(yè)拿去搞AI推理了,Intel自己是什么態(tài)度?

那肯定是樂見其成的,而且相當(dāng)重視。

其實,Intel在兩年前剛推出銳炫系列時就采取與友商不同的策略,許可證方面明確不限制數(shù)據(jù)中心使用

為了方便大家用好AI,Intel的軟件團隊一直沒閑著,除了更新oneAPI,還在持續(xù)推出和更新一系列開源工具,吸粉不斷。

例如加速庫IPEX-LLM,可用于大模型的推理和微調(diào),在GitHub上已經(jīng)有6.8k star。

以及低比特量化工具neural-compressor,也獲得2.3k star。

從IPEX-LLM也可以看出Intel對中國市場的重視,針對中國主流的開源大模型ChatGLM、Qwen、MiniCPM等都提供了適配,中文文檔和教程也做的比較完善。

為了方便大家選擇模型,Intel還在HuggingFace上維護了一個低比特量化模型的排行榜,設(shè)置好條件,就可以一鍵比較并篩選出自己需要的模型。

其中性能排名靠前的,不乏Intel自己動手量化的開源社區(qū)優(yōu)秀模型。

這么看下來,Intel為AI開源社區(qū)做的眾多貢獻(xiàn),給企業(yè)和開發(fā)者提供了便利,也是現(xiàn)在大家愿意嘗試Intel顯卡的原因之一。

最后,我們還打聽到一個內(nèi)幕消息:

Intel看到AI推理這個市場需求逐漸擴大后,在后續(xù)產(chǎn)品策略上也有所調(diào)整。

2025年,Intel準(zhǔn)備推出Battlemage系列顯卡的更大顯存版本,其容量將增至24G。

以后就是現(xiàn)有版本繼續(xù)服務(wù)于游戲等消費級市場,24G的更大顯存版本瞄準(zhǔn)“生產(chǎn)力市場”。

“生產(chǎn)力市場”的目標(biāo)用戶涵蓋了數(shù)據(jù)中心、邊緣機房、教育科研和個人開發(fā)者等。

擁有更大顯存的Intel顯卡,不僅可在AI推理需求上,也能在渲染和視頻編解碼應(yīng)用上做到比專業(yè)圖形卡、工作站顯卡性價比更高。

還真別說,“從游戲人間轉(zhuǎn)向打工賺錢”+“算力夠用、顯存保大”,很有可能會成為IntelGPU突圍的一招妙棋。

參考鏈接:

[1]https://www.reddit.com/r/pcgaming/comments/1hh2dvn/intel_finally_notches_a_gpu_win_confirms_銳炫_b580/

[2]https://www.techspot.com/news/105810-intel-launches-new-銳炫-battlemage-b580-b570-gaming.html

[3]videocardz.com/newz/intel-will-not-prohibit-gaming-銳炫-gpu-use-in-data-centers

[4] https://github.com/intel-analytics/ipex-llm

[5] https://github.com/intel/neural-compressor[6] https://huggingface.co/spaces/Intel/low_bit_open_llm_leaderboard

分享到:
?