亞馬遜云服務宣布雷尼爾項目正式投入運營,該AI超級集群配備近50萬塊Trainium2芯片,分布在多個數據中心。AWS稱這是全球最大的AI計算集群之一,從宣布到全面運營僅用不到一年時間。合作伙伴Anthropic計劃年底前擴展到超過100萬塊芯片。該項目與OpenAI星門計劃展開激烈競爭,AWS憑借自主硬件開發優勢能夠控制從芯片到數據中心的完整技術棧。
臺灣新唐科技發布NuMicro M55M1微控制器,集成Arm Cortex M55處理器和Arm Ethos U55神經處理單元,可在低功耗環境下處理語音觸發、姿態識別、手勢識別和視覺任務,無需云端連接。該芯片運行頻率220MHz,支持本地機器學習推理,適用于智能玩具、門鈴等簡單AI應用場景,為嵌入式設備提供離線AI能力。
韓國AI芯片初創公司FuriosaAI本周獲得重大客戶突破,LG AI研究部門選擇其AI加速器為搭載Exaone大語言模型的服務器提供算力支持。與主流GPU相比,RNGD推理加速器雖然性能指標看似平庸,但憑借僅180瓦的功耗實現了出色的能效比,在LLM推理任務中比GPU節能2.25倍。該芯片采用張量收縮處理器架構,大幅減少矩陣運算指令和數據移動。LG現計劃向企業客戶提供基于RNGD的服務器解決方案。
美國對18個關鍵盟友與合作伙伴的芯片銷售無任何限制。除此之外的大多數國家則將面臨總算力限制,每個國家在2025年至2027年期間最多可獲得約50000個AI GPU。美國還將免除集體算力較低的芯片銷售許可,例如向大學和研究機構的銷售。
雖然每個季度在企業AI芯片支出中Nvidia要占有高達數百億美元的份額,但仍有許多公司和投資者認為AI基礎設施市場還有空間留給其他贏家,無論是邊緣芯片還是數據中心芯片領域。
英特爾美國渠道負責人Michael Green表示,當英特爾的Gaudi 3加速器芯片成為“2025年渠道可用的產品”時,渠道合作伙伴將在推出該芯片的過程中發揮“巨大作用”。
此前,光刻機領域的領軍企業ASML公布的業績不及預期,引發了市場對于全球芯片制造業[產能過剩]的擔憂,并進一步對人工智能需求增長的真實性和可持續性產生了質疑。然而,臺積電隨后發布的三季度財報及隨后的電話會議,顯著提振了半導體行業的信心,為美股資本市場帶來了積極信號,猶如一劑[強心針]。
AI芯片通常采用GPU和ASIC架構。GPU因其在運算和并行任務處理上的優勢成為AI計算中的關鍵組件,它的算力和顯存、帶寬決定了GPU的運算能力。GPU的核心可分為CudaCore、Tensor Core等;Tensor Core是增強AI計算的核心,相較于并行計算表現卓越的Cuda Core,它更專注于深度學習領域,通過優化矩陣運算來加速AI深度學習的訓練和推理任務
在當下的AI競爭格局下,沒什么能比一場AI濃度爆表的大會,更能快速彰顯自身實力了,AMD的這場「Advancing AI大會」,就是印證。
不少解決方案提供商看好AWS投入巨資打造專門針對AWS基礎設施優化芯片的計劃,該計劃將使合作伙伴在AI市場競爭中占據優勢,因為電力成本更低,供應鏈優勢更大。
因此,英特爾在Computex簡報會上公布了產品的定價與基準測試性能,以期展示Gaudi 3與當前“Hopper”H100 GPU的直接比較結果。
曾幾何時,或者說就在短短幾年之前,數據中心芯片市場還是個資金門檻極高但卻相對簡單的市場。CPU戰團主要有英特爾、AMD和Arm,GPU陣營則是英偉達、AMD和英特爾等廠商的舞臺。盡管AI初創公司數量可觀,但普遍并未在數據中心領域建立起真正的話語權。
英特爾將推出兩款專供中國市場的Gaudi 3 AI加速器,根據美國出臺的制裁政策對性能做出大幅“閹割”。
Precedence Research近期發布的報告也顯示,預計到2032年,涵蓋CPU、GPU、ASIC以及FPGA等類型的AI芯片市場規模將從2023年的約219億美元大幅增長至2274.8億美元。
盡管AI芯片種類繁多,GPU因其適應性和強大的并行計算能力,仍是AI模型訓練的主流硬件。英偉達在GPU領域的技術積累和生態建設使其處于領先地位,而國內GPU廠商雖在追趕,但仍存在差距。AI應用向云、邊、端全維度發展,模型小型化技術成熟,數據傳輸需求增加,Chiplet技術降低設計復雜度和成本。
Nvidia在2023年投資者會議上展示了其GPU發展藍圖,計劃在2024年推出H200和B100 GPU,2025年推出X100 GPU。其AI芯片更新周期從兩年一次縮短至一年一次,體現產品開發速度加快。Nvidia的“One Architecture”統一架構支持不同環境下的模型訓練和部署,適用于數據中心和邊緣計算。同時,Nvidia的技術路線圖包括HBM3E高速存儲器、PCIE 6.0/7.0、NVLink、224G SerDes、1.6T接口等先進技術。
HBM技術通過提升I/O口數量和速率,突破內存限制,成為AI芯片的強大輔助。HBM3和HBM3e將成為AI服務器主流配置,預計HBM4將于2026年發布。全球HBM市場預計在2024年超百億美元。HBM采用TSV+Bumping和TCB鍵合方式,但散熱效率低下,海力士引入MR-MUF工藝改善。預計HBM4將采用混合鍵合Hybrid Bonding技術,3D封裝的核心是混合鍵合與TSV。
今天Nvidia公布了第四季度財務業績,結果再次超出華爾街預期,使其股價在盤后交易中走高。