Databricks 與 Palantir 簽署合作協(xié)議,開發(fā)出更優(yōu)的大語言模型微調(diào)方法,并與 Anthropic 達(dá)成為期五年的戰(zhàn)略聯(lián)盟,將 Claude 大語言模型整合到其數(shù)據(jù)湖平臺(tái)中。此次合作將為企業(yè)客戶提供更強(qiáng)大的 AI 能力,包括軍工級(jí)安全性、高效的模型訓(xùn)練以及全面的數(shù)據(jù)治理,助力企業(yè)打造專屬 AI 應(yīng)用。
開源軟件巨頭 Red Hat 發(fā)布一系列新功能,加強(qiáng)其平臺(tái)作為企業(yè) AI 系統(tǒng)基礎(chǔ)的地位。通過改進(jìn) Red Hat AI 套件,包括 Red Hat Enterprise Linux AI 和 OpenShift AI,提供更高效的 AI 訓(xùn)練和推理能力,簡(jiǎn)化混合云環(huán)境下的部署體驗(yàn),并確保企業(yè)數(shù)據(jù)的安全訪問和整合。
本文探討了是否真正需要追求通用人工智能(AGI)的問題。文章提出了幾個(gè)觀點(diǎn):AGI可能過于復(fù)雜且成本高昂;現(xiàn)有AI技術(shù)已經(jīng)足夠強(qiáng)大,我們更需要關(guān)注如何整合和應(yīng)用;AGI可能帶來意想不到的風(fēng)險(xiǎn)。作者認(rèn)為,目前我們應(yīng)該專注于充分利用現(xiàn)有AI能力,而不是盲目追求AGI。
DeepSeek發(fā)布了改進(jìn)版DeepSeek-V3大語言模型,采用MIT開源許可證。新版本在編程能力上有所提升,可在高端Mac Studio上運(yùn)行。模型具有671億參數(shù),但只激活約37億參數(shù),提高了效率。這一更新標(biāo)志著DeepSeek在開源AI領(lǐng)域的重要進(jìn)展,為開發(fā)者提供了更多靈活性和應(yīng)用可能。
在北京參加中國(guó)發(fā)展高層論壇期間,蘋果 CEO Tim Cook 對(duì)中國(guó)自主研發(fā)的 AI 聊天機(jī)器人 DeepSeek 給予高度評(píng)價(jià)。DeepSeek 迅速登頂 App Store 榜首,其性能表現(xiàn)可與全球頂尖模型相媲美。Cook 此行還關(guān)注了教育科技應(yīng)用、清潔能源等多個(gè)領(lǐng)域,展現(xiàn)了蘋果對(duì)中國(guó)市場(chǎng)的持續(xù)重視。
OpenAI 發(fā)布三款全新專有語音模型,包括 gpt-4o-transcribe、gpt-4o-mini-transcribe 和 gpt-4o-mini-tts。這些模型基于 GPT-4o 開發(fā),提供更準(zhǔn)確的轉(zhuǎn)錄和語音合成能力,支持 100 多種語言,可通過 API 集成到第三方應(yīng)用中。新模型在英語轉(zhuǎn)錄準(zhǔn)確率方面表現(xiàn)出色,錯(cuò)誤率僅為 2.46%,并支持語音定制和情感表達(dá)。
LexisNexis 在開發(fā)其 AI 法律助手 Protégé 時(shí),采用了創(chuàng)新的多模型方案。通過精簡(jiǎn)大語言模型并結(jié)合小型模型,他們成功打造出一款能夠適應(yīng)律所工作流程、支持法律文件撰寫和校對(duì)的智能助手。這種方案不僅提高了響應(yīng)速度,還降低了運(yùn)營(yíng)成本,展現(xiàn)了 AI 在法律科技領(lǐng)域的實(shí)用價(jià)值。
法國(guó)初創(chuàng)公司 Mistral AI 發(fā)布開源 AI 模型 Mistral Small 3.1,僅需 240 億參數(shù)即可處理文本和圖像,性能超越 OpenAI 和 Google 同類產(chǎn)品。該模型體積小、功能強(qiáng)大,可在普通硬件上運(yùn)行,有望讓 AI 技術(shù)更加普及。Mistral AI 專注于算法優(yōu)化而非簡(jiǎn)單增加計(jì)算資源,其開源策略也助力加速 AI 創(chuàng)新。
Cohere 推出新型大語言模型 Command A,具有高性能且硬件需求低。該模型性能超越 GPT-4o 和 DeepSeek-V3,僅需兩塊 GPU 即可運(yùn)行。它擁有更大的上下文窗口,處理速度更快,專為企業(yè)級(jí) AI 代理設(shè)計(jì),可與 Cohere 的安全 AI 代理平臺(tái) North 無縫集成,幫助企業(yè)用戶充分發(fā)揮公司數(shù)據(jù)潛力。
專家鏈(CoE)是一種新型大語言模型框架,通過順序激活專門化的模型元素來提高資源效率和推理任務(wù)準(zhǔn)確性。與傳統(tǒng)方法相比,CoE允許專家元素相互傳遞中間結(jié)果,逐步建立推理鏈,從而在推理密集型應(yīng)用中實(shí)現(xiàn)更高效的計(jì)算和更好的用戶體驗(yàn),同時(shí)大幅降低企業(yè)運(yùn)行大型語言模型的成本。
生成式 AI 模型需要大量真實(shí)數(shù)據(jù)訓(xùn)練,但互聯(lián)網(wǎng)上的內(nèi)容仍不足以應(yīng)對(duì)所有情況。為繼續(xù)發(fā)展,這些模型需要使用模擬或合成數(shù)據(jù)進(jìn)行訓(xùn)練。專家指出,AI 開發(fā)者必須負(fù)責(zé)任地使用合成數(shù)據(jù),否則可能會(huì)迅速出現(xiàn)問題。合成數(shù)據(jù)可以教導(dǎo)模型應(yīng)對(duì)現(xiàn)有數(shù)據(jù)中不存在的場(chǎng)景,但關(guān)鍵是要確保這些數(shù)據(jù)可靠且符合現(xiàn)實(shí)。
微軟公司據(jù)報(bào)道已開發(fā)出一系列大型語言模型,可與 OpenAI 和 Anthropic 的算法相媲美。這個(gè)名為 MAI 的 LLM 系列可能使用了微軟內(nèi)部開發(fā)的 AI 芯片 Maia 100。測(cè)試結(jié)果顯示,MAI 在性能上具有競(jìng)爭(zhēng)力,可能用于支持微軟的 Copilot AI 助手系列。此舉或?qū)p少微軟對(duì) OpenAI 的依賴,同時(shí)公司也在開發(fā)專注于推理任務(wù)的第二個(gè) LLM 系列。
阿里巴巴旗下的 Qwen 團(tuán)隊(duì)推出了 QwQ-32B,這是一款擁有 320 億參數(shù)的推理模型,旨在通過強(qiáng)化學(xué)習(xí)提升復(fù)雜問題解決任務(wù)的表現(xiàn)。該模型在 Hugging Face 和 ModelScope 上以開源權(quán)重形式發(fā)布,適用于商業(yè)和研究用途,企業(yè)可以立即將其應(yīng)用于產(chǎn)品和應(yīng)用程序中。
谷歌今天推出了兩項(xiàng)新的人工智能功能,旨在幫助用戶更快速地找到信息。第一項(xiàng)是增強(qiáng)版的 AI 概述功能,該功能在標(biāo)準(zhǔn)搜索結(jié)果上方顯示自然語言響應(yīng)。谷歌將這一功能切換到最新的 Gemini 2.0 大型語言模型系列。該系列的最強(qiáng)算法 Gemini 2.0 Pro 支持多達(dá) 200 萬個(gè)標(biāo)記的提示,能夠更好地理解復(fù)雜查詢、生成代碼并進(jìn)行推理。AI 概述功能預(yù)計(jì)將為美國(guó)用戶提供更準(zhǔn)確的響應(yīng)。
中國(guó)人工智能實(shí)驗(yàn)室深度思考發(fā)布了其所謂的推理模型DeepSeek-R1的開放版本,聲稱在某些人工智能基準(zhǔn)測(cè)試中表現(xiàn)與OpenAI的o1相當(dāng)。R1在AI開發(fā)平臺(tái)Hugging Face上以MIT許可證提供,意味著可以在商業(yè)上無限制使用。深度思考表示,R1在AIME、MATH-500和SWE-bench Verified基準(zhǔn)測(cè)試中超越了o1。AIME使用其他模型來評(píng)估模型的性能,而MATH-500是一個(gè)包含文字問題的集合。SWE-bench Verified則專注于編程任務(wù)。
領(lǐng)先的 AI 公司正在采用"蒸餾"技術(shù),以創(chuàng)造更便宜、更易采用的 AI 模型。這種技術(shù)在 DeepSeek 成功應(yīng)用后引起廣泛關(guān)注,引發(fā)了硅谷 AI 領(lǐng)導(dǎo)地位的動(dòng)搖。蒸餾技術(shù)通過將大型語言模型的知識(shí)轉(zhuǎn)移到小型模型中,實(shí)現(xiàn)了高效且經(jīng)濟(jì)的 AI 應(yīng)用。這一突破為初創(chuàng)公司和開發(fā)者提供了更多機(jī)會(huì),同時(shí)也對(duì)現(xiàn)有 AI 公司的商業(yè)模式構(gòu)成了挑戰(zhàn)。
OpenAI推出的GPT-4.5企業(yè)版引發(fā)了爭(zhēng)議,其高昂價(jià)格讓許多人質(zhì)疑其性價(jià)比。然而,作為OpenAI最大且最強(qiáng)大的非推理模型,GPT-4.5在知識(shí)儲(chǔ)備、文檔處理、任務(wù)規(guī)劃等方面表現(xiàn)出色。盡管成本高昂,但隨著推理成本的下降和未來潛在的強(qiáng)化學(xué)習(xí)訓(xùn)練,GPT-4.5仍有望成為企業(yè)應(yīng)用的有力工具。
OpenAI 發(fā)布 ChatGPT 4.5 預(yù)覽版,承諾對(duì)話更自然、情感智能更強(qiáng)、知識(shí)面更廣。新模型能更好理解語境和細(xì)微差別,創(chuàng)造力和協(xié)作能力提升,幻覺現(xiàn)象減少。這一升級(jí)體現(xiàn)了 AI 向著匹敵甚至超越人類能力的目標(biāo)邁進(jìn),為未來更強(qiáng)大的 GPT-5 奠定基礎(chǔ)。
騰訊推出新AI模型"混元Turbo S",定位為"快思考模型",旨在與DeepSeek-R1等"慢思考模型"競(jìng)爭(zhēng)。該模型通過提高輸出速度和減少首字延遲,實(shí)現(xiàn)近乎"即時(shí)回復(fù)"。混元Turbo S融合了直覺式短思考鏈和理性推理長(zhǎng)思考鏈,在數(shù)學(xué)、推理和知識(shí)等方面表現(xiàn)可比肩主流AI模型。騰訊采用混合Mamba-Transformer架構(gòu),提高效率并降低成本,有望成為未來基礎(chǔ)模型的核心。
OpenAI 今日推出最新最大的 AI 語言模型 GPT-4.5。該模型將首先向 ChatGPT Pro 用戶提供研究預(yù)覽。雖然 OpenAI 稱其為"最具知識(shí)性的模型",但也警告 GPT-4.5 并非前沿模型,可能無法超越 o1 或 o3-mini 的表現(xiàn)。GPT-4.5 在寫作、知識(shí)儲(chǔ)備和個(gè)性方面有所提升,但不會(huì)引入足夠的新功能被視為前沿模型。