大模型時代,底層邏輯發生了很大的變化。系統的成本幾乎和客戶使用量成線性關系,邊際成本依然很高。這里的成本絕大部分都是推理的算力消耗。
這個模型一般的GPU肯定是跑不起來,如此大的參數在部署方面個人開發者也負擔不起(如果你有一些H100也沒問題),估計是給企業、政務公共部門用的。對于Meta即將發布的模型,就有網友潑冷水。相比OpenAI最新的GPT-4o mini版本,Llama 3.1-70B推理成本提升了3倍,但編碼的性能卻要差很多。
Numina一路披荊斬棘、過關斬將,在50道超難的數學競賽題中,其AI模型回答對了29道比第二名多出7道順利拿下第一名。