大模型的研發和運行確實需要大規模的資源和資金支持,非小規模團隊能夠輕易承擔。這一點在當前的人工智能領域尤為明顯。以GPT4-o為例,其訓練涉及了文本、視覺和音頻等多種數據模態,這意味著它需要處理和分析的數據量是巨大的。據OpenAI透露,GPT-4o在訓練過程中使用了多達13兆的數據,這比之前的一些大型模型如LLAMA和PaLM使用的數據量還要多。此外,GPT-4o的模型參數數量也非常龐大,達到了1.8萬億。
北京第二十六維信息技術有限公司(至頂網)版權所有. 京ICP備15039648號-7 京ICP證161336號京公網安備 11010802021500號
舉報電話:010-62641205-5060 涉未成年人舉報專線:010-62641208 舉報郵箱:jubao@zhiding.cn
網上有害信息舉報專區:https://www.12377.cn