多模態大型語言模型(MLLM)通過在大型語言模型(LLM)中集成視覺編碼器,在多模態任務中取得了有希望的結果。然而,大型模型的大小和廣泛的訓練數據帶來了顯著的計算挑戰。例如,LLaVA-NeXT的最大版本使用了Qwen-1.5-110B,并且使用128個H800 GPU訓練了18小時。
北京第二十六維信息技術有限公司(至頂網)版權所有. 京ICP備15039648號-7 京ICP證161336號京公網安備 11010802021500號
舉報電話:010-62641205-5060 涉未成年人舉報專線:010-62641208 舉報郵箱:jubao@zhiding.cn
網上有害信息舉報專區:https://www.12377.cn