字節(jié)跳動(dòng)旗下的豆包大模型近期宣布了在技術(shù)領(lǐng)域的顯著進(jìn)步,特別是在通用語(yǔ)言、視頻生成、語(yǔ)音對(duì)話及視覺(jué)理解等方面,已經(jīng)成功躋身國(guó)際前沿梯隊(duì)。這一成就,是在豆包大模型自今年5月15日首次亮相后的短短七個(gè)月內(nèi)取得的。
據(jù)悉,截至2024年底,豆包大模型推出了最新版本Doubao-pro-1215,該版本在綜合能力上相較于5月時(shí)提升了32%,并已全面與GPT-4o對(duì)齊。尤其在處理數(shù)學(xué)問(wèn)題和專業(yè)知識(shí)等復(fù)雜場(chǎng)景時(shí),Doubao-pro-1215的表現(xiàn)甚至優(yōu)于GPT-4o。更為引人注目的是,Doubao-pro-1215的推理服務(wù)價(jià)格僅為GPT-4o的八分之一,這無(wú)疑為其在市場(chǎng)上的競(jìng)爭(zhēng)力增添了重要砝碼。
豆包大模型在技術(shù)上的突破,得益于其在模型稀疏度提升、強(qiáng)化學(xué)習(xí)引入等方面的海量數(shù)據(jù)優(yōu)化及模型架構(gòu)創(chuàng)新。這些努力使得Doubao-pro-1215在理解精度和生成質(zhì)量上實(shí)現(xiàn)了大幅提升,為用戶帶來(lái)了更加準(zhǔn)確和流暢的體驗(yàn)。
豆包大模型還首次展示了其300萬(wàn)字窗口的長(zhǎng)文本處理能力。這一能力使得豆包能夠一次性輕松閱讀上百篇學(xué)術(shù)報(bào)告,且每百萬(wàn)tokens的處理延遲僅為15秒。這一成就的背后,是STRING等上下文關(guān)聯(lián)數(shù)據(jù)算法的應(yīng)用,以及稀疏化及分布式方案的實(shí)施,它們共同提升了LLM利用海量外部知識(shí)的能力,并將時(shí)延降至了十秒級(jí)。