在編程模型領(lǐng)域,阿里巴巴Qwen團(tuán)隊(duì)近日宣布了一項(xiàng)重大進(jìn)展,正式開(kāi)源了其最新旗艦產(chǎn)品——Qwen3-Coder-480B-A35B-Instruct編程模型。這一動(dòng)作標(biāo)志著阿里巴巴在人工智能編程領(lǐng)域邁出了堅(jiān)實(shí)的一步。
據(jù)Qwen團(tuán)隊(duì)介紹,Qwen3-Coder是他們目前最為強(qiáng)大的開(kāi)源智能體編程模型,擁有4800億個(gè)參數(shù),其中激活參數(shù)達(dá)到350億。該模型原生支持256K的上下文長(zhǎng)度,并且能夠通過(guò)外推技術(shù),將上下文擴(kuò)展至驚人的100萬(wàn)輸入,最大輸出則可達(dá)6.5萬(wàn)個(gè)token。這一性能的提升,無(wú)疑為程序員們提供了更為廣闊的操作空間和更高的編程效率。
在基準(zhǔn)測(cè)試中,Qwen3-Coder展現(xiàn)出了卓越的性能,特別是在AgenticCoding(智能體編程)、AgenticBrowser-Use(智能體瀏覽器使用)和AgenticTool-Use(智能體工具調(diào)用)這三類(lèi)任務(wù)中,其表現(xiàn)均優(yōu)于眾多開(kāi)源模型,如Kimi K2和DeepSeekV3等。更令人矚目的是,Qwen3-Coder的表現(xiàn)甚至超越了部分閉源模型,如GPT-4.1,與以編程能力著稱的ClaudeSonnet4模型相比也毫不遜色。
Qwen3-Coder還將推出多種尺寸供用戶選擇,而此次開(kāi)源的是其最為強(qiáng)大的變體。雖然其參數(shù)量超過(guò)了阿里巴巴旗艦?zāi)P蚎wen3的2350億,但仍小于Kimi K2的1萬(wàn)億。不過(guò),這并不影響Qwen3-Coder在編程領(lǐng)域的強(qiáng)大表現(xiàn)。據(jù)阿里巴巴官方介紹,借助Qwen3-Coder,即使是剛?cè)胄械某绦騿T也能在一天內(nèi)完成資深程序員一周的工作,生成一個(gè)品牌官網(wǎng)最快只需5分鐘。
除了Qwen3-Coder模型本身,Qwen團(tuán)隊(duì)還開(kāi)源了一個(gè)基于GeminiCode分叉而來(lái)的智能體編程命令行工具——QwenCode。這一工具經(jīng)過(guò)定制提示和函數(shù)調(diào)用協(xié)議的適配,能夠充分發(fā)揮Qwen3-Coder在智能體編程任務(wù)上的能力,進(jìn)一步提升編程效率和便捷性。
目前,Qwen3-Coder模型已在阿里云旗下的大模型服務(wù)平臺(tái)百煉上線,其API采用階梯計(jì)費(fèi)方式,根據(jù)輸入token量調(diào)整價(jià)格。在256K-1M這一檔,輸入價(jià)格為6美元/百萬(wàn)token,輸出價(jià)格則為60美元/百萬(wàn)token。相比之下,ClaudeSonnet4的輸入輸出價(jià)格分別為3美元/百萬(wàn)token和15美元/百萬(wàn)token,與Qwen3-Coder的128k-256k一檔價(jià)格相同。這一價(jià)格策略為用戶提供了更多的選擇空間,也進(jìn)一步推動(dòng)了人工智能編程模型的普及和應(yīng)用。