中國阿里巴巴推出新款Qwen 3人工智慧模型,超越Meta。
抽象的:
- 中國科技巨頭阿里巴巴發布了一系列開源的Qwen 3人工智慧模型。該系列包含八個新模型。
- 領先的模型 Qwen3-235B-A22B MoE 使用 235 億個參數進行訓練,其中 22 億個參數被激活。
- 較小的模型 Qwen3-30B-A3B MoE 只有 3 億個活躍參數,但其性能卻比 GPT-4o 大得多。
中國科技巨頭阿里巴巴在其Qwen 3系列下發布了八款全新的開源人工智慧(AI)模型。這些新模型包括兩款混合專家(MoE)模型:Qwen3-235B-A22B和Qwen3-30B-A3B。其中,Qwen3-235B-A22B是規模最大、功能最強大的旗艦機型,擁有2,350億個參數和220億個有效參數。

Qwen3-30B-A3B 是一款規模較小的 MoE 模型,總參數量為 3 億,其中 30 億為有效參數。此外,Qwen 3 系列還包含六款密集模型,分別是 Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B 和 Qwen3-0.6B。這些全新的阿里巴巴 Qwen 3 AI 模式進一步鞏固了公司在人工智慧領域的地位。
隆重介紹 Qwen3!
我們發布並開源了最新的大型語言模型 Qwen3,其中包括 2 個 MoE 模型和 6 個密集模型,模型規模從 0.6B 到 235B 不等。我們的旗艦模型 Qwen3-235B-A22B 在編碼、數學、通用等基準測試中取得了極具競爭力的結果。 pic.twitter.com/JWZkJeHWhC
— Qwen (@Alibaba_Qwen) 2025 年 4 月 28 日
所有 Qwen 3 模型均支援混合思維模式,這意味著它們既可以作為推理型 AI 模型,也可以作為傳統的大型語言模型 (LLM) 使用。在「思考」模式下,模型可以逐步推理;而在「非思考」模式下,模型則能快速回應。這項特性增強了模型在各種應用上的靈活性。
此外, 支持 Qwen 3 模型支援來自世界各地超過 119 種語言和方言,是目前支援語言最多的模型之一。此外,阿里巴巴還增強了 Qwen 3 模型的模型上下文協議 (MCP) 支持,從而釋放了 Plus 的智能體功能。這項改進使模型能夠更好地理解上下文並做出更聰明的決策。
就性能而言,最大的型號 Qwen3-235B-A22B 提供了與預期相符的具有競爭力的結果。 深尋R1 Grok 3 Beta 和 雙子座2.5專業版 還有 OpenAI 的 o1 模型。我發現有趣的是,參數量較小的 Qwen3-30B-A3B 模型(僅有 3 億個有效參數)的表現卻優於 DeepSeek V3 和 OpenAI 的 GPT-4o 模型。這表明該模型具有很高的資源利用效率,並且能夠在較小的模型規模下實現卓越的性能。
阿里巴巴表示,Qwen 3 模型在程式設計、數學、科學和綜合能力方面均表現出色。總體而言,Qwen 3 代表了中國先進且功能強大的 AI 模型系列。隨著 DeepSeek R2 的即將發布,中國已具備與西方 AI 實驗室競爭的實力。這項進展反映了中國在人工智慧領域的快速發展。
評論被關閉。