ソフトウェア

Claude Sonnet 4に匹敵するコーディング特化のオープンモデル「Qwen3-Coder」をAlibabaが発表


Alibabaの大規模言語モデル「Qwen」の研究チームが、コーディングに特化したエージェントモデル「Qwen3-Coder」を発表しました。パラメータ数4800億・アクティブパラメータ数350億のモデル「Qwen3-Coder-480B-A35B-Instruct」は、Claude Sonnet 4に匹敵する最先端の結果を達成しています。

Qwen3-Coder: Agentic Coding in the World | Qwen
https://qwenlm.github.io/blog/qwen3-coder/


GitHub - QwenLM/Qwen3-Coder: Qwen3-Coder is the code version of Qwen3, the large language model series developed by Qwen team, Alibaba Cloud.
https://github.com/QwenLM/Qwen3-Coder

Qwen3-Coderの大きな特徴は、ネイティブで256Kトークンという広大なコンテキスト長をサポートするだけでなく、「YaRN(Yet another RoPE-based scaling method)」という拡張技術を用いることで最大100万トークンまで対応可能である点です。これにより、リポジトリ全体を理解するような大規模なタスクにも対応できます。また、C++、Java、Python、Ruby、Swift、ABAPなどを含む358もの多様なプログラミング言語をサポート。加えて、ベースモデルから一般的な能力と数学的能力を維持しつつ、コーディングに特化しているとのこと。

さらに、その能力を最大限に引き出すため、エージェントコーディング用のコマンドラインツール「Qwen Code」も同時にオープンソース化されています。このQwen CodeはGemini Codeをフォークして開発されています。


性能面では、Qwen3-Coderは、オープンソースモデルの中でエージェントコーディング、エージェントによるブラウザ操作、そしてエージェントによるツール使用といった分野で新たな最高水準の記録を樹立したとAlibabaは強調しています。ソフトウェアエンジニアリングのタスクを評価するSWE-Bench Verifiedにおいて、Qwen3-CoderはCloud Sonnet 4よりも小さいモデルサイズでほぼ同等のスコアを記録しています。


Alibabaによると、事前学習の段階では7兆5000億トークンという膨大なデータが使用され、その70%がコードで構成されているとのこと。また、Qwen2.5-Coderを活用してノイズの多いデータをクリーンアップして書き換えることで、データ全体の品質を大幅に向上させたそうです。

事後学習では、2つの重要な強化学習(RL)が大規模に導入されました。まず、多様な実世界のコーディングタスクに対してコード強化学習(Code RL)を適用し、コード実行の成功率を大幅に向上させています。さらに、SWE-Benchのような複数ターンにわたる対話を必要とするタスクに対応するため、長期的な視野での強化学習が導入されました。この実現にはAlibaba Cloudのインフラが活用されており、およそ2万種類の独立した環境を並列で実行できるような拡張性の高いシステムが構築されています。


Qwen3-Coderは複数のモデルがあるとのことですが、記事作成時点では「Qwen3-Coder-480B-A35B-Instruct」がHugging FaceおよびModelScopeで入手可能。また、推論の効率化に貢献するFP8で量子化されたモデル「Qwen3-Coder-480B-A35B-Instruct-FP8」もHugging FaceおよびModelScopeで提供されています。さらに、Alibaba Cloud Model Studioを介してQwen3-CoderのAPIに直接アクセス可能です。

この記事のタイトルとURLをコピーする

・関連記事
GPT-4.1超えの中国製AIモデル「Kimi K2」が無料公開される、複数のテストでGPT-4.1やClaude 4 Opusを打ち負かしエージェントタスクもこなす - GIGAZINE

GPT-4oやo1より高性能な推論モデル「Qwen3」をAlibabaが発表、フラグシップモデルの「Qwen3-235B-A22B」はパラメーター数2350億&アクティブパラメーター数220億 - GIGAZINE

Manus AIがAlibaba「Qwen」開発チームと戦略的パートナーシップを締結、さらに創造的なAIエージェント開発へ協力 - GIGAZINE

AIコーディングツールは生産性を19%も低下させているという調査結果、AI出力の評価・手直し・再出力などで無駄な時間が大量発生か - GIGAZINE

最先端の大規模言語モデル(LLM)が難解なコーディング問題を1発で正解する確率はゼロ%、競技プログラマーなどの熟練スキルを持つ人間には依然として歯が立たないことが明らかに - GIGAZINE

・関連コンテンツ

in ソフトウェア, Posted by log1i_yk

You can read the machine translated English article Alibaba announces 'Qwen3-Coder', an open….