通义千问オープンソースQwen3.6-27B、27B密度モデルのエンコード能力は前世代の397Bフラッグシップを超える

据 动察 Beating 監測,阿里通義千問チームは Qwen3.6-27B をオープンソース化しました。これは 270 億パラメータの密なマルチモーダルモデルで、主にエージェントのコーディング能力を重視しています。これは API 版 Qwen3.6-Plus と小規模な MoE 版 Qwen3.6-35B-A3B に続く、Qwen3.6 シリーズの第三のメンバーであり、重みは Hugging Face と ModelScope で公開されています。

コアの売りは、27B の密なアーキテクチャを用いて、前世代のオープンソースフラッグシップである Qwen3.5-397B-A17B(397B 総パラメータ、17B 活性化された MoE モデル)を全面的に超えている点です。コーディングエージェントのベンチマークでは、SWE-bench Verified 77.2 対 76.2、SWE-bench Pro 53.5 対 50.9、Terminal-Bench 2.0 59.3 対 52.5、SkillsBench 48.2 対 30.0 となっています。推論タスクでは GPQA Diamond スコア 87.8 で、パラメータ数が数倍のモデルに近づいています。ビジュアルエージェントの面では AndroidWorld スコア 70.3 で、Qwen3.5-27B の 64.2 より高いです。

モデルは画像と動画入力をネイティブにサポートし、思考モードと非思考モードは同じ重みセットを共有します。密なアーキテクチャは MoE ルーティングを含まず、397B MoE よりも展開が簡単です。公式ドキュメントによると、OpenClaw、Claude Code、Qwen Code の三つのエンドエンコーディングツールに直接接続可能です。API は阿里雲の百炼プラットフォームで公開予定です。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン