NVIDIAが中国製AIの出力を元に追加学習した高性能AIモデル「Llama Nemotron Super 49B v1.5」をリリース、比較的小規模ながら高い性能を発揮

NVIDIAが自社でトレーニングした推論モデル「Llama Nemotron Super 49B v1.5」を公開しました。Llama Nemotron Super 49B v1.5は中国製AIモデルの「Qwen3 235B」と「DeepSeek R1 671B 0528」の出力をもとに追加学習が行われており、49B(490億)という比較的少ないパラメーター数ながら高い性能を備えていることを特徴としています。
Build More Accurate and Efficient AI Agents with the New NVIDIA Llama Nemotron Super v1.5 | NVIDIA Technical Blog
https://developer.nvidia.com/blog/build-more-accurate-and-efficient-ai-agents-with-the-new-nvidia-llama-nemotron-super-v1-5/
Llama Nemotron Super 49B v1.5はLLaMAシリーズのモデルに対して追加学習を施して高度な推論機能などを追加したモデルです。追加学習には、Qwen3 235BとDeepSeek R1 671B 0528を用いて生成した2600万行超えのデータセットが用いられています。データセットには「関数呼び出し」「命令の追跡」「推論」「チャット」「数学」「コードデータ」といった情報が含まれています。
以下のグラフは「Llama Nemotron Super 49B v1.5」「Qwen3-32B」「Llama Nemotron Ultra 253B v1」「Llama Nemotron Super 49B v1」の各種ベンチマークスコアを並べたものです。Llama Nemotron Super 49B v1.5は前世代モデルやQwen3-32Bを超える性能を示しているほか、より大規模なモデルであるLlama Nemotron Ultra 253B v1のスコアをほとんどのテストで上回っています。

AIの性能比較サイトであるArtificial AnalysisもLlama Nemotron Super 49B v1.5の性能検証結果を公開しています。Artificial Analysisの分析結果によると、Llama Nemotron Super 49B v1.5は「QWen3 235B」「KimiK2」「Magistral Small」といったオープンモデルよりも高い性能を示したとのこと。

以下のグラフは縦軸がAIモデルの性能、横軸がパラメーター数を示しています。Llama Nemotron Super 49B v1.5が小規模かつ高性能なモデルであることが分かります。

Llama Nemotron Super 49B v1.5は以下のリンク先で公開されています。また、追加学習に使われたデータセットも数週間以内に公開される予定です。
nvidia/Llama-3_3-Nemotron-Super-49B-v1_5 · Hugging Face
https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5

・関連記事
NVIDIAがオープンモデル「Nemotron-4 340B」を発表、LLMトレーニング用合成データの生成に革命を起こすか - GIGAZINE
NVIDIAが推論AIを低コスト・高効率で稼働するための高速化ライブラリ「NVIDIA Dynamo」を公開、DeepSeek-R1を30倍に高速化可能とアピール - GIGAZINE
DeepSeekよりも安価に高性能のAIを使用できるオープンソースモデル「GLM-4.5」を中国のAI企業がリリース - GIGAZINE
RTX 5090をAI処理向けに魔改造する中国業者の存在が明るみに、禁輸品のはずのRTX 5090を大量入手しGPUを取り出して専用ボードに移植 - GIGAZINE
自分のグラボでAIを動かせるかVRAM容量を基準にサクッと計算できるウェブアプリ - GIGAZINE
・関連コンテンツ
in ソフトウェア, Posted by log1o_hf
You can read the machine translated English article NVIDIA releases 'Llama Nemotron Super 49….