<!DOCTYPE html>
<html lang="zh-CN">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>Nemotron 3 Super:英伟达的效率革命,首个LatentMoE+NVFP4开源巨模型深度解析</title>
<link rel="preconnect" href="https://fonts.googleapis.com">
<link rel="preconnect" href="https://fonts.gstatic.com" crossorigin>
<link href="https://fonts.googleapis.com/css2?family=Noto+Sans+SC:wght@400;600;700&family=Noto+Serif+SC:wght@400;600&family=Source+Code+Pro:wght@400;600&display=swap" rel="stylesheet">
<script src="https://cdn.jsdelivr.net/npm/chart.js"></script>
<style>
:root {
--primary-color: #0D6EFD;
--text-color: #212529;
--bg-color: #FFFFFF;
--border-color: #dee2e6;
--code-bg-color: #f1f3f5;
--quote-bg-color: #f8f9fa;
--subtle-text-color: #6c757d;
}
html {
scroll-behavior: smooth;
}
body {
font-family: 'Noto Serif SC', serif;
font-size: 16px;
line-height: 1.8;
color: var(--text-color);
background-color: var(--bg-color);
margin: 0;
padding: 0;
-webkit-font-smoothing: antialiased;
-moz-osx-font-smoothing: grayscale;
}
.container {
max-width: 840px;
margin: 2.5em auto;
padding: 40px 60px;
background-color: var(--bg-color);
box-shadow: 0 4px 12px rgba(0, 0, 0, 0.08);
border-radius: 8px;
}
h1, h2, h3, h4, h5, h6 {
font-family: 'Noto Sans SC', 'Noto Serif SC', sans-serif;
font-weight: 700;
line-height: 1.4;
color: var(--text-color);
}
h1 {
font-size: 28px;
text-align: center;
margin-top: 24px;
margin-bottom: 20px;
}
h2 {
font-size: 22px;
margin-top: 2.8em;
margin-bottom: 1.5em;
padding-bottom: 0.4em;
border-bottom: 1px solid var(--border-color);
display: flex;
align-items: center;
}
h2::before {
content: '';
display: inline-block;
width: 14px;
height: 14px;
background-color: var(--primary-color);
border-radius: 50%;
margin-right: 14px;
flex-shrink: 0;
}
h3 {
font-size: 20px;
margin-top: 2.2em;
margin-bottom: 1.2em;
}
h4 {
font-size: 18px;
margin-top: 1.8em;
margin-bottom: 1em;
}
p {
margin-bottom: 1.2em;
}
strong, b {
font-weight: 600;
color: var(--text-color);
}
a {
color: var(--primary-color);
text-decoration: none;
transition: color 0.2s ease, text-decoration 0.2s ease;
}
a:hover {
color: #0a58ca;
text-decoration: underline;
}
ul, ol {
padding-left: 1.8em;
margin-bottom: 1.2em;
}
li {
margin-bottom: 0.6em;
}
blockquote {
margin: 1.5em 0;
padding: 1em 1.5em;
border-left: 5px solid var(--primary-color);
background-color: var(--quote-bg-color);
color: #495057;
border-radius: 0 4px 4px 0;
}
blockquote p {
margin-bottom: 0;
}
hr {
border: 0;
height: 2px;
background-color: var(--primary-color);
margin: 3em 0;
opacity: 0.3;
}
table {
width: 100%;
border-collapse: collapse;
margin: 1.5em 0;
font-size: 0.95em;
}
th, td {
padding: 12px 15px;
text-align: left;
border-bottom: 1px solid var(--border-color);
}
thead {
border-bottom: 2px solid var(--primary-color);
}
th {
font-family: 'Noto Sans SC', sans-serif;
font-weight: 600;
}
tbody tr:hover {
background-color: #f1f3f5;
}
code {
font-family: 'Source Code Pro', monospace;
background-color: var(--code-bg-color);
padding: 0.2em 0.4em;
border-radius: 4px;
font-size: 0.9em;
color: #d6336c;
}
pre {
background-color: var(--code-bg-color);
padding: 1em;
border-radius: 6px;
overflow-x: auto;
font-size: 0.9em;
line-height: 1.6;
}
pre code {
background-color: transparent;
padding: 0;
border-radius: 0;
color: var(--text-color);
}
.toc {
background-color: var(--quote-bg-color);
border: 1px solid #e9ecef;
border-radius: 8px;
padding: 1.5em 2em;
margin-bottom: 2.5em;
}
.toc-title {
font-family: 'Noto Sans SC', sans-serif;
font-weight: 700;
font-size: 1.2em;
margin-top: 0;
margin-bottom: 1em;
color: var(--text-color);
}
.toc ul {
padding-left: 0;
list-style-type: none;
}
.toc .toc-level-2 {
counter-reset: h2-counter;
}
.toc .toc-level-2 > li {
margin-bottom: 0.8em;
counter-increment: h2-counter;
color: var(--primary-color);
}
.toc .toc-level-2 > li::before {
content: counter(h2-counter, cjk-ideographic) "、 ";
font-weight: 700;
font-family: 'Noto Sans SC', sans-serif;
margin-right: 0.5em;
}
.toc .toc-level-3 {
margin-top: 0.6em;
padding-left: 2.5em;
}
.toc .toc-level-3 li {
font-size: 0.95em;
margin-bottom: 0.5em;
list-style-type: disc;
}
.toc a {
color: var(--primary-color);
}
.feature-list {
background-color: #f8f9fa;
border-left: 3px solid #0D6EFD;
padding: 20px 20px 20px 40px;
border-radius: 4px;
margin: 1.5em 0;
}
.generated-chart {
margin: 2em 0;
border: 1px solid #dee2e6;
padding: 1.5em;
border-radius: 8px;
background: #fff;
}
.generated-chart canvas {
max-height: 400px;
}
figcaption {
text-align: center;
margin-top: 1.2em;
font-size: 0.9em;
color: #6c757d;
}
</style>
</head>
<body>
<div class="container">
<h1>Nemotron 3 Super:英伟达的效率革命,首个LatentMoE+NVFP4开源巨模型深度解析</h1>
<nav class="toc">
<h3 class="toc-title">目录</h3>
<ul class="toc-level-2">
<li><a href="#h2-1">引言:效率与精度的新范式</a></li>
<li><a href="#h2-2">架构概览:混合Mamba-Transformer MoE设计</a></li>
<li><a href="#h2-3">创新点一:LatentMoE——压缩潜空间,四倍专家并行</a></li>
<li><a href="#h2-4">创新点二:多Token预测(MTP)——一次看多步,推理加速与质量兼得</a></li>
<li><a href="#h2-5">创新点三:原生NVFP4预训练——4-bit精度下的稳定训练与超凡效率</a></li>
<li><a href="#h2-6">预训练数据与规模:25万亿Token的巨额训练</a></li>
<li><a href="#h2-7">后训练:SFT与多环境强化学习的加持</a></li>
<li><a href="#h2-8">性能评估:精度与效率的双重验证</a></li>
<li><a href="#h2-9">开放性与影响:开源巨模型的新标杆</a></li>
<li><a href="#h2-10">结论:效率优先,开源巨模型新篇章</a></li>
</ul>
</nav>
<h2 id="h2-1">引言:效率与精度的新范式</h2>
<p>英伟达(NVIDIA)近日发布了Nemotron 3 Super,一款1200亿参数(120B)的混合专家(Mixture-of-Experts, MoE)模型,仅激活120亿参数(12B)即可运行【8†source】。这不仅是参数规模的简单堆叠,而是首个将<strong>效率</strong>与<strong>准确率</strong>通过架构创新深度融合的“缝合怪”式强者。Nemotron 3 Super在保证顶尖精度的同时,实现了前所未有的推理效率,标志着开源大模型进入“效率优先”的新阶段【4†source】。本文将深度解析其技术报告,揭开其如何在效率与精度之间玩出花来的奥秘。</p>
<h2 id="h2-2">架构概览:混合Mamba-Transformer MoE设计</h2>
<p>Nemotron 3 Super的架构是其效率与精度兼得的核心。它采用了<strong>混合Mamba-Transformer MoE</strong>的设计,将三种计算层交替组合,各司其职【3†source】:</p>
<div class="feature-list">
<ul>
<li><strong>Mamba-2层</strong>:承担主要的序列处理任务。Mamba属于状态空间模型(SSM),具有线性时间复杂度,使模型在处理长序列时内存占用和计算开销更低【3†source】。这意味着即使上下文窗口扩展到100万Token,模型依然能保持可管理的内存足迹,而不至于因“上下文爆炸”而崩溃【3†source】。</li>
<li><strong>Transformer注意力层</strong>:在关键深度处穿插,用于保证精确的<strong>全局关联检索</strong>能力【3†source】。纯SSM模型在需要从海量信息中精准定位“针”时可能力不从心,而注意力机制确保了即使“针”隐藏在信息的“大海”中,模型也能高保真地检索到【3†source】。这保证了模型在长上下文中对细节的把握,不会因为序列增长而丢失关键信息。</li>
<li><strong>MoE层</strong>:通过<strong>混合专家</strong>机制大幅扩展模型的有效参数量,却无需付出稠密模型那样高昂的计算代价【3†source】。每次推理时,只有一小部分专家被激活,从而保持低延迟和高吞吐,这对于需要同时运行多个代理(多agent)的场景至关重要【3†source】。Nemotron 3 Super拥有512个专家,采用Top-22的路由策略【7†source】,通过稀疏激活,模型在保持12B参数激活量的同时,获得了120B参数模型的知识容量。</li>
</ul>
</div>
<p>这种混合架构的设计哲学是:<strong>用Mamba保证效率,用注意力保证精度,用MoE保证容量</strong>。三者协同,使得模型既能在长上下文中高效运行,又能对复杂问题进行精确推理,同时拥有远超激活参数规模的知识储备。</p>
<h2 id="h2-3">创新点一:LatentMoE——压缩潜空间,四倍专家并行</h2>
<p>标准MoE架构的一个瓶颈在于:路由层直接将完整维度的Token送入专家,随着模型规模增长,路由层成为计算开销的瓶颈,限制了可部署专家的数量【3†source】。Nemotron 3 Super引入了<strong>LatentMoE</strong>架构,通过在路由决策前将Token嵌入投影到一个<strong>低秩潜空间</strong>,在压缩后的维度上进行专家计算,然后再投影回原始模型维度【3†source】。</p>
<p>这一创新带来了巨大的效率提升:<strong>更多专家,同等成本</strong>。由于Token在进入专家前被压缩,模型可以用与原先激活一个专家相同的计算开销,同时激活<strong>四个专家</strong>【3†source】!这相当于在推理成本几乎不变的情况下,将专家数量扩大了4倍,极大地提高了模型的 specialize 能力。更细粒度的专家也意味着模型可以更精细地针对不同任务(例如,将Python语法专家与SQL逻辑专家区分开来)进行路由,只在需要时激活相应专家,从而在保证精度的同时避免了不必要的计算【3†source】。</p>
<p>简而言之,LatentMoE通过<strong>压缩Token维度</strong>这一巧妙的“潜空间”操作,巧妙地突破了MoE架构的扩展瓶颈,实现了<strong>四倍专家并行</strong>,为模型注入了更强的专业能力和更高的推理效率。</p>
<h2 id="h2-4">创新点二:多Token预测(MTP)——一次看多步,推理加速与质量兼得</h2>
<p>传统自回归语言模型每次前向传播只能预测下一个Token,这被称为<strong>单Token预测</strong>。这种逐步预测的方式虽然简单,但<strong>目光短浅</strong>:模型在生成每个Token时,并未显式地考虑更远的未来,可能导致推理链路的不稳定。而Nemotron 3 Super采用了<strong>多Token预测(MTP)</strong>,在每个位置同时预测<strong>多个未来Token</strong>【3†source】。</p>
<p>MTP带来了两方面的收益:</p>
<div class="feature-list">
<ul>
<li><strong>更强的推理能力</strong>:预测多个未来Token迫使模型在训练时内部化更长远的关系和逻辑依赖【3†source】。模型不能再只靠“猜测下一个词”蒙混过关,而必须学会预见连贯的序列。这在需要链式思考(Chain-of-Thought)的任务中表现尤为明显——模型生成的每一步都必须与前一步逻辑一致,从而显著提升了推理的稳健性和准确度【3†source】。</li>
<li><strong>内置的推理加速</strong>:由于MTP在一次前向传播中就预测了多个Token,它可以作为<strong>原生的推测解码(Speculative Decoding)</strong>机制【3†source】。模型自己生成的多Token预测相当于草稿,可以并行验证,从而大幅减少生成长序列所需的实际前向传播次数【3†source】。在结构化生成任务(如代码生成、工具调用)中,MTP可实现最高<strong>3倍</strong>的端到端加速【3†source】。这意味着,对于需要生成大量Token的复杂任务,Nemotron 3 Super不仅能“想得更远”,还能“走得更快”。</li>
</ul>
</div>
<p>值得一提的是,Nemotron 3 Super的MTP采用了一种<strong>共享权重的多头设计</strong>,所有预测头的权重共享【3†source】。这不仅将参数开销降至最低,还确保了不同预测步长的一致性,避免了独立训练多个预测头可能带来的发散和不一致问题【3†source】。共享权重也让更长的草稿预测更加可靠,这是独立训练多头方案通常难以做到的【3†source】。</p>
<h2 id="h2-5">创新点三:原生NVFP4预训练——4-bit精度下的稳定训练与超凡效率</h2>
<p>大型模型通常在训练时使用高精度(如BF16)以确保稳定,训练完成后再进行量化压缩,这不可避免地会带来精度损失。Nemotron 3 Super则大胆采用了<strong>原生NVFP4预训练</strong>,即在预训练阶段就将大部分浮点乘加运算运行在NVFP4这种4-bit浮点格式下【3†source】。NVFP4是英伟达Blackwell架构优化的4-bit浮点格式,相比FP8可以在保持精度的同时进一步减少内存占用并加速推理【3†source】。</p>
<p>直接在低精度下训练模型,意味着模型从第一个梯度更新开始就在4-bit算术的约束下学习,从而在<strong>数学上更稳定</strong>,训练出的模型在4-bit下依然保持高精度【3†source】。Nemotron 3 Super的实验证明了这一点:尽管预训练主要在NVFP4下进行,其最终模型在精度上与BF16模型几乎相当,却在推理速度和内存占用上获得了巨大收益【3†source】。在Blackwell GPU上,NVFP4模型相比FP8模型可实现<strong>4倍</strong>的推理加速,同时精度几乎无损【3†source】。</p>
<p>这种<strong>先低精度训练,后无需量化</strong>的范式,颠覆了传统“高精度训练+后量化”的思路。它带来的直接好处是:模型部署时无需额外的量化步骤,直接以NVFP4格式即可高效运行,<strong>显著降低了推理成本</strong>。对于需要长时间、大规模运行的自主代理系统而言,这种原生4-bit训练的模型能以更少的硬件资源提供同等甚至更好的性能,是极具吸引力的特性。</p>
<h2 id="h2-6">预训练数据与规模:25万亿Token的巨额训练</h2>
<p>Nemotron 3 Super的预训练规模同样令人瞩目。它在<strong>25万亿(25T)Token</strong>的超大数据集上进行了预训练【1†source】。这比许多同类模型(例如GPT-OSS-120B使用15T Token)都要庞大,为模型提供了极其丰富的知识储备。预训练分为两个阶段:第一阶段占80%(20T Token),侧重于<strong>多样性和广泛覆盖</strong>;第二阶段占20%(5T Token),聚焦于<strong>高质量数据和基准准确率</strong>【1†source】。这种两阶段策略确保模型既有广度又有深度,在通用知识上打下坚实基础的同时,在关键能力上精益求精。</p>
<p>值得注意的是,Nemotron 3 Super的预训练数据不仅包括海量文本,还特别引入了多种<strong>合成数据</strong>,以强化模型在特定领域的能力【1†source】。例如,模型使用了合成生成的<strong>代码概念</strong>、<strong>算法</strong>、<strong>形式逻辑</strong>、<strong>经济学</strong>等数据【1†source】。这些合成数据经过精心设计和去污染处理,确保模型在相关基准上的提升是真实的能力提升,而非对训练集的简单记忆【1†source】。例如,通过合成算法数据,模型在HumanEval、MBPP等代码基准上获得了1-2个百分点的提升【1†source】;通过合成经济学和形式逻辑数据,模型在这些领域的问题解决能力也得到增强【1†source】。这种有针对性的数据策略,使得Nemotron 3 Super在<strong>通用智能</strong>和<strong>专项技能</strong>上都取得了优异表现。</p>
<h2 id="h2-7">后训练:SFT与多环境强化学习的加持</h2>
<p>预训练只是基础,Nemotron 3 Super的<strong>后训练</strong>同样功不可没。模型在预训练后经历了<strong>监督微调(SFT)</strong>和<strong>大规模多环境强化学习(RL)</strong>两个阶段的精细打磨【3†source】。</p>
<p>在SFT阶段,模型学习了人类撰写的对话、指令遵循等数据,以掌握基本的对话和遵从指令的能力。随后进入RL阶段,这是Nemotron 3 Super后训练的重头戏。模型在<strong>21种不同的环境配置</strong>下进行了强化学习训练【3†source】!这些环境覆盖了从<strong>多步工具使用</strong>、<strong>软件工程</strong>到<strong>终端操作</strong>等广泛场景【3†source】。通过与环境的交互,模型学会了如何自主地规划、使用工具、调试代码等复杂技能,而不仅仅是根据指令给出答案。这种<strong>多环境RL</strong>训练的规模和多样性在开源模型中前所未有,它使得Nemotron 3 Super在<strong>代理式推理(Agentic Reasoning)</strong>方面表现出色【3†source】。</p>
<p>为了支持如此大规模的RL训练,英伟达开发了<strong>NVIDIA NeMo Gym</strong>和<strong>NVIDIA NeMo RL</strong>框架,并进行了<strong>超过120万次环境交互(rollout)</strong>【3†source】。这种训练方式极大地增强了模型的自主性和鲁棒性,使其在面对真实世界中复杂、多步骤的任务时,能够游刃有余地规划和执行。</p>
<h2 id="h2-8">性能评估:精度与效率的双重验证</h2>
<p>Nemotron 3 Super在各类基准上的表现证明了其“缝合怪”架构的价值:在<strong>精度</strong>上,它达到了同类开源模型的顶尖水平;在<strong>效率</strong>上,它更是实现了飞跃式的提升。</p>
<p><strong>精度方面</strong>,在通用知识基准MMLU-Pro上,Nemotron 3 Super得分<strong>83.73</strong>【5†source】,略低于Qwen3.5-122B的86.70,但高于GPT-OSS-120B的81.00【19†source】。在科学推理基准GPQA上,Nemotron 3 Super得分<strong>82.7</strong>【3†source】,在同类开源模型中名列前茅。在数学竞赛级别难题基准AIME25上,它更是取得了<strong>90.21</strong>的高分【19†source】,展示了卓越的数学推理能力。此外,在SWE-Bench Verified软件开发基准上,Nemotron 3 Super得分<strong>60.47</strong>【9†source】,显著优于GPT-OSS-120B的41.9%【3†source】,表明其在软件工程任务上的强大能力。在Artificial Analysis的综合智能指数中,Nemotron 3 Super的得分也领先于GLM-4.5-Air-Base和Ling-flash-Base-2.0等同类基础模型【1†source】。总体而言,Nemotron 3 Super在<strong>通用智能、推理、编码、长上下文</strong>等各类评测中都取得了与最先进模型相当的精度,甚至在某些代理任务上更胜一筹。</p>
<figure class="generated-chart">
<canvas id="benchmarkChart"></canvas>
<figcaption>图1:Nemotron 3 Super 与 GPT-OSS-120B 在关键基准上的性能对比</figcaption>
</figure>
<p><strong>效率方面</strong>,Nemotron 3 Super的优势更加惊人。在8K输入/64K输出的设定下,Nemotron 3 Super的推理吞吐量比GPT-OSS-120B高出<strong>2.2倍</strong>,比Qwen3.5-122B高出<strong>7.5倍</strong>【1†source】!这意味着,在处理长上下文、生成大量输出的场景(如自主代理需要反复发送长历史和工具输出时),Nemotron 3 Super可以以远超竞品的速度完成任务,而不牺牲准确性【1†source】。这种效率提升主要归功于其混合Mamba-Transformer MoE架构:Mamba层和稀疏MoE使得模型在长序列上更高效,而LatentMoE和MTP进一步加速了推理。在实际部署中,这使得Nemotron 3 Super能够在<strong>多代理并行</strong>、<strong>长时运行</strong>的场景下依然保持低延迟和高吞吐,而不像传统大型模型那样因为“思考税”和“上下文爆炸”而变得迟缓和昂贵【3†source】。</p>
<figure class="generated-chart">
<canvas id="throughputChart"></canvas>
<figcaption>图2:Nemotron 3 Super 与竞品推理吞吐量倍率对比 (以其自身为基准 1x)</figcaption>
</figure>
<h2 id="h2-9">开放性与影响:开源巨模型的新标杆</h2>
<p>Nemotron 3 Super的发布不仅在技术上有突破,其<strong>开放性</strong>也树立了新标杆。英伟达不仅开放了模型的权重,还开放了<strong>预训练和后训练的完整数据集和训练配方</strong>【3†source】。这包括超过10万亿Token的预训练数据、15种RL训练环境以及完整的评估和微调方案【3†source】。开发者可以基于这些开放资源,在自己的基础设施上<strong>定制、优化和部署</strong>Nemotron 3 Super,而无需依赖黑盒API【3†source】。</p>
<p>这种开放策略对行业的影响是深远的。首先,它降低了前沿AI技术的门槛,使得学术研究和企业创新都能基于最先进的模型进行探索。其次,开放数据和配方有助于社区共同改进模型,例如通过社区贡献的新数据或改进的训练策略来进一步提升模型性能。最后,对于注重数据隐私和安全的企业而言,能够私有化部署和微调这样一款顶尖模型,意味着他们可以在<strong>不牺牲性能</strong>的前提下,获得对模型的完全控制权,这在金融、医疗等敏感领域尤为重要。</p>
<h2 id="h2-10">结论:效率优先,开源巨模型新篇章</h2>
<p>Nemotron 3 Super的推出,标志着大模型的发展进入了一个新的阶段:<strong>效率优先</strong>。它通过LatentMoE、MTP、NVFP4等创新,证明了模型规模的增长并不必然带来同等比例的效率下降,通过架构和训练范式的革新,我们可以在<strong>更少的计算</strong>下获得<strong>更强的能力</strong>。这对于推动AI技术的实际应用至关重要——只有当模型能够在成本可控的情况下持续运行,我们才能真正构建出可靠的自主代理系统。</p>
<p>作为开源社区的新成员,Nemotron 3 Super不仅提供了当前最强性能的开放模型之一,更提供了一条清晰的技术路线:混合架构、稀疏激活、低精度训练、多任务强化学习。这为后续的研究和开发指明了方向。可以预见,未来的大模型将不再仅仅追求参数规模的天文数字,而是会更加关注<strong>每FLOP的智能产出</strong>和<strong>每参数的知识效率</strong>。Nemotron 3 Super正是这一潮流的开端,它以“缝合怪”的身姿,将效率与精度融为一体,开启了开源大模型的新篇章。【4†source】【1†source】</p>
</div>
<script>
document.addEventListener('DOMContentLoaded', function () {
const chartFont = "'Noto Sans SC', sans-serif";
const textColor = '#212529';
const gridColor = '#E9ECEF';
// Chart 1: Performance Benchmark
const benchmarkCtx = document.getElementById('benchmarkChart');
if (benchmarkCtx) {
new Chart(benchmarkCtx, {
type: 'bar',
data: {
labels: ['MMLU-Pro', 'SWE-Bench Verified'],
datasets: [
{
label: 'Nemotron 3 Super',
data: [83.73, 60.47],
backgroundColor: 'rgba(13, 110, 253, 0.6)',
borderColor: 'rgba(13, 110, 253, 1)',
borderWidth: 1
},
{
label: 'GPT-OSS-120B',
data: [81.00, 41.9],
backgroundColor: 'rgba(255, 159, 64, 0.6)',
borderColor: 'rgba(255, 159, 64, 1)',
borderWidth: 1
}
]
},
options: {
responsive: true,
maintainAspectRatio: false,
scales: {
y: {
beginAtZero: true,
max: 100,
ticks: {
color: textColor,
font: { family: chartFont }
},
grid: {
color: gridColor,
borderDash: [2, 4]
},
title: {
display: true,
text: '得分 (%)',
color: textColor,
font: { family: chartFont, size: 14 }
}
},
x: {
ticks: {
color: textColor,
font: { family: chartFont, size: 14 }
},
grid: {
display: false
}
}
},
plugins: {
legend: {
position: 'top',
labels: {
color: textColor,
font: { family: chartFont }
}
},
tooltip: {
mode: 'index',
intersect: false,
titleFont: { family: chartFont },
bodyFont: { family: chartFont }
}
}
}
});
}
// Chart 2: Throughput Comparison
const throughputCtx = document.getElementById('throughputChart');
if (throughputCtx) {
new Chart(throughputCtx, {
type: 'bar',
data: {
labels: ['Nemotron 3 Super', 'GPT-OSS-120B', 'Qwen3.5-122B'],
datasets: [{
label: '相对吞吐量倍率',
data: [1, 1/2.2, 1/7.5],
backgroundColor: [
'rgba(13, 110, 253, 0.6)',
'rgba(25, 135, 84, 0.6)',
'rgba(255, 193, 7, 0.6)'
],
borderColor: [
'rgba(13, 110, 253, 1)',
'rgba(25, 135, 84, 1)',
'rgba(255, 193, 7, 1)'
],
borderWidth: 1
}]
},
options: {
indexAxis: 'y',
responsive: true,
maintainAspectRatio: false,
scales: {
x: {
beginAtZero: true,
max: 1.2,
ticks: {
color: textColor,
font: { family: chartFont }
},
grid: {
color: gridColor,
borderDash: [2, 4]
},
title: {
display: true,
text: '相对吞吐量 (Nemotron 3 Super = 1x)',
color: textColor,
font: { family: chartFont, size: 14 }
}
},
y: {
ticks: {
color: textColor,
font: { family: chartFont, size: 14 }
},
grid: {
display: false
}
}
},
plugins: {
legend: {
display: false
},
tooltip: {
titleFont: { family: chartFont },
bodyFont: { family: chartFont },
callbacks: {
label: function(context) {
let label = context.dataset.label || '';
if (label) {
label += ': ';
}
if (context.parsed.x !== null) {
label += context.parsed.x.toFixed(2) + 'x';
}
return label;
}
}
}
}
}
});
}
});
</script>
</body>
</html>
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!