<!DOCTYPE html>
<html lang="zh-CN">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>生成式AI的另一条轨迹:从全能大模型到专家社会的范式转换</title>
<link rel="preconnect" href="https://fonts.googleapis.com">
<link rel="preconnect" href="https://fonts.gstatic.com" crossorigin>
<link href="https://fonts.googleapis.com/css2?family=Noto+Sans+SC:wght@400;700&family=Noto+Serif+SC:wght@400;700&family=Source+Code+Pro:wght@400;700&display=swap" rel="stylesheet">
<script src="https://cdn.jsdelivr.net/npm/chart.js"></script>
<style>
:root {
--bg-color: #FFFFFF;
--content-bg: #FFFFFF;
--text-color: #212529;
--primary-color: #0D6EFD;
--border-color: #dee2e6;
--code-bg: #e9ecef;
--quote-bg: #f8f9fa;
}
html, body {
margin: 0;
padding: 0;
background-color: var(--bg-color);
color: var(--text-color);
font-family: "Noto Serif SC", serif;
font-size: 16px;
line-height: 1.8;
}
body {
display: flex;
justify-content: center;
}
main {
background-color: var(--content-bg);
max-width: 800px;
width: 100%;
padding: 2em 3em;
box-sizing: border-box;
}
h1, h2, h3, h4, h5, h6 {
font-family: "Noto Sans SC", "Noto Serif SC", sans-serif;
font-weight: 700;
color: var(--text-color);
margin-top: 1.5em;
margin-bottom: 0.8em;
}
h1 {
font-size: 28px;
text-align: center;
margin-top: 24px;
margin-bottom: 20px;
color: #1a1a1a;
}
h2 {
font-size: 22px;
padding-bottom: 0.4em;
border-bottom: 1px solid var(--border-color);
margin-top: 2.5em;
padding-left: 0.5em;
border-left: 5px solid var(--primary-color);
}
h3 {
font-size: 20px;
margin-top: 2em;
}
h4 {
font-size: 18px;
}
p {
margin-bottom: 1.2em;
}
strong {
color: var(--text-color);
font-weight: 700;
}
a {
color: var(--primary-color);
text-decoration: none;
transition: border-bottom-color 0.2s ease-in-out;
border-bottom: 1px solid transparent;
}
a:hover {
border-bottom-color: var(--primary-color);
}
sup {
font-size: 0.75em;
vertical-align: super;
color: #6c757d;
}
blockquote {
margin: 1.5em 0;
padding: 0.5em 1.5em;
border-left: 5px solid var(--primary-color);
background-color: var(--quote-bg);
color: #495057;
}
blockquote p {
margin-bottom: 0;
}
code {
font-family: "Source Code Pro", monospace;
background-color: var(--code-bg);
padding: 0.2em 0.4em;
border-radius: 3px;
font-size: 0.9em;
}
pre {
background-color: var(--code-bg);
padding: 1em;
border-radius: 5px;
overflow-x: auto;
}
pre code {
padding: 0;
background-color: transparent;
font-size: 0.9em;
}
hr {
border: 0;
height: 2px;
background-image: linear-gradient(to right, rgba(0, 0, 0, 0), var(--primary-color), rgba(0, 0, 0, 0));
margin: 3em 0;
}
table {
width: 100%;
border-collapse: collapse;
margin: 1.5em 0;
font-size: 0.95em;
}
th, td {
padding: 0.8em 1em;
text-align: left;
border-bottom: 1px solid var(--border-color);
}
thead th {
border-bottom: 2px solid var(--primary-color);
font-weight: 700;
}
tbody tr:hover {
background-color: #f1f3f5;
}
.toc {
background: #f8f9fa;
border: 1px solid #dee2e6;
padding: 1.5em 2em;
margin-bottom: 2em;
border-radius: 8px;
}
.toc-title {
font-family: "Noto Sans SC", sans-serif;
font-weight: 700;
font-size: 1.2em;
margin-top: 0;
margin-bottom: 1em;
color: var(--text-color);
}
.toc ul {
padding-left: 0;
margin: 0;
list-style-type: none;
}
.toc-level-2 > li {
margin-bottom: 0.5em;
}
.toc a {
color: var(--primary-color);
text-decoration: none;
}
.toc a:hover {
text-decoration: underline;
}
.toc-level-3 {
padding-left: 2em;
margin-top: 0.5em;
}
.toc-level-3 > li {
margin-bottom: 0.3em;
font-size: 0.95em;
}
.component-group {
border: 1px solid #e9ecef;
border-radius: 8px;
padding: 1.5em;
margin-bottom: 1.5em;
background-color: #fafbfd;
}
.component-group > p:first-child {
margin-top: 0;
}
.component-group > p:last-child {
margin-bottom: 0;
}
.generated-chart {
margin: 2em 0;
padding: 1em;
border: 1px solid var(--border-color);
border-radius: 8px;
background-color: var(--bg-color);
}
.chart-container {
position: relative;
height: 400px;
width: 100%;
}
figcaption {
text-align: center;
margin-top: 1em;
font-size: 0.9em;
color: #6c757d;
}
</style>
</head>
<body>
<main>
<h1>生成式AI的另一条轨迹:从全能大模型到专家社会的范式转换</h1>
<nav class="toc">
<p class="toc-title">目录</p>
<ul class="toc-level-2">
<li><a href="#section-1">一、 能源危机与“反转诅咒”:大模型“暴力美学”的代价</a></li>
<li><a href="#section-2">二、 神经符号AI:填补大模型的“抽象”缺失</a></li>
<li><a href="#section-3">三、 图谱代数与GraphMERT:让知识图谱成为可计算的几何坐标</a></li>
<li><a href="#section-4">四、 DSS专家社会:小模型协作碾压万亿参数巨兽</a></li>
<li><a href="#section-5">五、 结论:走向可持续的AI未来</a></li>
</ul>
</nav>
<h2 id="section-1">能源危机与“反转诅咒”:大模型“暴力美学”的代价</h2>
<p>当我们向一个稍复杂的AI问题发起询问时,背后其实伴随着巨大的资源消耗。当前主流的“大力出奇迹”路线——即通过不断堆砌更大模型、更多数据来追求人工智能——正面临物理和经济上的双重极限。首先,这种<strong>“暴力美学”</strong>的代价之一是惊人的能源和水资源消耗。训练一个前沿模型耗电量巨大,但更严峻的是<strong>推理(inference)阶段的能耗</strong>正变得不可忽视。随着模型从研究原型转变为高流量产品,其能耗负担已从一次性训练转向持续、无上限的推理<sup>【1†source】</sup>。特别是近年来出现的“推理模型”(reasoning models),通过在每次查询中生成庞大的内部思维链,将单次查询的计算和能源成本放大了<strong>70-100倍</strong><sup>【1†source】</sup>。这意味着,每次与这些大型模型交互,都在无形中“喝掉”一大口珍贵的水、消耗大量电力。</p>
<figure class="generated-chart">
<div class="chart-container">
<canvas id="reasoningCostChart"></canvas>
</div>
<figcaption>图1:推理模型相对计算成本放大效应</figcaption>
</figure>
<p>这一趋势的后果是深远的。一方面,数据中心的能源需求正冲击电网:<strong>弗吉尼亚州</strong>(全球数据中心重镇)预计到2045年夏季峰值负荷将比2022年增长70%,几乎完全由数据中心驱动<sup>【1†source】</sup>。当地电网甚至不得不批准建设新的天然气调峰电厂以应对数据中心的用电需求,这与该州的清洁能源目标相冲突<sup>【1†source】</sup>。另一方面,AI的<strong>水足迹</strong>同样惊人。数据中心的冷却需要大量淡水,一个大型数据中心每天可能蒸发<strong>110万加仑</strong>水用于冷却,相当于一个1万人城镇的用水量<sup>【1†source】</sup>。同时,为这些数据中心供电的火电和核电站在发电过程中也会蒸发大量水(间接耗水通常是直接冷却用水的3-4倍)<sup>【1†source】</sup>。据估计,每次对大型模型的查询(如Gemini)平均耗水约<strong>0.26毫升</strong><sup>【1†source】</sup>。当每天有数十亿次查询时,这些“小口”水消耗汇聚成每年数十亿升的淡水蒸发<sup>【1†source】</sup>。更令人担忧的是,随着“推理模型”成百倍地放大每次查询的资源消耗,这一数字还将急剧攀升<sup>【1†source】</sup>。</p>
<figure class="generated-chart">
<div class="chart-container">
<canvas id="waterConsumptionChart"></canvas>
</div>
<figcaption>图2:数据中心直接与间接水消耗对比(相对值)</figcaption>
</figure>
<p>除了环境和经济成本,当前大模型在能力上也存在根本性缺陷。<strong>概率拟合的局限</strong>导致模型在需要深度推理的任务上表现不佳。一个典型现象被称为“<strong>反转诅咒</strong>”(Reversal Curse):如果模型仅通过<strong>“A是B”</strong>这样的陈述训练,它往往无法自动推理出<strong>“B是A”</strong><sup>【17†source】</sup>。例如,一个模型被训练知道“某人是X的妻子”,却无法推断出“X的配偶是某人”<sup>【17†source】</sup>。这表明,这类模型缺乏对概念的<strong>抽象理解</strong>和对称性推理能力,它们更多是在记忆模式而非真正理解语义<sup>【17†source】</sup>。这种缺陷使得大模型在需要举一反三、因果推断的场景中频频出错,成为其迈向通用智能的致命短板。</p>
<h2 id="section-2">神经符号AI:填补大模型的“抽象”缺失</h2>
<p>为何当前大模型会在深度推理上碰壁?普林斯顿论文指出,<strong>缺失的“抽象”环节</strong>是关键原因<sup>【1†source】</sup>。大模型主要通过统计模式匹配从海量数据中学习,但<strong>跳过了构建抽象概念和规则这一步</strong>。这就像让学生背诵大量例题,却从不教他们背后的定理和逻辑,结果遇到新问题时无从下手。相比之下,<strong>神经符号AI</strong>(Neurosymbolic AI)试图将深度学习的直觉与经典符号逻辑的严谨结合起来,以弥补这一缺陷<sup>【10†source】</sup><sup>【13†source】</sup>。</p>
<p>神经符号AI的理念是:利用神经网络的感知和模式识别能力,结合符号系统的抽象和推理能力,从而实现<strong>1+1>2</strong>的效果<sup>【10†source】</sup>。符号AI(如知识图谱、形式逻辑)提供<strong>可解释、可验证</strong>的抽象结构,而神经网络提供<strong>泛化</strong>和学习能力<sup>【10†source】</sup>。这种结合有望克服纯神经方法的局限,使AI系统既具备人类的直觉,又拥有逻辑推理的严谨。例如,在医疗诊断中,神经网络可以从病例数据中学习模式,而符号规则可以确保诊断结论符合医学知识的逻辑约束,从而减少误诊和漏诊。</p>
<p>近年来,神经符号AI被视为与“大力出奇迹”相对的另一条路径,受到越来越多的关注<sup>【10†source】</sup>。它强调<strong>方法论上的多样性</strong>,通过融合不同范式的优势,而非简单堆砌更大模型,来推动AI的发展<sup>【10†source】</sup>。这种范式转变被认为更具可持续性,因为它<strong>对数据和算力的需求更小</strong>,在提升性能的同时,也提高了效率和可信度<sup>【10†source】</sup><sup>【13†source】</sup>。简而言之,神经符号AI为当前大模型的“抽象缺失症”开出了药方:通过引入符号抽象,让模型不仅“知其然”,而且“知其所以然”。</p>
<h2 id="section-3">图谱代数与GraphMERT:让知识图谱成为可计算的几何坐标</h2>
<p>如何具体实现神经符号AI的愿景?普林斯顿论文提出了一条清晰的技术路线:<strong>首先构建显式的符号抽象(如知识图谱、本体和形式逻辑),然后利用这些抽象为小模型生成高质量的训练课程,从而让小模型掌握领域特定的深度推理能力</strong><sup>【1†source】</sup>。这一思路的核心在于,将知识图谱转化为可计算、可推理的“坐标”,并使用<strong>GraphMERT</strong>等工具自动化构建无幻觉的透明网络。</p>
<p><strong>知识图谱(Knowledge Graph, KG)</strong>是符号知识的一种重要表示形式,它以实体-关系-实体的三元组结构刻画世界知识,提供了一种<strong>显式的语义抽象</strong><sup>【9†source】</sup>。与神经网络内部的隐式表示不同,知识图谱中的每个节点和边都有明确的语义,可以被人类理解和机器验证。这种<strong>结构化知识</strong>为AI系统提供了<strong>可解释、可审计</strong>的推理基础<sup>【1†source】</sup>。例如,在医疗领域,一个疾病-症状-治疗的知识图谱可以让模型在诊断时参考已知的因果链条,而不是仅凭统计相关性做判断,从而提高结论的可信度和可解释性。</p>
<p>然而,构建高质量的知识图谱本身是AI领域的长期挑战。传统方法往往依赖人工构建,效率低下;而用大型语言模型直接生成知识图谱又存在<strong>幻觉</strong>(hallucination)和不一致的问题<sup>【7†source】</sup>。为了解决这一难题,普林斯顿团队开发了<strong>GraphMERT</strong>框架(Graphical Multidirectional Encoder from Transformers)<sup>【1†source】</sup>。GraphMERT是一个<strong>仅编码器的小型 transformer 模型</strong>,它通过学习将<strong>文本的句法知识</strong>与<strong>知识图谱的语义示例</strong>统一到同一表示空间,从而从原始文本中<strong>蒸馏出可靠的知识图谱</strong><sup>【7†source】</sup>。</p>
<div class="component-group">
<p>GraphMERT的工作流程可以概括为三步<sup>【7†source】</sup>:</p>
<ol>
<li><strong>统一表示</strong>:将领域文本(句法知识)和种子知识图谱(语义示例)映射到统一的“叶链图”表示中,使模型同时学习文本和图谱<sup>【7†source】</sup>。</li>
<li><strong>训练预测</strong>:GraphMERT在统一的表示上训练,学习文本上下文与图谱结构之间的对应关系,然后预测新的语义补全(即从文本中推断出新的图谱三元组)<sup>【7†source】</sup>。</li>
<li><strong>辅助清洗</strong>:利用一个大型语言模型(作为辅助)对GraphMERT预测出的原始三元组进行语言结构上的润色和清洗,过滤掉与原文不符的虚假关系,最终得到高质量的知识图谱<sup>【7†source】</sup>。</li>
</ol>
</div>
<p>GraphMERT的创新之处在于,它<strong>自动且可扩展</strong>地构建知识图谱,同时保证了<strong>事实性(Factuality)</strong>和<strong>有效性(Validity)</strong><sup>【7†source】</sup>。事实性指每个知识三元组都能在源文本中找到依据(有来源可追溯),有效性指关系语义符合领域本体规范(逻辑一致)<sup>【7†source】</sup>。实验表明,GraphMERT提取的知识图谱在事实性和有效性上远胜于直接用大型语言模型生成的图谱<sup>【7†source】</sup>。例如,在糖尿病相关文献上,<strong>80M参数</strong>的GraphMERT提取的KG事实性FActScore达到<strong>69.8%</strong>,而<strong>32B参数</strong>的基线LLM仅得<strong>40.2%</strong>;GraphMERT的语义一致性得分也高出近26个百分点<sup>【7†source】</sup>。这证明了通过神经符号结合,小模型也能在知识蒸馏任务上超越巨量参数的黑箱模型,实现<strong>无幻觉</strong>的知识构建。</p>
<figure class="generated-chart">
<div class="chart-container">
<canvas id="graphMertChart"></canvas>
</div>
<figcaption>图3:GraphMERT与基线LLM在知识图谱提取质量上的对比</figcaption>
</figure>
<p>更进一步,知识图谱的<strong>图谱代数</strong>(Graph Algebra)为AI推理提供了几何化的坐标体系。研究者已经将知识图谱嵌入到<strong>几何代数空间</strong>中,使实体和关系可以像向量一样进行运算<sup>【22†source】</sup>。在这种空间中,<strong>逻辑推理操作对应于几何变换</strong>,例如,一个关系的逆可以表示为向量空间中的某种变换,一个复合关系可以表示为向量运算的组合<sup>【22†source】</sup>。这种<strong>“知识即坐标,推理即几何”</strong>的范式,使得知识图谱不仅是一种静态的知识库,更成为AI进行<strong>反事实推理</strong>(Counterfactual Reasoning)的<strong>可计算模型</strong>。</p>
<p><strong>反事实推理</strong>是指假设某个前提条件改变,推断结果会如何变化的能力。这对AI来说极具挑战,但却是人类日常推理的重要部分(例如:“如果昨天没下雨,比赛就不会取消”)。知识图谱为反事实推理提供了天然的支持:我们可以将<strong>原始世界状态</strong>表示为一个知识图谱,<strong>假设的情景</strong>表示为在图谱上添加或删除的边,然后通过逻辑规则推断出这些变化对其他知识的影响<sup>【16†source】</sup>。近期的研究已经将知识图谱补全与反事实推理联系起来,提出了<strong>CFKGR</strong>(Counterfactual Knowledge Graph Reasoning)任务,并通过<strong>COULDD</strong>等方法,利用知识图谱嵌入来检测在假设前提下哪些事实会改变、哪些应保持不变<sup>【16†source】</sup>。结果表明,经过训练的知识图谱嵌入模型能够识别出遵循逻辑规则的变化,但对不符合规则的“幻觉”变化则难以识别<sup>【16†source】</sup>。这再次说明,有了符号规则的约束,AI才能更可靠地进行反事实推理,而不是凭空想象。</p>
<p>综上,<strong>图谱代数与GraphMERT</strong>共同构成了生成式AI另一条轨迹的技术基石:前者将知识图谱转化为可运算的几何坐标,实现逻辑推理的“可视化”和“可计算化”;后者则提供了自动、可靠构建知识图谱的实用工具,确保AI的知识基础<strong>透明且无误</strong>。有了这些,我们才能在此基础上构建更智能、更安全的AI系统。</p>
<h2 id="section-4">DSS专家社会:小模型协作碾压万亿参数巨兽</h2>
<p>普林斯顿论文的最终愿景是<strong>领域特定超级智能(Domain-Specific Superintelligence, DSS)</strong>的“专家社会”(Society of Experts)。与追求一个无所不能的<strong>通用巨型模型</strong>不同,DSS社会由大量<strong>小而精</strong>的领域专家模型组成,每个模型都在各自领域拥有超越人类的专长,但彼此协作、各司其职<sup>【1†source】</sup>。这种架构借鉴了Minsky的“心智社会”(Society of Mind)思想,即智能并非单一实体的属性,而是众多简单智能体交互涌现的结果<sup>【8†source】</sup>。在DSS社会中,一个<strong>编排器(Orchestrator)</strong>负责将复杂任务分解并路由给合适的专家模型,各专家通过通信协议协同完成整体任务<sup>【1†source】</sup>。</p>
<p>DSS社会的智能并非来自某个模型的规模,而是来自<strong>群体的协作</strong>。这种范式有几大优势:</p>
<ul>
<li><strong>能力与规模解耦</strong>:小模型通过深度专门化可以获得比大模型更强的领域推理能力<sup>【1†source】</sup>。例如,一个专注医疗的7B参数模型,经过领域知识图谱的训练,可能在医学问答上胜过一个通用175B参数模型<sup>【6†source】</sup>。DSS证明了<strong>小模型也能实现“碾压”万亿参数模型</strong>的领域性能,只要它掌握了该领域的抽象和知识<sup>【1†source】</sup>。</li>
<li><strong>鲁棒性与多样性</strong>:多个专家模型的集成天然具有<strong>鲁棒性</strong>,某个模型失败或出错,其他模型可以弥补<sup>【7†source】</sup>。同时,不同专家可以采用不同算法和训练数据,带来<strong>多样性</strong>,避免单一模型的偏见和盲点<sup>【7†source】</sup>。这类似于人类社会中不同专长的人协作,比任何单一“通才”都更可靠。</li>
<li><strong>高效与可扩展</strong>:DSS社会是<strong>模块化</strong>的,可以像乐高积木一样根据需要组合和扩展<sup>【1†source】</sup>。新增领域只需训练该领域的专家模型并接入编排器,而不需要重新训练一个更大的模型。这种<strong>“Lego式”可组合性</strong>大大提高了开发效率<sup>【1†source】</sup>。此外,小模型可以更灵活地部署在边缘设备上,实现<strong>本地推理</strong>,降低对云数据中心的依赖<sup>【1†source】</sup>。</li>
<li><strong>可解释与可审计</strong>:每个专家模型都基于明确的符号抽象(知识图谱)训练,其决策过程可以被追踪和验证<sup>【1†source】</sup>。编排器的决策逻辑也是透明的(例如,根据任务类型选择哪个专家)。相比之下,一个黑箱的万亿参数模型很难解释其输出。DSS社会的模块化结构使得<strong>审计和问责</strong>成为可能,这对于高风险领域(医疗、法律、金融)至关重要<sup>【1†source】</sup>。</li>
</ul>
<p>一个生动的类比是<strong>医疗会诊</strong>:与其找一个无所不知但经验平平的“通才医生”,不如召集内科、外科、放射科等各领域最顶尖的专家,共同为患者制定诊疗方案。每个专家在自己领域都是“超级智能”,但通过会诊协作,他们可以解决任何单一专家无法处理的复杂病例。DSS社会正是这种协作的数字化实现。</p>
<h2 id="section-5">结论:走向可持续的AI未来</h2>
<p>普林斯顿大学的这篇论文为我们描绘了生成式AI发展的另一条轨迹:<strong>从追求全能大模型,转向构建领域专家社会</strong>。这一轨迹直面当前AI的能源危机、推理瓶颈和幻觉顽疾,提出了一套系统性的解决方案——通过<strong>神经符号AI</strong>弥补抽象缺失,用<strong>知识图谱和图谱代数</strong>打造可计算的知识坐标,并借助<strong>GraphMERT</strong>自动化构建透明无幻觉的知识网络,最终以<strong>DSS专家社会</strong>实现小模型的群体智能碾压巨无霸模型<sup>【1†source】</sup>。这条路径不仅有望突破物理和经济的限制,实现更可持续的AI发展,还可能带来更安全、更可解释、更公平的AI系统<sup>【1†source】</sup>。正如论文所言,<strong>将算法进步与物理约束对齐,才能让生成式AI从环境负担转变为经济赋能和知识民主化的可持续力量</strong><sup>【1†source】</sup>。生成式AI的另一条轨迹已经铺开,它或许就是通往未来智能的必由之路。</p>
</main>
<script>
document.addEventListener('DOMContentLoaded', function () {
const fontConfig = {
family: "'Noto Sans SC', sans-serif"
};
const commonOptions = {
responsive: true,
maintainAspectRatio: false,
plugins: {
legend: {
labels: {
font: fontConfig,
color: '#212529'
}
},
tooltip: {
titleFont: fontConfig,
bodyFont: fontConfig
}
},
scales: {
x: {
ticks: {
font: fontConfig,
color: '#212529'
},
grid: {
display: false
}
},
y: {
ticks: {
font: fontConfig,
color: '#212529'
},
grid: {
color: '#E9ECEF',
borderDash: [5, 5]
}
}
}
};
// Chart 1: Reasoning Cost
const reasoningCtx = document.getElementById('reasoningCostChart');
if (reasoningCtx) {
new Chart(reasoningCtx, {
type: 'bar',
data: {
labels: ['标准模型', '推理模型'],
datasets: [{
label: '相对计算成本',
data: [1, 85], // Using 85 as average of 70-100x
backgroundColor: ['rgba(13, 110, 253, 0.5)', 'rgba(255, 99, 132, 0.5)'],
borderColor: ['rgba(13, 110, 253, 1)', 'rgba(255, 99, 132, 1)'],
borderWidth: 1
}]
},
options: {
...commonOptions,
scales: {
...commonOptions.scales,
y: {
...commonOptions.scales.y,
title: {
display: true,
text: '相对计算成本 (倍)',
font: fontConfig,
color: '#212529'
},
max: 100
}
}
}
});
}
// Chart 2: Water Consumption
const waterCtx = document.getElementById('waterConsumptionChart');
if (waterCtx) {
new Chart(waterCtx, {
type: 'bar',
data: {
labels: ['直接冷却耗水', '间接发电耗水'],
datasets: [{
label: '相对水消耗量',
data: [1, 3.5], // Using 3.5 as average of 3-4x
backgroundColor: 'rgba(13, 110, 253, 0.5)',
borderColor: 'rgba(13, 110, 253, 1)',
borderWidth: 1
}]
},
options: {
...commonOptions,
plugins: { ...commonOptions.plugins, legend: { display: false } },
scales: {
...commonOptions.scales,
y: {
...commonOptions.scales.y,
title: {
display: true,
text: '相对水消耗量 (倍)',
font: fontConfig,
color: '#212529'
},
max: 4
}
}
}
});
}
// Chart 3: GraphMERT vs LLM
const graphMertCtx = document.getElementById('graphMertChart');
if (graphMertCtx) {
new Chart(graphMertCtx, {
type: 'bar',
data: {
labels: ['事实性 (FActScore)', '语义一致性 (ValidityScore)'],
datasets: [
{
label: 'GraphMERT (80M)',
data: [69.8, 68.8],
backgroundColor: 'rgba(13, 110, 253, 0.5)',
borderColor: 'rgba(13, 110, 253, 1)',
borderWidth: 1
},
{
label: '基线LLM (32B)',
data: [40.2, 42.8], // 68.8 - 26 = 42.8
backgroundColor: 'rgba(25, 135, 84, 0.5)',
borderColor: 'rgba(25, 135, 84, 1)',
borderWidth: 1
}
]
},
options: {
...commonOptions,
scales: {
...commonOptions.scales,
y: {
...commonOptions.scales.y,
title: {
display: true,
text: '得分 (%)',
font: fontConfig,
color: '#212529'
},
max: 100
}
}
}
});
}
});
</script>
</body>
</html>
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!