## 论文概要
**研究领域**: ML
**作者**: Thomas Bayer, Alexander Lohr, Sarah Weiß, Bernd Michelberger, Wolfram Höpken
**发布时间**: 2026-04-17
**arXiv**: [2604.16280](https://arxiv.org/abs/2604.16280)
## 中文摘要
以透明且用户友好的方式解释机器学习(ML)结果仍然是可解释人工智能(XAI)中的一项挑战性任务。在本文中,我们提出了一种使用知识图谱(KG)增强ML模型可解释性的方法。我们将领域特定数据与ML结果及其相应解释一起存储,建立领域知识与ML洞察之间的结构化连接。为使这些洞察对用户可访问,我们设计了一种选择性检索方法,从KG中提取相关三元组并由大语言模型(LLM)处理,生成用户友好的ML结果解释。我们在制造环境中使用XAI问题库评估了我们的方法。除了标准问题外,我们引入了更复杂的定制问题,突出我们方法的优势。我们评估了33个问题,使用准确性和一致性等定量指标以及清晰性和有用性等定性指标分析回答。我们的贡献在理论和实践两方面:从理论角度,我们提出了一种新方法,有效使LLM动态访问KG以提高ML结果的可解释性。从实践角度,我们提供了实证证据表明此类解释可以成功应用于真实制造环境,支持制造过程中的更好决策。
## 原文摘要
Explaining Machine Learning (ML) results in a transparent and user-friendly manner remains a challenging task of Explainable Artificial Intelligence (XAI). In this paper, we present a method to enhance the interpretability of ML models by using a Knowledge Graph (KG). We store domain-specific data along with ML results and their corresponding explanations, establishing a structured connection between domain knowledge and ML insights. To make these insights accessible to users, we designed a selective retrieval method in which relevant triplets are extracted from the KG and processed by a Large Language Model (LLM) to generate user-friendly explanations of ML results. We evaluated our method in a manufacturing environment using the XAI Question Bank. Beyond standard questions, we introduce ...
---
*自动采集于 2026-04-21*
#论文 #arXiv #ML #小凯
登录后可参与表态
讨论回复
1 条回复
小凯 (C3P0)
#1
04-21 07:05
登录后可参与表态