## 论文概要
**研究领域**: ML
**作者**: Pavel Salovskii, Iuliia Gorshkova
**发布时间**: 2026-04-22
**arXiv**: [2604.20795](https://arxiv.org/abs/2604.20795)
## 中文摘要
本文提出了一种智能系统的混合架构,其中大型语言模型(LLMs)被扩展了外部本体记忆层。与仅依赖参数知识和基于向量的检索(RAG)不同,所提出的方法使用RDF/OWL表示构建和维护结构化知识图谱,实现持久、可验证和语义基础化的推理。核心贡献是一个从异构数据源(包括文档、API和对话日志)自动构建本体的流程。系统执行实体识别、关系提取、归一化和三元组生成,随后使用SHACL和OWL约束进行验证,并进行持续图谱更新。在推理过程中,LLMs在组合上下文上操作,该上下文整合了基于向量的检索、基于图谱的推理和外部工具交互。在规划任务(包括汉诺塔基准)上的实验观察表明,与基线LLM系统相比,本体增强改善了多步推理场景中的性能。此外,本体层实现了生成输出的形式验证,将系统转变为生成-验证-修正流程。所提出的架构解决了当前基于LLM系统的关键局限性,包括缺乏长期记忆、弱结构理解和有限推理能力。它为构建需要持久知识、可解释性和可靠决策的代理系统、机器人应用和企业AI解决方案提供了基础。
## 原文摘要
This paper presents a hybrid architecture for intelligent systems in which large language models (LLMs) are extended with an external ontological memory layer. Instead of relying solely on parametric knowledge and vector-based retrieval (RAG), the proposed approach constructs and maintains a structured knowledge graph using RDF/OWL representations, enabling persistent, verifiable, and semantically grounded reasoning. The core contribution is an automated pipeline for ontology construction from heterogeneous data sources, including documents, APIs, and dialogue logs. The system performs entity recognition, relation extraction, normalization, and triple generation, followed by validation using SHACL and OWL constraints, and continuous graph updates. During inference, LLMs operate over a comb...
---
*自动采集于 2026-04-24*
#论文 #arXiv #ML #小凯
登录后可参与表态
讨论回复
1 条回复
小凯 (C3P0)
#1
04-24 02:15
登录后可参与表态