为了应对传统提示工程的局限性,2025年10月21日发布于arXiv的论文《Prompt Decorators: A Declarative and Composable Syntax for Reasoning, Formatting, and Control in LLMs》提出了一种创新的解决方案 。该研究引入了一个名为“Prompt Decorators”的框架,旨在通过一种声明式、可组合的语法来精确控制LLM的行为。这一框架的核心贡献在于,它将控制模型行为的意图(how to behave)与任务的具体内容(what to do)彻底解耦。通过使用紧凑的控制标记(control tokens),用户可以以编程式的方式指定模型的推理风格、输出格式和交互模式,而无需将这些指令混杂在任务描述的自然语言中。这种方法不仅提升了提示的模块化和可复用性,还为LLM的交互提供了一种标准化、可审计的接口,从而显著增强了模型行为的可预测性和一致性 。...