超越提示词编写的艺术:大模型的上下文工程
摘要
本综述系统性梳理了大模型上下文工程的内涵与关键技术,指出在提示工程、检索增强生成(RAG)、动态上下文管理与智能体架构等途径下,工程化上下文可降低幻觉并提升可控性与领域适应性。文章评估了提示分层、链式与图式推理、证据融合、记忆压缩与效率优化的实证与工程权衡,揭示基础模型能力、检索质量与上下文窗口为主要瓶颈,并涉及医疗、司法、金融与科研自动化等场景的实践与合规要求。最后建议构建形式化的上下文表征、模块化平台及统一评估治理框架,以推动概念化表征、多模态融合与可审计部署的未来研究与落地。
1. 引言:大模型上下文工程的崛起与重要性
大型语言模型(LLMs)的快速普及不仅推动了模型规模与能力的持续跃升,更实质性地重塑了人机交互的使用语境:在理论与技术两个传统语境之外,出现了以“实用”为核心的新语境,普通用户无需掌握底层数学或训练细节,只需学习如何构造提示即可驱动复杂的生成行为,这一转变将人工智能的使用门槛从专业技能迁移到对提示技巧的熟练掌握,从而催生了以提示为中心的黑箱式应用范式 。与此同时,生成式人工智能在信息获取系统中的根本性影响——能够直接生成定制化内容(information generation)并将已有信息重新整合以提供有据的综合性回答(information synthesis)——为理解和利用LLMs提供了功能性基础,也为解决诸如可解释性与幻觉(hallucination)等问题提出了新的技术路径,例如通过检索增强生成(RAG)来引入外部证据或约束生成过程 。这些能力的并置使得“上下文”不再是单一的语义线索,而成为涵盖输入提示、检索文档、会话历史、用户意图与外部记忆等多层次实体的复杂系统性资源,如何在工程实践中选择、组织与维护这些上下文成为决定LLM输出可信度与实用价值的核心问题。
对LLM运作机制的理解表明,提示工程并非纯粹的经验技艺,而是一类可以借助对模型行为机制认识加以系统化的方法;在物理教育场景的研究中,基于对模型内在特性的分析所设计的提示策略显著改善了概念性任务的表现,表明细化的上下文构建能够在特定任务上提高可靠性与可解释性,但这些研究同时也暴露出跨领域泛化能力的局限与对模型内在不确定性理解的不足 。
从更广泛的理论视角出发,关于“上下文”的讨论长期存在工程化与认知化两种视角的张力:前者关注知识表示与系统接口,后者侧重交互情境与主体解释,两者虽处于不同层级,却需在工程实践中被共同调和,以避免在系统设计时忽略人与模型之间语用学与语境变迁的互动关系 。因此,将上下文视为单一维度的做法已显不足,现实需求要求发展一套跨层级的上下文工程方法,既能在知识表示层面提供稳健的检索与记忆机制,也能在交互层面支持可控、可调节的提示与会话策略,从而降低幻觉风险、改善长期交互一致性并提升用户可用性 ,。
基于上述演进与挑战,上下文工程被提出为连接模型能力与应用需求的枢纽,其研究任务不仅包括提示与模板设计、上下文窗口管理、检索与记忆体系的工程化实现,还涉及评估指标、可解释性与用户建模等跨学科问题。当前文献虽然在演示性与启发性研究上取得进展,但关于上下文的形式化表征、可度量的稳健性指标、以及面向长期、多模态交互的记忆维护策略仍然稀缺,这些空白限制了从实验原型向产业级系统转化的可重复性与安全性。为此,本报告将在后续章节中围绕上下文的表征与测量、工程化技术与系统设计、评估框架与基准构建,以及典型应用场景与未来研究方向展开论述,旨在为构建系统性且可操作的上下文工程实践提供理论依据与路线图。
2. 什么是大模型的上下文工程?
本章旨在在概念层面搭建关于“大模型上下文工程”的理解框架,以便后续讨论具备共同的出发点和评价标准。文章先对“上下文”这一多维构成及其在模型推断中的作用作出清晰界定,继而把概念性的困难与工程性瓶颈联系起来,指出这些限制如何塑造可行的设计目标。基于此基座,本章进一步把关注点转向上下文工程所追求的可控性、可靠性与可解释性,并梳理出在实现这些目标时不同策略之问的内在关联与权衡关系。总体上,章节从概念澄清到问题识别,再到目标导向的策略性思考,形成一个递进且相互依赖的论述脉络,帮助读者理解为何特定技术选择既是对症下药亦伴随新的工程挑战。
2.1. 上下文的定义、本质与挑战
在大模型研究语境中,“上下文”并非单一可量化的变量,而是一个多维度、层次化的概念,其核心在于如何约束和 disambiguate 自然语言的语义指向。早期关于词汇语义的研究提醒我们,自然语言解释本质上依赖于邻近的语言线索与更大范围的语用场景,例如“粘性短语”(lexical atoms)如“hot dog”的含义只有在具体语言环境中才能被可靠识别,这表明语境对词汇层面歧义消解具有决定性作用 。在更宏观的理论讨论中,关于“上下文”的讨论分为面向工程的问题与面向认知的问题:前者侧重于知识表示与可操作化的上下文单元,后者关注交互双方在沟通中的共同建构与动态变化;二者看似对立,实则处于不同分析层级,需兼顾语言内部的符号约束与互动层面的语境更新机制 。这种多层次视角提示,单靠对局部文本窗口的静态建模难以完整捕捉上下文的本质,因而对上下文的定义应同时包含语言编码(lexical/syntactic cues)、话轮与交互历史以及外部世界知识三类成分。
上下文的完整性与相关性直接决定大模型推断的质量。当前主流大模型在输入处理上仍以有限长度的标记序列为工作单元,这种“token-level sequential processing”的架构在处理需要长程依赖或抽象语义整合的任务时表现出系统性弱点,具体表现为对整体情境的把握不足和抽象推理能力受限,这在对细粒度诊断或跨段落语义整合等情形中尤为明显 。对教学与认知性问题的实证分析亦表明,即便在较为受控的概念性物理问题上,模型对复杂任务的处理也会因提示设计、上下文窗口的可获得信息以及模型内在表征的局限而出现不稳定或误解,从而影响输出的可靠性 。因此,上下文既是静态的输入条件,也是动态的推理资源:缺失或噪声化的上下文会放大模型“幻觉”的风险,使生成的陈述偏离现实证据与任务意图。
为缓解上下文不足导致的问题,信息合成与外部知识引入已成为重要策略。生成式信息检索与检索增强生成(RAG)等范式通过将外部语料库或知识库作为补充上下文,赋予模型更具证据基础的素材,从而在一定程度上降低幻觉发生率并提升可追溯性 。然而,检索-合成路径并非万灵药:一方面检索质量、检索时延与知识更新频率限制了其实时性与领域覆盖;另一方面,如何把异源信息在模型内部高质量地融合、避免引入不一致或互相冲突的证据,仍是一个开放问题。此外,提出通过提升表征层级与概念化能力来超越标记级处理限制的“概念模型”路线(large concept models)为解决长程语境与抽象推理提供了理论方向,但其工程实现与大规模多模态集成仍处于萌芽阶段 。因此,当前减轻上下文相关挑战的实用路径需在检索、融合与模型架构三方面协同推进。
综合来看,影响大模型上下文能力的关键挑战集中于数个交互性的因素:有限的上下文窗口限制了长程信息可达性,语料时效性与领域覆盖决定了外部知识的相关性,检索与融合机制的鲁棒性影响证据的可靠性,而模型内部表征的抽象化水平则限制了对整体情境的推断深度 ,,。这些挑战提示研究应超越单一手段,朝着能够保持上下文完整性与相关性、在交互层面动态更新语境表示并在模型架构上支持更高阶概念整合的方向发展,同时对检索源质量与合成策略进行严格的评估,以抑制幻觉并提高领域适应性 。
2.2. 上下文工程的核心目标
在上下文工程的核心目标中,提升模型在复杂任务中的表现与增强系统的可控性与透明度是相互交织的任务。将大模型操作组织为链式步骤(Chaining)提供了一条直接可行的路径:通过把一个步骤的输出作为下一个步骤的输入,链式结构能够将每一步的改进累积起来,从而在最终结果上实现显著增益。
相关交互系统的研究表明,用户在可视化和可编辑的链式框架内,不仅能够观察到中间结果、比较不同策略的下游影响,还能通过对子任务的“单元测试”来逐步定位并修正错误,这一过程同时提升了用户对系统决策流程的理解与对输出的控制能力()。因此,链式设计并非仅是性能优化的技术手段,更是一种赋能式的交互范式,使得人机协同能在复杂任务中通过模块化、可检查的步骤实现更可靠的推理和更精细的干预。
跨学科与专业领域的验证进一步表明,上下文工程通过系统化的提示策略和多阶段处理,能够在专业性强的任务上显著提高准确性并抑制不实信息的生成。以胃肠病学自评考试为例,在对多模态大模型实施逐步提示策略(包括 prompt engineering、检索增强生成、few-shot 学习以及基于 LLM 的答案验证与修订模块)后,GPT‑4 的总分由 60.3% 提升至 80.7%,并在图像与非图像题型上都获得了实质性改进;引入审校型的模型(AVRM)还能带来额外的约 4.4% 的准确率提升()。然而,这类收益并非普适:另一款模型在相同策略下的增益明显较小,未能达到及格线,表明上下文工程的效果在很大程度上受限于基础模型的能力与表征质量()。从方法论角度看,链式和分阶段提示策略共同强调了对中间表征、外部检索与后验审校的依赖,從而在减少幻觉、提高相关性方面展示了明确优势;但这也带来了潜在问题,包括中间步骤错误的级联传播、系统延迟与用户对链式设计细节的认知负担,以及当前实证评估多以有限规模用户研究或单一专业数据集为主,尚缺乏关于长期可用性、跨领域通用性与自动化链优化策略的系统证据(,)。因此,将链式结构作为提升质量、透明度与可控性的核心工具,需要与对模型能力边界的评估、对中间结果质量控制的机制以及对用户交互成本的考虑并行推进,为后续关于动态上下文管理与自动化链构建的研究奠定实证基础。
3. 大模型上下文工程的实现路径与关键技术
本章围绕“大模型上下文工程的实现”这一工程化命题展开,力图把散落于方法论、系统设计与部署权衡中的要素连接为一条清晰的实现路径。全文从构建初始任务上下文的基本手段出发,逐步过渡到将外部知识纳入并保障证据可信性的工程实践,再向能够支持多步分解与信息回溯的动态管理范式延伸,最终将局部策略嵌入到自适应智能体框架与面向大规模长上下文的效率优化之中。通贯各部分的是重复出现的工程关切:如何在精度、可解释性与延迟之间做平衡,如何通过模块化与审计机制维持可控性,以及如何以可度量的方式评估长期记忆与压缩策略的效用。读者可据此把握各子话题的因果与权衡关系,为后续技术细节和案例分析建立统一的概念框架。
3.1. 提示工程(Prompt Engineering):基础上下文构建
提示工程作为构建上下文的基础手段,其核心价值在于通过对指令、示例与格式约束的精心编排,引导大模型在特定任务上给出符合预期的输出。实证研究表明,合理设计的提示框架可以在缺乏大量标注数据的情形下显著提升模型表现。以临床命名实体识别为例,研究通过一个由基础任务描述与格式规范、基于注释指南的指令、基于错误分析的改进说明以及带标注的少样本示例四部分构成的提示框架,分别对GPT-3.5与GPT-4在MTSamples与VAERS两个数据集上进行了系统评估。使用仅含基础提示时,模型在MTSamples上的relaxed F1为0.634(GPT-3.5)与0.804(GPT-4),在VAERS上为0.301与0.593;将所有四类提示成分整合后,分数分别提升到0.794/0.861(MTSamples)与0.676/0.736(VAERS),表明分层提示策略能够通过增加任务约束与示例信息显著提高抽取性能,但在与专门微调的BioClinicalBERT(MTSamples F1=0.901,VAERS F1=0.802)比较中仍存在可观差距,提示工程虽能弥补部分资源不足带来的性能劣势,却难以完全替代领域特化模型的深度表征与归纳能力 。这一结果突出了提示工程的双重性质:其一为高效的样本利用与快速迭代工具,尤其在数据稀缺场景下具备实用价值;其二则为一种易受提示设计细节与评估方案影响的脆弱策略,要求更加系统化的提示构建与报告规范以确保可复现性与可比较性。
在用户化沟通与高风险信息传递的场景中,少样本提示与检索增强生成(RAG)等技术被证明能改善可用性与语用适应性,但仍存在特定准确性短板。面向携带阳性基因筛查结果的返还服务设计的聊天机器人采用了三步提示工程流程,结合RAG与少样本训练材料(如常见问答、遗传咨询脚本与患者问题),并通过专家评分对语气、清晰度、领域准确性等维度进行评估。该系统在专家评分中的总体均值为3.86/5,其中语气与可用性得分最高(均为4.25),而涉及项目或程序细节的“program accuracy”得分最低(3.25),反映出生成式模型在维持友好、易懂交流时表现良好,但在提供严格的程序性或规则性信息时仍需辅以明确规则或外部校验机制 。这与将提示策略串联并逐步增强的思路相吻合:在专业考试类任务中,研究通过顺序实施提示工程、RAG、五样本学习及基于LLM的答案复核模型(AVRM)等策略,使GPT-4的总体正确率从60.3%提升至80.7%,其中加入AVRM额外带来约4.4%的提升,并使得模型跨越了既定的及格线,表明多层次提示与复核机制能够协同增强决策质量与鲁棒性 。这些工作共同强调,提示工程在实际应用中通常不是孤立使用,而需要与检索、示例学习以及审核回路配合,以弥补单次生成的不可控性与误差倾向。
提示技术对大规模信息分析也展现出可观的扩展性,但其有效性依赖于设计策略与集成方法。针对信息保障与网络安全文献的跨时段自动总结研究表明,通过为检索与摘要任务设计针对性查询并采用提示集成(ensemble prompts)的方法,可以在关键词定义等任务上取得16.7%至29.6%的改进,并在多项评测指标中优于传统方法,显示出提示策略在处理海量异构文本时的可扩展优势 。与此同时,将提示作为更复杂系统的基石亦得到探讨:通过将LLM操作分解为可组合的原语并构建“链”(chain)——即让一步的输出成为下一步的输入——不仅提高了任务结果的质量,也显著增强了系统的透明性与可控性,参与者在对链结构进行单元测试与并行比较时发展出新的调校与调试方法,这为将提示工程嵌入多步、可审计的人机协作流程提供了实践路径 。然而,这些方法也暴露出若干研究空白:现有工作大多侧重于任务层面的性能提升或用户感知评价,缺乏统一的提示构成要素度量(例如指令长度、示例多样性、思维链暴露程度与格式约束的定量影响),以及在跨域与跨模型间的可迁移性研究较少;此外,提示带来的性能改善往往对提示编写者经验高度敏感,导致可复现性与公平性问题。
综合现有研究,提示工程的实际价值在于通过明确的指令、少量示例、角色扮演与思维链等手段快速构建任务上下文,并可通过与检索、集成提示和审校回路的结合进一步提高专业任务的可靠性。但要将其作为高风险领域的长期解决方案,还需要系统化的提示设计原则、严格的评估范式以及混合治理(例如引入规则化校验或领域模型)来弥补生成模型在细节准确性与可控性方面的固有限制。
3.2. 检索增强生成(RAG):外部知识的引入与管理
本节围绕检索增强生成(RAG)展开,旨在把握其作为上下文扩展手段的核心逻辑并搭建对工程实践的理解框架。首先解析RAG内部的协同机制与常见瓶颈,揭示检索质量与证据融合如何共同制约最终生成的可靠性。随后将视角扩展到实际部署中遇到的领域适配与工程权衡,讨论不同应用场景在精度、可解释性、延迟和合规性之间的张力及其对系统设计的影响。最后尝试在方法论层面整合这些观察,指出将针对性微调与模块化检索策略结合、以及评估体系需要同时考量忠实度与可审计性的必要性。整段论述旨在为后续细化的技术细节和案例分析提供贯通的概念地图,帮助读者把握各部分之间的因果与权衡关系。
3.2.1. RAG的工作原理与架构
检索增强生成(RAG)的核心在于将外部知识检索与生成模型的条件化融合为一个协同工作流,其基本架构可被理解为两个相互依赖的阶段:检索阶段负责从大规模、多源的知识库中高效且精确地定位与用户查询最相关的信息;生成阶段则负责将这些检索到的证据与原始提示(prompt)结合,生成语义连贯且事实丰富的响应。以企业级、面向实体的工程实践为例,相关工作表明,将组织结构或实体层级编码为树形表示并用于生成补充分上下文(即“树式”实体增强)能够显著提高面向特定实体查询的检索命中率与回答准确性,这在面向私有文档的问答部署中被验证为比单纯的 RAG 或简单微调更鲁棒(见对企业文档应用的经验描述)。在检索层面,RAG 实现多样:从基于向量检索的单阶段最近邻检索,到采用层次化索引与多阶段检索以过滤并精炼候选证据;针对表格或半结构化数据的场景,提出的层次化记忆索引与图感知提示机制旨在解决跨表证据分布、表内表间关联建模和高效筛选的问题,从而在多表问答任务上取得更高的召回与推理性能。另一方面,特定领域文档(例如电信标准)由于术语密集、版本迭代快和语义细粒度复杂,要求对预处理、分块策略和相似度度量进行领域适配,借助行业定制的索引设计与检索策略才能在实践中达到可用的检索精度与响应速度。需要强调的是,检索质量常常成为 RAG 整体性能的瓶颈;针对需要多跳证据组合的问题,现有检索与推理流水线仍表现不足,这在专门为多跳问题构建的评测中已被明确指出,从而暴露出检索器语义覆盖与跨证据推理能力的双重短板。
生成阶段的关键问题在于证据融合与稳健性:生成器既要有效利用检索到的片段作为条件信息以降低幻觉风险,又要在提示长度和信息冗余之间取得平衡。端到端地微调整个 RAG 架构(包括检索器与生成器的联合训练)被证明可以在问答任务上超越传统的解耦式管线,原因在于联合优化可以直接将生成目标反向影响检索表示,从而提升检索与生成的一致性,但这种做法伴随较高的工程复杂度和计算成本,需要解决梯度流、索引更新与隐私约束等实际问题。此外,将结构化知识图谱或本体与检索过程耦合,能够在某些应用中提供更丰富的关系性信息与可解释性,从而改进生成模型在需要精确实体或关系推断任务中的表现;这一思路也被拓展到多模态生成,例如将图基检索用于增强文本到图像的扩散模型,以动态检索角色属性及其关系并用于细粒度视觉约束,实现对复杂文化或语境化主体的更准确描绘并辅助自我修正机制,。批判性地看,尽管架构具有高度的灵活性——可以替换检索后端、调整索引结构、采用多阶段检索并对检索器或生成器进行微调——这种灵活性同时带来了模型泛化与维护成本的张力:高度定制的检索策略在特定任务上能显著提升性能,但可能损害跨域迁移能力并增加部署复杂性,尤其在受限计算或需本地部署的场景下。此外,关于如何系统性评估跨格式(文本、表格、图)检索与生成耦合效果、如何提高多跳推理鲁棒性以及如何在保证隐私与低延迟的前提下进行端到端微调,仍是当前 RAG 研究与工程实践中的未解之题。
3.2.2. RAG在特定领域的应用实践
在专业化场景中,检索增强生成(RAG)技术的应用呈现出既能显著提升知识检索与生成质量、又面临领域特有约束的双重特征。以胃肠病学聊天机器人GastroBot为例,研究通过对嵌入模型在包含25条胃肠病学指南的语料上进行微调,并结合llama-index构建检索-生成流水线,报告了显著的性能提升:上下文召回率为95%,答案忠实度为93.73%,相关性为92.28%,并且相较于基础嵌入模型在命中率上提高了18%,比OpenAI的Embedding模型高出20%()。这些结果说明,针对性微调嵌入能够在受控知识库内大幅提高召回与答案质量,从而有效降低LLM幻觉和错误信息传播的风险。然而,这类以有限权威指南为核心的优化策略也存在潜在局限:语料规模与覆盖范围的受限可能导致对罕见病种、最新研究成果或跨学科诊疗情境的泛化能力下降,人工评估的主观性与再现性问题亦需在后续工作中通过更大规模、盲评和多中心验证来缓解()。
在司法辅助场景中,RAG系统不仅要求高精度检索与生成,还必须满足严格的法律合规性约束。对日本诉讼支持的研究强调三项核心要求:检索模块不得依赖私人知识而应检索与争点相关的适当外部资料;生成回答必须忠实于所提供的上下文来源;检索结果需要附带与争点相匹配的时间戳以保证证据链的时序性()。这些规范化要求对系统设计提出了明确的工程挑战:一方面需在检索策略中嵌入可审计的来源标注与时间戳机制以支持司法可追溯性,另一方面必须在生成策略上严格限制模型的自由发挥以避免超出证据范围的推断。与GastroBot在提高忠实度方面的实践形成互补,司法场景的合规需求提示RAG实现不仅仅是优化召回和相关性,还要将可证明的溯源、时间信息与法定证据规则作为系统输出的第一等约束(, )。
金融科技领域的研究则揭示了领域术语、密集缩略语和本体复杂性对检索与语义对齐的挑战,并提出基于多智能体的RAG架构以应对这些问题。该体系通过智能查询重写、基于关键短语的迭代子查询分解、上下文内缩略语解析及跨编码器的语境重排等模块来提升检索精度和相关性,实验显示在精确性与相关性上优于标准RAG基线,但以延迟增加为代价()。这些方法论上的探索为医学与司法场景提供了可借鉴的技术路径:例如,针对医学术语消歧与司法时间戳的自动化解析可以通过专门的子模块实现,但系统复杂度和响应时延的权衡必须结合应用场景的实时性与安全性需求来决策。特别是在临床决策支持或庭审过程中,不能单纯以检索精度为唯一优化目标,还需考虑可解释性、延误的法律或临床后果以及审计能力(, )。
综合上述实践,可以观察到两条相互补充的发展路径:一方面,通过对领域语料的目标化微调(如GastroBot的指南微调)可以在受控知识域内高效提高召回和忠实度,减少错误信息传播;另一方面,多模块、agentic的检索与解析机制能够处理领域内的语义复杂性与合规性要求,但会带来工 程复杂性与延迟成本。未来研究应聚焦于将这两类策略有机结合,构建既能保持高召回与忠实度、又具备明确溯源与时序标注能力的混合架构;同时需在评估框架上引入对合规性和实时性权衡的量化指标,以促使技术改进在临床、司法和金融等高风险领域具备可操作的安全边界(, , )。
3.3. 动态上下文管理与高级推理
在突破大模型能力瓶颈的路径中,动态上下文管理与高级推理并非两个孤立的技术点,而应被视为共同构成可扩展认知架构的两条互补线索。Graph of Thoughts(GoT)提出的核心贡献在于将模型生成的信息构造成任意图结构,其中“思考单元”作为顶点、依赖关系作为边,从而超越链式思维和树式思维的线性或分支限制,实现更灵活的多步分解与交互式整合。这一图结构不仅允许将局部结论以多路径方式组合为协同结果,还能通过回路实现对先前结论的增强或修正,使得复杂任务(例如需要多维证据整合或互相校验的排序问题)能够在保持计算效率的同时显著提升质量——文献报告在若干任务上相较树式方法能实现质量增长与成本下降的同步改善,凸显了图形化推理的潜力 。然而,GoT 的强表达能力也带来检索与搜索空间复杂度的上升、跨节点一致性验证的难题以及在节点合并过程中潜在的事实漂移风险;因此,仅有图结构的表述并不能完全解决长时程信息维持的问题,必须与有效的上下文压缩与记忆管理机制结合,才能在实际系统中实现可扩展的长链推理。
在应对上下文窗口限制方面,基于摘要的上下文管理为训练与推理流程提供了务实的解决方案:将历史工具调用或对话周期性压缩为保留任务相关性的信息片段,以此维持紧凑的工作上下文并延展模型的长程能力。提出的 SUmmarization augmented POlicy Optimization(SUPO)不仅在工程上通过周期性摘要减轻了上下文负担,而且在理论上将摘要策略纳入到策略梯度的端到端优化框架,使得摘要与工具使用行为可以联合学习,从而在长时程多轮工具使用任务上提高成功率并可在测试时通过增加摘要频率进一步获益 。尽管该方法证明了摘要驱动的管理能够突破固定窗口的限制,但其有效性强烈依赖于摘要的保真度与下游决策对细节的敏感度:过度压缩可能导致关键信息丢失,训练时的压缩策略若与实际部署场景不匹配亦可能降低鲁棒性;此外,将摘要策略与行为策略共同优化,虽然理论上统一了目标,却可能加剧样本复杂性与训练开销,需要在样本效率与长期泛化方面进行更细致的评估 。在这一点上,集成提示与多模型汇聚的摘要方法提供了可借鉴的方向:相关研究表明,通过模型与提示的集成可以在若干评测指标上显著提升摘要质量并保持逻辑完整性,这为在压缩过程中降低信息丢失与提升摘要稳健性提供了实证支持 。
将图结构推理与基于摘要的上下文管理结合,构成应对复杂任务分解与信息整合的有希望路径:可以将 GoT 中的子图或语义簇作为压缩与归纳的单位,通过学习到的摘要策略对这些子结构进行动态抽象与存档,以在维持跨子图依赖关系的同时控制活跃上下文的规模。实现这一整合需要解决几个关键问题,包括如何在保持可追溯性的前提下定义可压缩的子图边界、如何评估摘要对图中连通性与证据链的影响、以及如何构造可微的目标以同时促进准确的推理和高保真的压缩。未来工作应增加针对信息保留度、摘要不可逆性与图结构一致性等专门的评价指标,并探索混合启发式与学习驱动的搜索策略以在可控计算预算下寻找高价值的思考路径;只有在图化推理的表达力与摘要驱动的记忆压缩之间建立稳定的反馈环路,动态上下文管理才能真正突破当前大模型在长程、多步骤推理场景中的能力瓶颈。
3.4. 智能体(Agentic AI)架构:动态与自适应上下文管理
本节着眼于将大模型置于智能体控制核心时,如何以工程化视角管理不断演化的上下文,从而支撑多步骤自主行为与跨模态任务执行。论述脉络由宏观的构架与控制问题入手,沿着动态上下文的读写与传播机制,过渡到智能体在真实工作流中与外部工具、记忆与验证机制互动的实践考量,最终指向工程化落地所面临的可靠性、成本与可治理性权衡。整个叙述强调逻辑上的递进:系统设计如何决定运行时一致性与可观测性,运行时的策略又如何反馈回设计约束并暴露测量与治理需求。通过这种结构化的推进,读者将被引导去理解为何模块接口、溯源机制与成本感知的记忆策略是实现可验证、自适应智能体的关键,并为后续具体方法和案例分析奠定概念框架。
3.4.1. 智能体上下文管理的核心要素
智能体的上下文管理在工程上既是一组明确的模块化构件问题,也是关于这些构件如何随时间协同演化的控制论问题。将智能体定义为面向目标、使用工具并在闭环中运行的决策主体后,可靠性与可控性主要依赖于原则化的组件化设计:目标管理器、规划器、工具路由器、执行器、记忆模块以及验证器、安全监控与遥测等治理设施共同构成了维持和传播上下文的骨架()。在此框架下,上下文并非单一的静态信息存储,而是包括内部目标与分层计划、工具调用及其返回结果、历史交互轨迹和环境观测等多模态内部状态,这些要素在运行时不断被读写、合并与再表征,从而支持后续推理与行动决策()。
对这些构件如何在实践中维持一致性与可追溯性,近年的研究提供了互补而又相互揭示不足的视角。工程性规范如项目级上下文文件(例如 AGENTS.md)将关于项目结构、构建测试与编码规范的描述作为可版本化的、自动注入的上下文片段,从而把外部工程知识显式化为智能体可直接消费的内部状态;然而对这种做法的实证研究显示,目前格式和内容存在高度异质性,标准化缺失导致上下文质量波动并增加对齐失败的风险()。在决策透明与可审计方面,针对 agentic 工作流的溯源模型(PROV‑AGENT)主张将 prompts、响应、决策等代理特有元数据纳入端到端的可观测性体系,并借助 Model Context Protocol 等机制实现与工作流其它元素的关联,这对识别错误传播链条和评估幻觉风险至关重要,但同时引入了实现复杂性与运行开销,需要在可解释性与效率之间进行工程权衡(,)。多模态代理的实例亦表明,基于记忆的策略选择与目标导向的注意力机制可以使智能体在未知领域实现零样本泛化,但这同样依赖于记忆表征的质量及其与规划器、工具路由器之间的接口定义()。
上下文的动态性、迭代性与自适应性在实践中表现为多重工程挑战与可行策略之间的权衡。智能体常通过迭代推理和工具调用来逐步细化计划,因而需要具备事务性语义、幂等性保证与权限最小化等接口约束以避免状态不一致或错误级联()。与此同时,长时间的上下文累积会带来显著的计算与经济成本;在软件工程智能体中,对原始观测进行屏蔽、基于模型的摘要或混合方法在成本与解题率上各有优劣,初步证据显示简单的观测掩蔽即可在显著降低开销的同时保持或改善求解性能,这提示记忆压缩与选择性遗忘应成为上下文治理的核心技术方向()。现有工作虽提出了类型化 schema、内存溯源与运行时治理(预算、终止条件)等设计要点,但在如何将这些原则在异构工具生态中工程化落地、如何衡量上下文干预对决策质量的因果影响以及如何兼顾隐私与可溯源性方面仍有明显研究空白(,,)。这些差距表明,面向现实部署的上下文管理不仅需要更精细的模块接口与协议,还需要可度量的溯源机制与成本感知的记忆策略,以支持智能体在动态环境中实现可验证且经济适用的自适应行为。
3.4.2. 智能体在复杂任务中的应用
智能体架构在处理化学和生物医药等复杂任务时展现出与传统静态大模型不同的能力谱系,核心在于其对上下文的动态管理与与专业工具的高效交互。Coscientist作为这一范式的代表,借助GPT‑4为认知内核,整合了网络与文献检索、代码执行以及实验自动化等外部工具,从实验设计到执行形成了闭环工作流,进而实现了对多步实验流程的自主规划与实施;在实例验证中,该系统完成了钯催化交叉偶联反应的反应优化,并在六类不同任务上展示了加速科研的潜力,体现了基于工具增强的语言模型在实证科学研究中的可操作性与可解释性 。这一工作突出了智能体在维持并更新实验上下文、将自然语言规划转化为可执行代码与自动化指令、以及在实验反馈驱动下调整策略方面的技术可行性,表明通过工具链化的上下文扩展,智能体能够超越单一预测或生成任务,进入跨模态、跨步骤的实验决策空间 。
尽管如此,智能体全面替代人类在复杂科研流程中扮演的角色仍面临关键瓶颈,其中之一便是构建与部署可与实验闭环无缝协同的高质量性质估计模型。在计算机辅助药物设计中,属性预测模型的准确性与稳健性直接决定了自动化策略的效用,而这正是MolAgent所针对的难题:该框架提出了端到端的自动化建模流水线,涵盖特征工程、模型选择、集成策略与严格验证,并支持2D/3D构象信息与预训练编码器提取的深度特征,从而为代理系统提供可复现且可插拔的估计模块;其遵循的Model Context Protocol(MCP)也为与不同代理基础设施的互操作性奠定了规范化基础 。因此,将Coscientist类的闭环实验智能体与MolAgent类的高保真属性建模组件结合,能够在理论上实现“实验-建模-决策”三者的循环增益,提升自动化药物发现管线的可靠性与效率 ,。
需要强调的是,当前成果虽展示了范例级别的成功,但在通用性、鲁棒性与治理层面仍存不足。工具驱动的智能体易受外部知识源与自动化执行环境的不确定性影响,实验闭环中的误差传播、模型过拟合实验条件、以及自动化决策与科学假设之间的对齐问题,均要求引入更严格的验证标准与人工监管机制;同时,实现跨平台、跨学科的可伸缩性需要更多关于上下文协议、错误可追溯性与安全策略的工程化工作 ,。因此,未来研究应聚焦于标准化模型上下文描述、增强模型-实验交互的可解释性与容错性,以及建立代表性基准以量化智能体在真实科研场景中的增益与风险。
3.5. 长上下文处理与效率优化
在长上下文能力的扩展方面,最近工作表明,以数据工程为中心的轻量级持续预训练能够以较小规模的数据投入显著延长模型的上下文窗口,同时保持或提升信息检索的有效性。研究指出,通过对模型进行持续预训练并精心构造训练混合,使用约 $5\times10^8$ 到 $5\times10^9$ tokens 的数据即可使模型在 $128\mathrm{K}$ 长度的上下文内实现对任意输入位置的信息检索能力,这一结论强调了数据数量的“足够性”而非无限扩展的必要性,同时凸显了数据质量——尤其是领域均衡与长度上采样策略——对效果的决定性影响()。该研究进一步指出,单纯对某些长文本域(如书籍)进行过度上采样的做法并不总是最佳,反而需要在域间保持平衡以避免偏置,并通过针对性地上采样长文本片段来增强模型对长程依赖的稳健性()。这种以数据为主导的路径比起从头设计复杂的新型注意力机制,具有实施门槛更低、与现有模型兼容性更强的优势;但同时也存在若干局限,例如获取跨域且长度分布合适的高质量语料的现实难题、持续预训练对原有模型分布的潜在扰动,以及在不同位置无偏检索能力是否等同于语义理解能力需要更细化的评估指标来判定()。
在提升推理效率与资源利用方面,面向吞吐量的系统优化提供了互补性的解决路径。提出的“普适性上下文管理”通过识别并复用LLM应用中的共享计算上下文,结合机会性资源的动态调配,能够在吞吐量导向的情形下大幅降低执行时间;实证结果显示,在合适的工作负载与资源池设置下,整体执行时间可降低至约 $98.1%$()。这一方法的核心价值在于通过软件层面的调度与缓存策略将空闲或临时可用的算力转化为有效吞吐,而不是依赖持续的昂贵硬件投入。然而,普适性上下文管理的收益并非无条件普适:其效果依赖于工作负载中上下文复用的频率与一致性,且在异构或不可靠的机会性资源上需要额外的状态管理、容错和安全策略以避免语义错误或泄露风险()。此外,将数据驱动的持续预训练与系统级的上下文管理相结合,理论上可以在同时扩大上下文窗口与提高吞吐率两方面获得协同效应,但实现这一协同需要解决模型状态同步、长序列内存管理以及在稀疏注意力或分块处理等架构调整下的上下文一致性问题。总体来看,持续预训练在可控的数据预算下为实现 $128\mathrm{K}$ 级上下文提供了可行且成本相对可接受的路径,而普适性上下文管理为吞吐量导向的部署场景带来了显著的系统级效率提升;未来需要更多关于不同预训练配方在多样化下游任务上的横向对比、对长序列位置编码与注意力机制可扩展性的理论分析,以及在机会性资源环境中保证上下文安全性和一致性的工程实践报告,以填补当前研究中尚未充分讨论的空白(,)。
4. 实践价值与典型应用场景
本章以行业实践为纽带,强调上下文工程从能力构建到业务落地的内在连续性与权衡考量。后续讨论先从如何通过有针对性的上下文设计提升模型在专业域中的可用性与可靠性出发,继而探讨这些能力如何被整合进跨学科、跨系统的自动化工作流以产生实际效率与决策增益。两部分内容并非孤立:领域化能力为工作流自动化提供语义与知识基座,而工作流需求又反过来驱动对上下文管理、可追溯性与评估机制的严格要求。贯穿全章的是对实用价值的批判性审视——包括部署成本、系统复杂性、风险治理与运维可行性——旨在为读者提供既能指导方案设计又能支持评估与落地决策的宏观视角。
4.1. 提升特定领域LLM的专业能力
在特定垂直领域使通用大模型发挥专业能力,关键在于对上下文进行工程化的设计,包括提示工程(prompt engineering)、检索增强生成(RAG)与参数高效微调(PEFT)等技术的协同应用。近年来的工作表明,通过零样本或少样本的提示策略——即零样本与少样本的 in‑context learning(ICL)——以及更结构化的提示方法如 Chain-of-Thought(COT)和 Tree-of-Thought(TOT),通用LLM能够在无需全面重训练的情况下,迅速承担诸多领域任务,这一点在对模型辅助药物开发(MIDD)的讨论中被反复强调:适当的提示设计可以将单一基础模型以可配置方式用于信息抽取、数据清洗和结构化查询转换等场景,从而显著节省针对性标注与工程投入 。然而,提示工程并非万灵药:设计的脆弱性体现在跨模型或语法微调时输出稳定性差异显著,且在若干实际任务中(尤其涉及价值判断或复杂医学决策的题目)即便引入COT也不必然改善推理表现,这在胃肠专科的评测中已有直接观察 ,。
检索增强生成(RAG)通过把外部领域知识库作为上下文来源,显著提高了事实性与可解释性的输出,尤其在需要引用权威数据集(例如CPIC用于药物基因组学)的场景下效果明显。将RAG与上下文感知的LLM结合用于药物基因组学问答的实证研究显示,与非检索版本相比,系统在提供专业化回答与引用准确性方面具有优势,同时显现出在提供针对“提供者特定”查询时的改进潜力,但仍需通过提示与系统性守卫(guardrails)来控制准确性与代表性语言的平衡 。在其他高度技术化或法规敏感的领域(如金融科技、电信标准或法庭证据准备),工作者提出了面向任务分解、首尾缩写解析与上下文再排序的“agentic RAG”或领域专用RAG框架,以提升检索精度和语境相关性,但这些改进常以系统复杂度和响应延迟为代价,并暴露出对检索模块质量的强依赖——检索错误或上下文窗口限制会直接导致下游生成的误导性或遗漏 ,,。此外,在法律和审计等需时间戳与溯源要求的应用中,RAG系统必须满足严格的可追溯性与忠实性约束,否则难以取代人工专家的判断 。
针对计算与隐私限制,参数高效微调(PEFT)如LoRA提供了在冻结大部分预训练权重的前提下,通过少量可训练参数快速将通用模型转为领域化模型的可行路径,这既支持多任务适配、也便于在本地或可控环境下部署多个领域适配器,从而缓解全量微调带来的存储和计算负担 。当上下文工程与PEFT结合时,模型能在少量示例或有限标注下产生可操作的洞见:临床试验领域的一项实践表明,通过为LLM定制提示并将其用于协议偏差(protocol deviation)文本的自动分类,可以在分钟级别识别出潜在影响疾病进展的偏差,生成可供专家复核的行动线索,显著优于传统人工分析所需的时间成本 。尽管如此,这类“可操作洞见”仍依赖于高质量的检索上下文、严谨的评估标准与专家监督;多项综述与领域研究指出,关于评价基准、可解释性、偏差控制与生成幻觉(hallucination)的治理仍是阻碍大规模、安全部署的核心问题 ,。
综上,提示工程赋能的零/少样本能力、RAG提供的领域知识落地路径以及PEFT降低的适配门槛,共同构成了将通用LLM快速专业化的实践框架。
在具体应用中,应有意识地将这些技术以任务驱动方式组合:利用提示和ICL进行快速原型与数据发现,借助RAG引入权威外部知识并明确溯源要求,最后以PEFT形式在受控环境中微调领域适配器,同时辅以严格的人类审查与透明的评估指标,以遏制错误输出并满足专业场景的安全与合规需求 ,,.
4.2. 赋能自动化与智能化工作流
在面向工程工作流的实际应用中,基于大模型的端到端自动化方案已经展现出明显的效率和决策质量提升潜力。针对油井设计与审批等需要跨学科输入和历史事件比对的复杂流程,有研究提出将大语言模型与检索增强生成(Retrieval Augmented Generation, RAG)及向量嵌入相结合,以自动化原本耗时的资料检索与审阅环节,使工程师能够以“对话”方式快速定位并分析附近井和历史事件的数据,从而在风险识别与设计评估上获得更高的覆盖度与一致性()。该工作强调了两类实践要点:一是通过嵌入与索引把异构的历史记录编码为易于检索的上下文单元,从而把外部知识有机地供给模型;二是将LLM的生成能力与现有的风险分析工具并置,既保留了行业验证的分析方法,又通过重新设计的人机交互界面显著降低了人工查找和准备数据的成本()。
然而,这类方案的有效性高度依赖于检索索引的质量与先验数据的准备;预处理过的偏好数据集虽能提升检索命中率,但也带来可迁移性和规模化成本问题。研究自身亦指出了系统复杂性、实施代价与运维挑战,表明在实现自动化增益的同时必须严肃对待检索精度、来源可追溯性和人机协同的边界()。
从非结构化文本中提取程序性信息的能力为将大模型嵌入复杂工作流提供了另一条重要路径。针对从PDF等文档中抽取操作步骤与程序性知识的研究表明,利用最新的大规模预训练模型在零样本与上下文学习场景下,即便在缺乏大规模标注数据的情况下,也能通过引入本体式定义或少量示例的in‑context learning显著提升程序抽取的精确性与连贯性()。这一能力使得模型不仅能够检索相关历史事件,还能把检索到的文本转化为可执行的步骤或检查表,从而直接驱动后续的自动化数据分析与报告生成流程。相比之下,纯生成式方案若缺乏结构化的程序性上下文,易出现步骤遗漏或执行顺序错误;而基于文本挖掘得到的程序化表示则为闭环自动化提供了必要的操作语义和可验证的中间产物()。尽管如此,此类方法仍面临领域适应与语义歧义的挑战,需要在上下文工程中引入更严格的本体、检索反馈机制与人工校验环节,以控制幻觉风险并保证决策可审计。综上,当前的研究表明,通过将RAG/嵌入机制与程序性文本挖掘相结合,并通过精心设计的上下文管理策略供给模型以正确的外部知识链路,可以显著提升工程类工作流的自动化程度与决策质量;同时,这也提示了对检索质量、数据前处理和系统可运维性的持续关注,为后续评估实际价值与部署路径的讨论提供了实证基础(,)。
5. 挑战、未来趋势与展望
当前大模型在处理复杂推理与深度上下文理解时暴露出的根本性限制,既源于其训练与架构范式,也源于工程化使用场景中的资源和安全约束。具体而言,基于 token 级别的顺序处理范式被指出会限制模型实现“整体性上下文理解”(holistic contextual understanding)的能力,这一限制在需要跨越长程依赖、抽象概念联结和多模态语义融合的任务中尤为明显,从而妨碍了精细化诊断或高阶推理的可靠性与可解释性 。与此相呼应,关于生成式信息访问的综述强调了生成模型在信息合成与外部知识接入方面虽具潜力,但同样面临诸多“潜在挑战”,包括幻觉、检索一致性与多模态融合集成的困难,这表明简单放大模型规模并不能自然解决语义层次化、长期记忆与事实对齐等问题 。从方法论上看,这两条线索共同提示需要从 token 层级的序列表征向更高阶的概念式表征(concept-level representations)和结构化上下文建模转变,以便支持跨文档、跨模态、跨时序的整体推理能力 ,。
在工程实践层面,RAG(Retrieval-Augmented Generation)框架虽被广泛采用以弥补模型知识盲区,但其部署与维护暴露出多重现实约束。企业级问答与专有文档检索场景要求在保证数据安全和可部署性的同时,在有限算力上提供稳健响应,这往往需要对检索器、检索结果筛选和模型微调进行高度定制化;相关经验表明,仅建立基本的 RAG 管道并不能满足稳健性需求,诸如层级化实体上下文(如 Tree-RAG)的设计可以在一定程度上提升检索语境的相关性,但也带来了工程复杂性与维护成本 。在处理高度技术化文本(例如电信标准文档)时,检索噪声、格式异质性和专题偏差会显著降低 RAG 的效能,专门为领域文本构建的框架虽然能缓解部分问题,但仍受限于上下文窗口的硬性限制和检索器固有偏差 。此外,长期运行的代理系统面临的上下文膨胀问题促使研究者探索总结与掩蔽策略的权衡,实证研究表明简单的历史观测掩蔽在成本-效果权衡上有时能与昂贵的 LLM 摘要方法匹敌,甚至优于之,提示在实际工程中应更谨慎地评估复杂性带来的边际收益 。与此同时,关于为 AI 代理提供项目级上下文的研究指出,现实项目中上下文呈现形式极为多样,这种结构与呈现的异质性本身就是一个尚未被充分标准化的工程问题,影响生成质量与可维护性 。
面向未来,两个互补的发展方向值得优先投入研究与工程实践:一方面,朝向更智能的上下文感知与筛选机制演进,包括动态上下文选择、层级化语义缓存、基于置信度的证据融合以及检索结果的去偏校正;另一方面,需要从 token-顺序表征迈向概念化、大尺度语义单元与多模态融合的体系,这正是“大型概念模型(LCM)”与多模态数据整合所主张的路径,期望通过高阶语义表示实现更强的长程推理与跨模态一致性 。实现上述目标还要求在评价尺度上进行革新,开发能够衡量长期上下文保持、概念连贯性与检索公正性的基准,同时在安全与可部署性方面制定工程规范,例如对在地(on-prem)部署的隐私保护、检索日志审计和领域微调流程形成标准化实践 ,。最后,针对代理与项目级上下文管理所反映的异质性问题,需要研究可互操作的上下文配置标准与工具链,以减少人工维护负担并提升上下文提供的一致性与可解释性,进而为概念化模型与多模态融合的实用化创造更可控的输入接口 ,。
6. 结论
本章回顾并凝练了上下文工程的核心内涵与实践价值:将上下文工程视为一种通过结构化提示、检索增强、链式思维、工具使用与动态上下文管理等手段,将大模型的潜在能力转化为可控、可复用和可度量的应用能力的工程学科。这一视角强调,上下文工程并非仅限于提示词的艺术性调整,而是涵盖对上下文表示、信息检索策略、记忆压缩与更新机制以及运行时决策流程的系统化设计,因此在应对模型幻觉、分布偏移与有限上下文窗口等核心问题上发挥着关键桥梁作用 。然而,现有实践在方法论上仍显零散:许多技术方案更多依赖工程经验与任务特化的启发式设计,而缺乏统一的理论框架和可迁移的评估范式,这使得方法的可解释性、鲁棒性与跨域泛化能力难以保证。
在批判性考察现有研究与产业落地经验后,可以辨识若干未被充分解决的要点。首先,扩展上下文容量与压缩重要信息之间存在根本性的权衡,现有的压缩与选择机制在保证语义完整性与降低计算代价之间尚未达成稳定折衷;其次,自动化的上下文构建与筛选仍依赖于大量人工标注或任务特定的策略,限制了系统的自适应能力并增加了维护成本;再次,关于上下文工程对模型可信性、隐私泄露风险与合规性影响的系统性研究稀缺,导致在敏感场景中难以形成可审计的实践标准。此外,评价指标的碎片化使得不同方法难以在公平基准下比较,这在一定程度上阻碍了领域方法论的积累与优化迭代。
面向未来,推进上下文工程成为连接大模型研究与实际应用的长期枢纽,需在若干方向上同时发力。理论层面需构建关于上下文信息价值、选择与压缩的形式化框架,以指导算法设计并提供性能与复杂度的可证明界限。工程层面应推动可组合的上下文管理平台化,使检索器、压缩器、记忆模块与策略学习器成为模块化组件,从而支持跨任务迁移与低成本适配。评估与治理层面则需要统一的基准任务、开放数据集与审计流程,以衡量上下文工程对可靠性、隐私与公平性的影响。社会技术协同尤为重要,应同步发展人机协作的最佳实践与监管指南,确保上下文驱动的系统在提升效用的同时维持可控性与透明性 。
总结以上,实务与研究的交汇处将继续由上下文工程来承载技术进步向广泛应用的传导:通过将零散的技巧组织为可验证的设计模式,并将工具化的平台能力与严格的评估体系结合,上下文工程能够显著提高大模型在复杂现实任务中的实用性与可靠性。未来的工作既要求对基本问题进行理论化探索,也需要在工程化实现与治理规范上取得同步进展,从而使上下文工程真正成为推动大模型可持续落地的核心驱动力。
References
[1] Tyler Thomas Procko, Timothy Elvira, Omar Ochoa.(2024). Dawn of the dialogue: AI's leap from lab to living room..
[2] Qingyao Ai, Jingtao Zhan, Yiqun Liu.(2025). Foundations of GenIR.
[3] Giulia Polverini, Bor Gregorcic.(2023). How understanding large language models can inform the use of ChatGPT in physics education.
[4] Patrick Brézillon.(1999). Context in artificial intelligence : II. Key elements of contexts.
[5] Chengxiang Zhai.(1997). Exploiting Context to Identify Lexical Atoms -- A Statistical View of Linguistic Context.
[6] Suleman A Merchant, Neesha Merchant, Shaju L Varghese, Mohd Javed S Shaikh.(2025). Large language models and large concept models in radiology: Present challenges, future directions, and critical perspectives..
[7] Tongshuang Wu, Michael Terry, Carrie J. Cai.(2022). AI Chains: Transparent and Controllable Human-AI Interaction by Chaining Large Language Model Prompts.
[8] Jamil S. Samaan, Samuel Margolis, Nitin Srinivasan, Apoorva Srinivasan, Yee Hui Yeo, Rajsavi Anand, Fadi S. Samaan, James Mirocha, Seyed Amir Ahmad Safavi‐Naini, Bara El Kurdi, Ali Soroush, Rabindra R. Watson, Srinivas Gaddam, Joann G. Elmore, Brennan Spiegel, Nicholas P. Tatonetti.(2024). Multimodal Large Language Model Passes Specialty Board Examination and Surpasses Human Test-Taker Scores: A Comparative Analysis Examining the Stepwise Impact of Model Prompting Strategies on Performance.
[9] Yan Hu, Qingyu Chen, Jingcheng Du, Xueqing Peng, Vipina K. Keloth, Xu Zuo, Yujia Zhou, Zehan Li, Xiaoqian Jiang, Zhiyong Lu, Kirk Roberts, Hua Xu.(2024). Improving large language models for clinical named entity recognition via prompt engineering.
[10] Emma Coen, Guilherme Del Fiol, Kimberly A Kaphingst, Emerson Borsato, Jackilen Shannon, Hadley Smith, Aaron Masino, Caitlin G Allen.(2025). Chatbot for the Return of Positive Genetic Screening Results for Hereditary Cancer Syndromes: Prompt Engineering Project..
[11] Andrés Leiva-Araos, Bady Gana, Héctor Allende-Cid, José García, Manob Jyoti Saikia.(2025). Large scale summarization using ensemble prompts and in context learning approaches..
[12] Masoomali Fatehkia, Ji Kim Lucas, Sanjay Chawla.(2024). T-RAG: Lessons from the LLM Trenches.
[13] Jiaru Zou, Dongqi Fu, Sirui Chen, Xinrui He, Zihao Li, Yada Zhu, Jiawei Han, Jingrui He.(2025). RAG over Tables: Hierarchical Memory Index, Multi-Stage Retrieval, and Benchmarking.
[14] Andrei-Laurentiu Bornea, Fadhel Ayed, Antonio De Domenico, Nicola Piovesan, Ali Maatouk.(2024). Telco-RAG: Navigating the Challenges of Retrieval-Augmented Language Models for Telecommunications.
[15] Yixuan Tang, Yi Yang.(2024). MultiHop-RAG: Benchmarking Retrieval-Augmented Generation for Multi-Hop Queries.
[16] Shamane Siriwardhana, Rivindu Weerasekera, Elliott Wen, Suranga Nanayakkara.(2021). Fine-tune the Entire RAG Architecture (including DPR retriever) for Question-Answering.
[17] Kavana Venkatesh, Yusuf Dalva, Ismini Lourentzou, Pinar Yanardag.(2024). Context Canvas: Enhancing Text-to-Image Diffusion Models with Knowledge Graph-Based RAG.
[18] Markus J. Buehler.(2024). Generative Retrieval-Augmented Ontologic Graph and Multiagent Strategies for Interpretive Large Language Model-Based Materials Design.
[19] Qingqing Zhou, Can Liu, Yuchen Duan, Kaijie Sun, Yu Li, Hongxing Kan, Zongyun Gu, Jianhua Shu, Jili Hu.(2024). GastroBot: a Chinese gastrointestinal disease chatbot based on the retrieval-augmented generation..
[20] Yuya Ishihara, Atsushi Keyaki, Hiroaki Yamada, Ryutaro Ohara, Mihoko Sumida.(2025). RAG System for Supporting Japanese Litigation Procedures: Faithful Response Generation Complying with Legal Norms.
[21] Thomas Cook, Richard Osuagwu, Liman Tsatiashvili, Vrynsia Vrynsia, Koustav Ghosal, Maraim Masoud, Riccardo Mattivi.(2025). Retrieval Augmented Generation (RAG) for Fintech: Agentic Design and Evaluation.
[22] Maciej Besta, Nils Blach, Ales Kubicek, Robert Gerstenberger, Michał Podstawski, Lukas Gianinazzi, Joanna Gajda, Tomasz Lehmann, H. Niewiadomski, Piotr Nyczyk, Torsten Hoefler.(2024). Graph of Thoughts: Solving Elaborate Problems with Large Language Models.
[23] Miao Lu, Weiwei Sun, Weihua Du, Zhan Ling, Xuesong Yao, Kang Liu, Jiecao Chen.(2025). Scaling LLM Multi-turn RL with End-to-end Summarization-based Context Management.
[24] Sławomir Nowaczyk.(2025). Architectures for Building Agentic AI.
[25] Seyedmoein Mohsenimofidi, Matthias Galster, Christoph Treude, Sebastian Baltes.(2025). Context Engineering for AI Agents in Open-Source Software.
[26] Renan Souza, Amal Gueroudji, Stephen DeWitt, Daniel Rosendo, Tirthankar Ghosal, Robert Ross, Prasanna Balaprakash, Rafael Ferreira da Silva.(2025). PROV-AGENT: Unified Provenance for Tracking AI Agent Interactions in Agentic Workflows.
[27] Jose Carlos Gómez-Tamayo, Joris Tavernier, Roy Aerts, Natalia Dyubankova, Dries Van Rompaey, Sairam Menon, Marvin Steijaert, Jörg Kurt Wegner, Hugo Ceulemans, Gary Tresadern, Hans De Winter, Mazen Ahmad.(2025). MolAgent: Biomolecular Property Estimation in the Agentic Era..
[28] Almir Aljović, Zuwan Lin, Wenbo Wang, Xinhe Zhang, Arnau Marin-Llobet, Ningyue Liang, Bradley Canales, Jaeyong Lee, Jongmin Baek, Ren Liu, Catherine Li, Na Li, Jia Liu.(2025). An autonomous AI agent for universal behavior analysis..
[29] Tobias Lindenbauer, Igor Slinko, Ludwig Felder, Egor Bogomolov, Yaroslav Zharov.(2025). The Complexity Trap: Simple Observation Masking Is as Efficient as LLM Summarization for Agent Context Management.
[30] Daniil A. Boiko, Robert MacKnight, Ben Kline, Gabriel dos Passos Gomes.(2023). Autonomous chemical research with large language models.
[31] Yao Fu, Rameswar Panda, Xinyao Niu, Xiang Yue, Hannaneh Hajishirzi, Yoon Kim, Hao Peng.(2024). Data Engineering for Scaling Language Models to 128K Context.
[32] Thanh Son Phung, Douglas Thain.(2025). Scaling Up Throughput-oriented LLM Inference Applications on Heterogeneous Opportunistic GPU Clusters with Pervasive Context Management.
[33] Wes Anderson, Ian Braun, Roopal Bhatnagar, Klaus Romero, Ramona Walls, Marco Schito, Jagdeep T. Podichetty.(2024). Unlocking the Capabilities of Large Language Models for Accelerating Drug Development.
[34] Eun Jeong Gong, Chang Seok Bang, Jae Jun Lee, Jonghyung Park, Eun-Sil Kim, Subeen Kim, Minjae Kimm, Seoung-Ho Choi.(2024). The Potential Clinical Utility of the Customized Large Language Model in Gastroenterology: A Pilot Study.
[35] Mullai Murugan, Bo Yuan, Eric Venner, Christie M. Ballantyne, Katherine M. Robinson, James C. Coons, Liwen Wang, Philip E. Empey, Richard A. Gibbs.(2024). Empowering Personalized Pharmacogenomics with Generative AI Solutions.
[36] Felipe A. Rodriguez Y..(2025). Technical Language Processing for Telecommunications Specifications.
[37] Min Zou, Leszek Popko, Michelle Gaudio.(2025). Using Large Language Models for Advanced and Flexible Labelling of Protocol Deviations in Clinical Development..
[38] Mauro Giuffrè, Simone Kresevic, Nicola Pugliese, Kisung You, Dennis L Shung.(2024). Optimizing large language models in digestive disease: strategies and challenges to improve clinical outcomes..
[39] Peter Kowalchuk, A. Grotte, S. Brandsberg‐Dahl, Varad Sabharwal, Uwe Jensen.(2025). Large Language Model-Based Workflow for Optimizing Offset Well Data Analysis and Generating Well Design Risk Profiles.
[40] Anisa Rula, Jennifer D’Souza.(2023). Procedural Text Mining with Large Language Models.