AI Agent


前言

刚开始接触大语言模型(LLMs)时,我以为关键在于写出完美的提示词。只要给它足够的上下文 —— 然后,砰的一下 —— 它就该能正常工作了,对吧?事实并非如此。

起初我意识到,自己基本上就是在对着一个高级版自动补全工具堆砌文字。生成的内容看起来很聪明,但模型其实什么都不懂。它不会规划、不会调整,也不会推理。只要措辞表达稍有改动,整个输出就会出问题。

真正的智慧不只是给出答案,更在于答案的形成过程。这个过程至关重要。

这促使我研究起智能体模式—— 一种能赋予大语言模型更多 “目的性” 的设计技巧。它能让模型进行规划、反思、使用工具,甚至与其他智能体协作。借助这些模式,可以很好的摆脱那些时灵时不灵的提示词,找到了能真正解决问题的方法。

下面就来具体讲讲这五种对我帮助最大的模式,解释会尽量通俗易懂、便于实践。


一、反思(Reflection):Teach Your Agent to Check Its Own Work

你有没有过这样的经历:问了 ChatGPT 一个问题,读完答案后总觉得 “听起来还行…… 但好像哪里不对劲”?

这时候,反思(Reflection)就派上用场了。这是个简单的技巧:让模型在给出最终答案前,先自己检查一遍输出内容。

基本流程是:

  1. 提出问题。
  2. 让模型给出答案。
  3. 然后再提示它:“这个回答完整吗?有没有遗漏什么?怎样能更好?”
  4. 让它自己修改完善。

说实话,单这一步就能减少很多粗心的错误 —— 尤其是在代码、总结这类对细节要求高的内容上。可以把这理解为给你的模型加了个暂停键和一面镜子。


二、使用工具(Tool Use):Don’t Expect the Model to Know Everything

大语言模型(LLM)并不知道你的数据库里有什么,也不知道你的文件内容或今日新闻。不过没关系 —— 因为你可以让它自己去获取这些信息。

使用工具(Tool Use)的模式能把模型和现实世界的工具连接起来。这样一来,它就不用凭空编造内容了,而是可以查询向量数据库、在交互式解释器(REPL)中运行代码,或者调用外部 API,乃至你内部的接口。这种设置需要一些 “管道搭建”:函数调用、路由配置,或许还得需要用 LangChain 或 Semantic Kernel 这类工具,但付出是值得的。你的智能体不再靠猜,而是能调取真实数据了。人们总以为大语言模型天生就该很聪明。其实并非如此。但当它们能使用合适的工具时,就会变得聪明得多。


三、推理与行动(React):Let the Model Think While It Acts

“反思” 模式很好,“使用工具” 模式也很棒。但如果让你的智能体在思考和行动中形成循环,效果会更好。这就是 “ReAct” 模式的核心:推理(Reasoning)+ 行动(Acting)CursorTrae这种AI IDE便是很好的实践。模型不会一次性给出所有答案,而是会逐步推理,并在了解更多信息后调整自己的行动。

要让 ReAct 模式发挥作用,你需要三样东西:

  • 工具(用于采取行动)
  • 记忆(用于保留上下文)
  • 推理循环(用于追踪进展)

ReAct 模式让你的智能体更具灵活性。它们不会拘泥于死板的流程,而是会仔细思考每一步,实时调整,并在出现新信息时及时修正方向。

如果你想构建的不只是一个能快速给出一次性答案的工具,那么这个模式就是你需要的。


四、规划(Planning):Teach Your Agent to Think Ahead

大语言模型(LLMs)在快速给出答案方面表现还不错。但遇到需要多步骤处理的任务时?它们就力不从心了。而 规划(Planning)模式正好能解决这个问题。模型不会一次性尝试完成所有回答,而是会把目标拆解成更小、更容易处理的任务。

举个例子,如果有人问:“帮我发布一款产品。” 智能体可能会给出这样的步骤:

  1. 确定目标受众
  2. 设计落地页
  3. 搭建邮件营销活动
  4. 撰写发布公告文案

然后,它会一步一步地处理每个部分。规划模式能让你的智能体从一个被动响应的助手,转变为一个主动出击的执行者。对于工作流以及任何需要多步骤完成的任务来说,这个模式都非常适用。


五、多智能体(Multi-Agent):Get a Team Working Together

当你可以拥有一整个团队协同工作时,为什么要依赖单个智能体呢?多智能体设置为不同的智能体分配不同的角色,每个智能体处理难题的一部分。它们相互协作 —— 有时甚至会争论 —— 以提出更好的解决方案。

给每个智能体一个名字和任务。让它们相互通信。看着它们反复尝试、批评并完善。当它们意见不一致时,神奇的事情就发生了。你会得到更敏锐的见解和更深入的思考。


总结:

智能体设计的关键不在于让模型变得更聪明,而在于构建更出色的系统。这类系统能够驾驭复杂性、在过程中灵活调整,并且不会因为第一个意外输入就崩溃。

这些模式让我不再将大语言模型(LLMs)视为魔法盒子,而是开始把它们看作更大流程中不够完美的组件。它们并非毫无瑕疵,但只要赋予其结构化的框架,就能释放强大的力量。因为真正的智能,存在于你为模型搭建的支撑架构中,而不仅仅是模型本身。


参考文章

Stop Prompting, Start Designing: 5 Agentic AI Patterns That Actually Work


  目录