构建真正高效的 AI 智能体的秘诀,与你编写代码的复杂程度关系不大,而与你提供上下文的质量息息相关。
构建智能体,与你编写的代码或使用的框架关系不大。 一个廉价的演示项目和 "神奇的智能体" 之间的区别,就在于你所提供上下文的质量。假设让一个 AI 助手根据一封简单的邮件来安排会议:
Hey, just checking if you're around for a quick sync tomorrow.
嘿,想问一问明天方不方便,我们快速碰个头?
"廉价的智能体演示项目" 的上下文质量很差。它只看到用户的请求,其他什么都看不到。它的代码可能功能完善,它会调用 LLM 并获得响应,但输出的内容却毫无帮助,且充满机械感:
Thank you for your message. Tomorrow works for me. May I ask what time you had in mind?
感谢来信!明天我有空。你想约在几点?
"神奇的智能体" 则由丰富的上下文驱动。其代码的主要任务并非琢磨如何回应,而是收集 LLM 所需的信息,以便更好地响应用户需求。在调用 LLM 之前,你可以扩展上下文,使其包含:
你的日历信息(显示你日程已满)。
你与此人的过往邮件(用于确定合适的非正式语气)。
你的联系人列表(用于识别 ta 为关键的合作伙伴)。
send_invite 或 send_email 工具。
然后便能生成回应:
Hey Jim! Tomorrow's packed on my end, back-to-back all day. Thursday AM free if that works for you? Sent an invite, lmk if it works.
嗨 Jim!明天我这边日程全排满了,从早到晚连轴转。周四上午有空,你看行不?邀请已发,确认下是否合适~
这种神奇的效果并非源于更聪明的模型或更精巧的算法,而在于为正确的任务提供了恰当的上下文。这就是为什么上下文工程(Context Engineering)非常重要。智能体的失败并非仅仅是模型的失败,本质上是上下文的缺失。