<p align="right"><font color="#3f3f3f">2025年10月04日</font></p>
## 关于LLM的使用
- **对人的要求**:当下LLM的能力看对使用者有很高的要求,需要使用者对问题有深刻的认识、对复杂事务的结构化理解和表达能力、对LLM的能力边界有认知、能够精细化的控制上下文内容,满足这些条件才能让LLM发挥最大的效果。
- **multi-agent的关键**:多智能体的系统中,关键的是不同子Agent的上下文和结果的隔离,当能够在这个层面上能够做到足够好的隔离性时,才能让结果可控,比如deep research。当需要多个子Agent对同一个结果协同时,很容易让结果变的混乱。
- **上下文的技巧**:摘要、压缩、卸载是避免上下文无限膨胀的关键技巧,比如将网络搜索后的信息进行有效的摘要,并且将完整结果存储到文件系统等存储系统中,将其从上下文中卸载。
- **文档之间的关联**:使用markdown的链接语法将整个上下文工程进行串联,就为LLM提供了完整的记忆链条,LLM就可以通过这个记忆链条有效的进行检索“记忆“。
- **Chat模式的局限性**:Chat模式本身的表达力和操控力就存在一定局限,特别是当下LLM的能力还不够完善时,完全依靠Chat模式的自然语言输入,很难真正发挥模型的最大能力。比如cursor目前就是我认为非常好的一种交互方式,用户可以精准的控制需要涵盖的上下文,并且可以以上下文工程的角度将结果完全沉淀、叠加,但是确实对用户有很高的要求。未来可能还会涌现出更好的**交互形态的产品**