Graph of Thoughts: Solving Elaborate Problems with Large Language Models
核心结论
- Graph of Thoughts (GoT) 将 LLM 推理过程建模为任意有向图:思考单元是节点,依赖关系是边。这是比 CoT(链)和 ToT(树)更一般的推理结构。
- 图结构使 GoT 能执行更复杂的思考变换:聚合多个思考(combine)、提炼网络核心(distill)、通过反馈循环增强思考(refine)。
- 在排序任务上,GoT 相比 ToT 质量提升 62%,同时成本降低 31%。
关键事实
- 作者:Maciej Besta, Nils Blach 等(ETH Zurich, Cledar 等)。
- 发表于 2023(arXiv:2308.09687)。
- GoT 的模块化架构包含三个组件:Prompter(与 LLM 交互生成/变换思考)、Parser(提取结构化信息)、Controller(编排图结构)。
- 核心思考变换操作:Generate(生成新思考)、Aggregate(合并多个思考为新思考)、Refine(基于已有思考做增强)、Score(评分排序)。
- 在 sorting、keyword counting、set operations、document merging 四个任务上验证了优势。
方法亮点
- 图抽象:CoT 和 ToT 都是 GoT 的特例(链是退化的树,树是退化的图),GoT 可表达任意拓扑。
- 成本-质量平衡:GoT 通过 merge 操作可在提升质量的同时降低 LLM 调用次数(相比 ToT 的独立路径探索)。
- 可扩展架构:新增思考变换操作和新推理模式时无需修改框架。
与现有 Wiki 的关系
后续问题
- 图结构的最优拓扑是否高度任务相关?如何自动搜索最优图结构?
- GoT 在更开放的任务(如多步代码生成、科学推理)上的应用探索。