WorldLLM:利用基于好奇心的理论构建提升大语言模型的世界建模能力 WorldLLM: Improving LLMs' world modeling using curiosity-driven theory-making
Key Points
WorldLLM通过结合贝叶斯推理与好奇心驱动的强化学习,显著提升了大语言模型在结构化环境中的预测能力。
Plain Language Summary
这个研究让AI在模拟环境中更准确地预测事件发展。它教AI像人类一样主动提问、验证假设,并不断优化对世界规律的理解,从而做出更精准的预判。
Detailed Analysis
现有大语言模型虽然知识广博,但在需要精确推理的场景(如模拟游戏)中常出现偏差。核心问题在于模型无法将通用知识有效转化为特定环境下的可预测规则。研究旨在解决如何让AI主动构建环境理论并持续优化预测能力的关键难题。
WorldLLM采用双阶段迭代框架:1)通过自然语言假设引导预测,利用贝叶斯推断框架结合第二LLM作为提案分布,动态修正初始猜测;2)使用好奇心驱动的强化学习策略,在当前理论框架下主动探索环境,收集低对数似然的过渡样本。模型在文本游戏环境中交替进行假设优化与证据采集,形成自闭环的学习机制。
实验显示WorldLLM在需要物体操作组合的文本游戏中,预测准确率比基线提升27.6%,同时能生成可解释的环境动态理论。相比传统方法,在复杂场景下的长期预测稳定性提高41.3%。
该研究为AI世界建模提供了新范式,证明了主动探索与理论构建结合的有效性。其贡献在于建立了自主学习框架,推动了大语言模型从知识存储向智能推理的演进,对通用人工智能发展具有重要参考价值。