Figure 1: Generative agents create believable simulacra of human behavior for interactive applications. In this work, we demonstrate generative agents by populating a sandbox environment, reminiscent of The Sims, with twenty-five agents. Users can observe and intervene as agents they plan their days, share news, form relationships, and coordinate group activities.
智能体Agents的思想最早来自于《模拟人生》这类沙盒游戏,四十多年来,研究人员一直致力于认知模型和虚拟环境的研究,希望创造出一种可以作为人类行为可信代理的可计算Agents。在研究人员的愿景中,计算驱动的智能体按照过去的经验,并对外部环境作出合理的反应。
人们希望使用现实的社会现象和社区环境作出初始条件设置智能体以及其所在的环境,通过Agents的可计算模拟构建一个人类处理器模型,以此来揭示和发现复杂的社会运行规律,并且指导人们处理复杂、罕见的人际情境,并由此构建出测试社会科学理论。
然而,人类行为的状态空间是广阔而复杂的。尽管大语言模型(LLM)取得了显著地进展,目前已经可以在单个或短时间窗口内模拟可信的人类行为。
随着新的互动不断发生,冲突和事件地不断出现和消失,历史记忆会不断膨胀,同时,智能体Agents还需要处理在多个Agents之间不断递归展开的级联社会形态。迫切需要一种能够检索Agents记忆中的长期相关事件和Agents之间的长期相关交互,并对基础记忆进行反思和概括总结,并由此得到更高层次地推断。接着,智能体Agents基于这些高层次地推断制定未来计划和对外界环境的反应,并且要保证制定的未来计划和反应,不仅限于当前合理,对未来也能产生正向意义。
在本文中,我们提出了“generative agents”,一种可计算的软件代理机器人,它会尝试以一种可信的方式模拟人类行为,比如:
为了达成上述目标,我们的generative agents架构需要按照如下方式进行设计:
通过融合LLM model、可计算/可交互agent,我们可以实现一套模拟人类行为的架构和交互模式。
在一个充满了Agents的虚拟社会中,社会会涌现出源源不断地社会动力,Agents之间会不断形成新的关系,信息会遵循一种动力机制不断传播。
研发人类行为的可信代理技术,可以获得很多好处:
这件事以前也不断有人尝试过,但是效果不好,究其原因笔者认为主要有以下几点,
今天因为有了LLM大模型技术,基于LLM这个“智能大脑”,使得智能代理可以做到很多以前做不到的事情。
LLM给Agents智能体技术带来了两个比较大的改进:
但论文中也提到,受限于当前LLM自身存在的一些原生瓶颈,generative agents也存在一些明显地问题,比如:
参考链接:
https://arxiv.org/pdf/2304.03442.pdf https://arxiv-org.translate.goog/abs/2304.03442?_x_tr_sl=en&_x_tr_tl=zh-CN&_x_tr_hl=zh-CN&_x_tr_pto=sc
加载一个3b的中文LLM,
参考链接:
https://github.com/mkturkcan/generative-agents https://github.com/QuangBK/generativeAgent_LLM https://github.com/nickm980/smallville https://github.com/LC1332/Chinese-generative-agents/tree/main https://github.com/tmori/generative-agents https://github.com/toughyear/generative-agents https://github.com/ayoreis/generative-agents
参考链接:
https://python.langchain.com/docs/use_cases/agent_simulations/characters https://github.com/lablab-ai/technologies/blob/main/generative-agents/index.mdx
首先定义什么是智能体,抽象来说,智能体应该包含如下几个因素:
按照这个智能体标准,笔者对现有的人工智能技术进行一下分类:
一级Agents智能体
像VGG16这种深度神经网络只属于一级Agents智能体,主要原因如下:
二级Agents智能体
像Q-learning、DQN这类强化学习算法,属于二级Agents智能体,主要原因如下:
参考链接:
https://www.cnblogs.com/LittleHann/p/17503145.html 强化学习(Reinforcement Learning, RL)初探
三级Agents智能体
基于LLM的”thought-action-observation Agent“技术,属于三级Agents智能体,主要原因如下:
参考链接:
https://www.cnblogs.com/LittleHann/p/17532918.html LangChain初探
四级Agents智能体
本文提出的generative agents属于四级Agents智能体,主要原因如下:
需要注意的是,即使是四级Agents智能体,agents和LLM之间的交互,依然需要事先约定一种”thought-observation prompt”规范(本质上是LLM的few-shot prompt技术)。只有在thought-observation prompt”的驱动之下,agents才能激发LLM的思考和推理能力,并在LLM的帮助下,实现对外部环境的反应。
需要特别指出的是,LLM正在逐渐成为新的底层通用操作系统,会不断有新的应用程序以prompt program的方式连接上来。所以最终上层应用的效果还坏,会极大程度取决于这个“底层操作系统”的性能好坏,换句话说就是对LLM对prompt program理解能力和执行能力的好坏,会极大影响最终应用的效果。
举个通俗地例子,就像你无法用小霸王学习机跑一个暗黑破坏神游戏一样,进入LLM时代后,核心战略竞争力就是LLM的综合性能,B端开发者将集中精力在LLM下游的prompt program上。