如果有人将 The Sims 与 ChatGPT 机器人混在一起怎么办?

像谷歌的 LaMDA 或 OpenAI 的 ChatGPT 这样的聊天机器人既没有感知力也没有那么智能。尽管如此,研究人员相信他们可以使用这些大型语言模型来模拟受世界上最流行的早期计算机游戏之一和一些人工智能代码启发的人类行为。

这方面的最新成果来自六位计算机科学家——五位来自斯坦福大学,一位来自谷歌研究院——Joon Sung Park、Joseph O’Brien、Carrie Cai、Meredith Ringel Morris、Percy Liang 和 Michael Bernstein。该项目看起来很像是对经典 Maxis 游戏 The Sims 的致敬,该游戏于 2000 年首次亮相,并在 EA 的各种续集中继续存在。

图 1 来自 Generative Agents:Interactive Simulacra of Human Behavior 论文

来自 Park人关于他们的 ChatGPT 支持的软件的论文,说明了模拟中的每个代理正在做什么以及他们的对话

正如他们最近的预印本论文“生成代理:人类行为的交互式模拟”中所述,研究人员开发了“存储、合成和应用相关记忆以使用大型语言模型生成可信行为”的软件架构。

或者更简洁地说,他们将记忆、反思(从记忆中推断)和计划代码连接到 ChatGPT 以创建生成代理——模拟人物,他们使用尝试自然语言的文本交流来交互和追求自己的目标。

研究人员解释说:“在这项工作中,我们通过填充沙盒环境来展示生成代理,让人想起模拟人生,其中有 25 个代理。” “用户可以在座席计划他们的日子、分享新闻、建立关系和协调小组活动时进行观察和干预。”

为此,请访问在使用 Phaser 网络游戏框架构建的Heroku 实例上运行的演示世界。当这些软件代理人开始他们的生活时,访问者可以与预先计算的会话重播进行交互。

该演示以名为 Isabelle 的代理人及其策划情人节派对的尝试为中心,允许访问者检查模拟人物的状态数据。也就是说,你可以点击他们,看到他们的文字记忆和其他关于他们的信息。

例如,生成代理 Rajiv Patel 在 2023 年 2 月 13 日 20:04:40 有以下记忆:

Hailey Johnson 正在谈论 Rajiv Patel 和 Hailey Johnson 正在讨论涉及数学、诗歌和艺术的潜在合作,参加市长选举讨论和市政厅会议,为他们社区的年轻人创造就业机会,参加即兴课程和调酒活动,以及 Hailey 的计划开始播客,拉吉夫将作为嘉宾分享更多关于他的吉他演奏之旅;他们还讨论了与 Carmen Ortiz 的潜在合作,在低收入社区推广艺术,为年轻人创造更多就业机会。

这项研究的目的是超越1960 年代的 Eliza引擎等基础工作,以及星际争霸的 AlphaStar 和 Dota 2 的 OpenAI Five 等强化学习工作,这些工作侧重于具有明确胜利目标的对抗性环境,以实现适用于编程代理的软件架构。

研究人员解释说:“在过去的四十年里,出现了多种创建可信代理的方法。然而,在实施过程中,这些方法通常会简化代理行为的环境或维度,从而使工作更易于管理。” “然而,他们的成功主要发生在对抗性游戏中,这些游戏具有易于定义的奖励,学习算法可以针对这些游戏进行优化。”

研究人员观察到,像 ChatGPT 这样的大型语言模型编码了大量的人类行为。因此,如果给出具有足够狭窄上下文的提示,这些模型可以生成似是而非的人类行为——这可能被证明对自动化交互有用,而不仅限于一组特定的预编程问题和答案。

  • 来玩个游戏:Deepfake新闻主播还是真人?
  • 为什么 ChatGPT 应该被视为恶意人工智能——并被摧毁
  • ChatGPT 来抢你的饭碗——至少是糟糕的饭碗
  • 声称 AI 感知标记为“纯点击诱饵”

但是这些模型需要额外的脚手架来创建可信的模拟人物。这就是内存、反射和调度例程发挥作用的地方。

“智能体感知他们的环境,所有感知都保存在智能体体验的综合记录中,称为记忆流,”研究人员在他们的论文中说。

“根据他们的感知,架构检索相关的记忆,然后使用这些检索到的动作来确定一个动作。这些检索到的记忆还用于形成更长期的计划,并创建更高级别的反射,这些都被输入到记忆中供将来使用。”

来自 ArXiv 论文 Generative Agents: Interactive Simulacra of Human Behavior 的内存流截图

由学者开发的记忆流的插图,取自他们的论文

内存流只是一个带有时间戳的关于代理当前情况的观察列表,相关或不相关。例如:

  • (1) Isabella Rodriguez 正在摆糕点
  • (2) Maria Lopez 边喝咖啡边准备化学考试
  • (3) 伊莎贝拉·罗德里格斯 (Isabella Rodriguez) 和玛丽亚·洛佩兹 (Maria Lopez) 正在讨论计划在霍布斯咖啡馆举办的情人节派对
  • (4) 冰箱是空的这些内存流条目根据新近度、重要性和相关性进行评分。

反射是一种当重要性分数超过某个阈值时定期生成的记忆。它们是通过查询关于代理最近经历的大型语言模型来确定要考虑的内容来生成的,然后查询响应被用来进一步探索模型,向它提出诸如克劳斯·穆勒热衷于什么话题的问题以及克劳斯穆勒和玛丽亚洛佩兹之间的关系是什么?

然后该模型会生成一个响应,就像Klaus Mueller 致力于他的高档化研究一样,用于塑造未来的行为和规划模块,该模块为代理创建每日计划,可以通过与追求自己议程的其他角色的交互进行修改。

这不会有好下场

更重要的是,代理人成功地相互沟通,导致了研究人员所说的紧急行为。

“在为期两天的模拟中,知道山姆竞选市长的特工从一个 (4%) 增加到八个 (32%),知道伊莎贝拉派对的特工从一个 (4%) 增加到十二个 (48%) ),完全无需用户干预,”该论文称。“声称知道这些信息的人都没有产生幻觉。”

有一些幻觉。代理人伊莎贝拉知道代理人山姆宣布竞选市长,尽管两人从未有过那次谈话。百合子机构“将她的邻居亚当·斯密描述为邻居经济学家,他撰写了《国富论》,这本书的作者是 18 世纪的同名经济学家。”

然而,在模拟小镇超人前传中,事情大多进展顺利。应邀参加霍布斯咖啡馆聚会的十二位客人中有五位出现了。三人因时间安排冲突没有参加。其余四人表示有兴趣,但没有现身。那时非常接近现实生活。

研究人员表示,与禁用反射、计划和记忆的架构版本相比,他们的生成行为架构创造了最可信的行为——正如人类评估员所评估的那样。

限制

与此同时,他们承认他们的方法并非没有问题。

随着时间的推移,行为变得更加不可预测,因为内存大小增加到找到最相关数据成为问题的程度。当用于记忆和交互的自然语言未能包含显着的社会信息时,也会出现不稳定的行为。

“例如,大学宿舍有一间浴室,虽然名字叫一个人,但有些中介认为浴室是供多人使用的,因为宿舍浴室往往同时容纳一个以上的人,所以选择进入当里面有另一个人时,”作者解释道。

同样,生成代理并不总是意识到他们在当地时间 1700 点关门后不能进入商店——这显然是一个错误。研究人员表示,此类问题可以通过更明确的描述来解决,例如将宿舍卫生间描述为“单人卫生间”,而不是“宿舍卫生间”,并在商店描述中增加规范的营业时间。

研究人员还指出,他们的方法很昂贵——模拟两天需要花费数千美元的 ChatGPT 代币——并且需要做进一步的工作来解决偏差、模型数据不足和安全性问题。

他们观察到,生成代理“可能容易受到提示黑客攻击、记忆黑客攻击——在这种情况下,精心设计的对话可以让代理人相信过去从未发生过的事件的存在——以及幻觉等。”

好吧,至少他们不会在公共道路上高速驾驶数吨钢材。

最新chatgpt可以思维导图可以写笔记,网址:openai.gcloub.com(点击跳转)

gpt官网资讯

OpenAI CEO 确认公司目前没有训练 GPT-5

2023-4-22 15:55:11

gpt官网资讯

OpenAI 联合创始人 Greg Brockman 演示未发布的 ChatGPT 插件——在 TED2023 现场直播

2023-4-22 16:10:50

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索
普人特福的博客cnzz&51la for wordpress,cnzz for wordpress,51la for wordpress