OpenAI 在人工智能领域享有盛誉,但当米拉·穆拉蒂 (Mira Murati) 于 2018 年加入非营利研究实验室时,它还不是家喻户晓的名字。
不久之后,旧金山实验室开始了重大转型。作为 ChatGPT 的制造商,它把自己变成了一家举世瞩目的企业。
Murati 现在是其首席技术官,负责领导 OpenAI 的研究、产品和安全团队。她领导了其人工智能模型的开发和发布,包括 ChatGPT、图像生成器 DALL-E 和最新的 GPT-4。
她与美联社谈到了 AI 保障措施以及公司对未来通用人工智能概念(称为 AGI)的愿景。为了篇幅和清晰度,对访谈进行了编辑。
问:通用人工智能对 OpenAI 意味着什么?
答:对于通用人工智能,我们通常是指能够产生经济产出的高度自治系统,显着的经济产出。换句话说,系统可以泛化到不同的领域。这是人类水平的能力。OpenAI 围绕它的具体愿景是安全地构建它,并弄清楚如何以符合人类意图的方式构建它,以便人工智能系统做我们希望它们做的事情,并使尽可能多的人受益尽可能出去,最好是每个人。
问:GPT-4 和 AGI 等产品之间是否存在路径?
答:我们离拥有一个安全、可靠、一致的 AGI 系统还很远。我们到达那里的路径有几个重要的向量。从研究的角度来看,我们正在尝试构建能够像人类一样对世界有深刻理解的系统。像 GPT-3 这样的系统最初只接受文本数据的训练,但我们的世界不仅仅是由文本构成的,所以我们也有图像,然后我们开始引入其他模式。另一个角度是扩展这些系统以增加它们的通用性。使用 GPT-4,我们正在处理一个功能更强大的系统,特别是从推理事物的角度来看。这种能力是关键。如果模型足够聪明,可以理解一个模糊的方向或高层方向,那么你就可以想出如何让它遵循这个方向。但是,如果它甚至不了解那个高层目标或高层方向,它就很难对齐。在实验室的真空中构建这项技术是不够的。我们真的需要这种与现实、与现实世界的联系,看看弱点在哪里,突破点在哪里,并尝试以一种可控和低风险的方式这样做,并获得尽可能多的反馈。
问:你们采取了哪些安全措施?
答:我们会考虑每个阶段的干预措施。我们从模型的初始训练中编辑了某些数据。通过 DALL-E,我们希望减少我们看到的有害偏见问题。我们调整了训练数据集中女性和男性图像的比例。但你必须非常小心,因为你可能会造成其他一些不平衡。你必须不断地审计。在那种情况下,我们得到了不同的偏见,因为很多这些图像都是性的。所以你必须再次调整它,每次你进行干预时都要非常小心,看看还有什么被打乱了。在模型训练中,特别是 ChatGPT,我们通过人类反馈进行了强化学习,以帮助模型更符合人类偏好。
问:这些系统应该受到监管吗?
答:是的,绝对。这些系统应该受到监管。在 OpenAI,我们一直在与政府、监管机构和其他正在开发这些系统的组织进行对话,至少在公司层面就某种程度的标准达成一致。在过去的几年里,我们与大型语言模型开发人员就此做了一些工作,以协调部署这些模型的一些基本安全标准。但我认为还有很多事情要做。政府监管机构当然应该积极参与。
问:一封呼吁业界暂停构建比 GPT-4 更强大的 AI 模型 6 个月的信引起了很多关注。您如何看待请愿书及其对人工智能风险的假设?
A:你看,我认为在复杂系统中设计安全机制很难。这里有很多细微差别。信中指出的一些风险是完全有效的。在 OpenAI,我们多年来一直非常公开地谈论它们并研究它们。我不认为签署一封信是建立安全机制或协调该领域参与者的有效方式。信中的一些陈述与 GPT-4 或 GPT-5 的开发完全不符。我们不是在训练 GPT-5。我们没有任何计划在未来六个月内这样做。而且我们并没有急于推出 GPT-4。事实上,我们花了六个月的时间才完全专注于 GPT-4 的安全开发和部署。即便如此,我们还是通过大量的护栏和非常协调且缓慢的推出来推出它。每个人都不容易接触到它,而且它当然不是开源的。这就是说,我认为这些人工智能系统和任何复杂的技术系统中的安全机制和协调机制是困难的,需要玩家之间进行大量的思考、探索和协调。
问:自从您加入以来,OpenAI 发生了多大变化?
A:当我加入 OpenAI 时,它是一个非营利组织。我认为这是我们作为人类将要构建的最重要的技术,我真的觉得一家拥有 OpenAI 使命的公司最有可能确保它顺利进行。随着时间的推移,我们改变了结构,因为这些系统很昂贵。他们需要大量资金。我们确保以这样一种方式来构建激励机制,即我们仍然会服务于非营利组织的使命。这就是我们采用“利润上限”结构的原因。OpenAI 的员工具有内在的积极性和使命感,这一点从一开始就没有改变。但在五年的时间里,我们的想法在什么是最佳部署方式、什么是最安全方式方面发生了很大变化。这可能是最明显的区别。我认为这是一个很好的改变。