一份新报告声称知道每天运行 ChatGPT 的成本是多少,包括每个查询的大约成本。流行的文本转语音聊天机器人可能会在 2022 年 11 月掀起一场人工智能革命,但事实证明其维护成本极高。
这份新报告来自研究公司 SemiAnalysis 的首席分析师迪伦·帕特尔 (Dylan Patel ),他表示维持聊天机器人正常运行每天的成本约为 70 万美元,即每次查询 36 美分。
据Windows Central称,事实上,它非常昂贵,以至于微软可能正在开发自己的专有 AI 芯片,以协助维护 OpenAI 的 ChatGPT 运行。
ChatGPT 除了在 1 月份迅速达到 1 亿活跃用户这一此前科技品牌需要数年时间才能实现的壮举之外,ChatGPT 还一直在努力应对高流量和容量问题,这些问题导致其服务器速度减慢和崩溃。该公司试图通过引入付费ChatGPT Plus层来解决这个问题,该层每月收费 20 美元,但是,没有关于有多少用户订阅付费选项的消息。
OpenAI 目前使用 Nvidia GPU 不仅维护自己的 ChatGPT 进程,还维护与其合作品牌的进程。行业分析师预计,仅在 2023 年剩余时间里,该公司可能需要额外的 30,000 个来自 Nvidia 的 GPU 来维持其商业性能。
微软是其主要合作者和投资者之一,OpenAI 可能正在寻找技术品牌来协助开发硬件以降低 ChatGPT 的运营成本。根据 Windows Central 的说法,微软已经在开发这种 AI 芯片。它的代号为 Athena,目前正在与品牌自己的团队进行内部测试。该芯片预计将于明年推出,用于微软的 Azure AI 服务。
目前还没有关于芯片将如何或何时渗透到 OpenAI 和 ChatGPT 的消息,但假设它会。连接来自于 ChatGPT 受 Azure 服务支持这一事实。Windows Central 补充说,AI 芯片可能不会完全取代 Nvidia GPU,但可能有助于降低对硬件的需求,从而降低运行 ChatGPT 的成本。