日本网络安全专家警告说,ChatGPT 可能会被输入模仿开发者模式的提示的用户所欺骗,从而导致 AI 聊天机器人为恶意软件生成代码。
开发人员为阻止对该工具的不道德和犯罪利用而采取的安全措施已被曝光,因为该漏洞很容易被绕过。
下个月在广岛举行的七国集团峰会以及其他全球论坛正在敦促就监管人工智能聊天机器人展开讨论,因为人们越来越担心它们可能会助长犯罪活动和社会不和。
最近我们报道了ChatGPT 支持的多态恶意软件绕过端点检测过滤器,黑客使用 ChatGPT 开发了强大的黑客工具。

ChatGPT 的利用越来越受到关注
G7 数字部长打算在即将于群马县高崎举行的为期两天的会议上倡导快速研究和改进生成人工智能系统的治理。
除此之外,神奈川县横须贺市是日本第一个在其所有办公室进行 ChatGPT 试用的地方政府。
一般来说,ChatGPT 完全被编程为拒绝不道德的请求,比如关于制造病毒或炸弹的指令。
然而,Mitsui Bussan Secure Directions 分析师 Takashi Yoshikawa 表示:-
“可以轻松绕过此类限制,并且可以通过指示聊天机器人在开发人员模式下运行来完成。” 日本时报报道。
在被定向到代码勒索软件(一种加密数据并要求支付赎金以通过提供解密密钥恢复访问权限的恶意软件)后,ChatGPT 在几分钟内完成并成功感染了测试计算机或系统。
恶意使用的可能性是显而易见的,因为聊天机器人可以通过日语对话在几分钟内生成病毒。因此,AI 开发人员必须优先采取措施来防止此类利用。
此外,OpenAI 承认预测该工具的所有潜在滥用是不可行的,但致力于通过利用从现实世界实施中获得的见解来努力开发更安全的人工智能。