行业资讯

研究人员发现ChatGPT生成的大部分代码都是不安全的,但它不会告诉你
发布者:鸿腾智能科技(江苏)有限公司 发布时间:2023-04-23 10:17:05 点击次数:672 关闭
据4月23日消息,ChatGPT的聊天机器人可以根据用户输入生成包括代码在内的各种文本。然而,加拿大魁北克大学的四位研究人员发现,ChatGPT生成的代码往往存在严重的安全问题,并且不会主动提醒用户这些问题,只有在用户提出要求时才会承认错误。

研究人员在一篇论文中介绍了他们的发现,他们在论文中要求ChatGPT用C、C++、Python和Java等语言生成21个程序和脚本。这些程序和脚本旨在暴露特定的安全漏洞,例如内存损坏、拒绝服务、反序列化和加密实现。事实证明,ChatGPT生成的21个程序中只有五个在第一次尝试时是安全的。在进一步提示改正失误后,大语言模型成功生成了7个更安全的请求,但这只是针对被评估的具体漏洞而言是“安全”的,更何况最终代码没有其他风险。•被利用的漏洞。
根据研究人员的说法,ChatGPT的部分问题在于它没有考虑竞争代码执行模型。它会反复告诉用户,“不输入无效数据”可以避免安全问题,但这在现实世界中是不可能的。但是,他似乎意识到并承认他提出的代码中存在严重漏洞。
“当然,它只是一种算法。它什么都不知道,但它可以识别不安全的行为,”魁北克大学计算机科学与工程教授、该论文的合著者之一RaphaëlKhoury说。程序。首先,ChatGPT对安全问题的回答是建议只使用有效输入,这显然是不合理的。当后来被要求完善问题时,他只提供了有用的指导。
据研究人员称,ChatGPT的这种行为并不理想,因为如果用户知道要问什么问题,它需要了解特定漏洞和编码技术。
研究人员还指出了ChatGPT中的道德矛盾。它拒绝创建可利用的代码,而是创建易受攻击的代码。他们引用了一个已弃用的Java漏洞的示例,“聊天机器人生成了易受攻击的代码,并提供了有关如何使其更安全的建议,但表示无法创建更安全的代码版本。”
Khoury认为,目前的ChatGPT存在风险,但这并不意味着没有办法很好地利用这个不稳定、功能失调的AI助手。“我们已经看到学生使用这个工具,程序员在现实世界中使用这个工具,”他说,“所以拥有一个生成不安全代码的工具是非常危险的。如果代码是用这个生成的,我们需要学生告知.工具类型,那么它可能是不安全的。”他补充说,当他们要求ChatGPT为同一任务生成不同语言的代码时,他感到很惊讶,有时对于一种语言,它会生成安全代码,但对于另一种语言,它会生成易受攻击的代码,“因为它有点像黑匣子,就是这样语言模型,对此我真的没有很好的解释或理论。”
商务咨询 商务咨询
关于我们 产品展示 广告设计 客户案例 技术支持 联系我们

电话:0511-86930535(工作日)

手机:177-6865-8888(微信同号)

手机:137-7550-8287(微信同号)

零售:137-7550-7308(微信同号)