研究发现,接受 Github Copilot 等人工智能工具帮助的程序员,比那些单打独斗的程序员产生的代码更不安全。在 89 种情况下,在 Copilot 的帮助下制作的计算机程序中约有 40% 存在潜在的可利用漏洞。更糟糕的是,他们发现人工智能的帮助往往会使开发者对其输出的质量产生错觉,“更有可能相信他们写的代码是安全的”。
研究发现,接受 Github Copilot 等人工智能工具帮助的程序员,比那些单打独斗的程序员产生的代码更不安全。在 89 种情况下,在 Copilot 的帮助下制作的计算机程序中约有 40% 存在潜在的可利用漏洞。更糟糕的是,他们发现人工智能的帮助往往会使开发者对其输出的质量产生错觉,“更有可能相信他们写的代码是安全的”。