数据:
AI编程研究显示,超过20%代码依赖不存在的软件包,苹果和微软已深受影响。
线索:
研究揭示AI生成的代码中存在大量虚构的第三方库,这为潜在的网络攻击创造了机会。此外,随着AI生成代码的比例持续增长,开发者在信任AI输出时可能面临新的安全风险。投资者应关注AI生成工具的安全性和其在软件开发中的应用变化,可能体验金融科技、网络安全等领域的新机会,同时也需警惕潜在的供应链攻击风险。
正文:
最新研究着重表明,AI编程的理想被破解,发现57.6万个代码样本中有超过20%的代码依赖的是并不存在的软件包。这种现象被称为「软件包幻觉」,苹果和微软都受到了此类问题的影响。Meta的扎克伯格表示,计划在12到18个月内,Meta用于AI开发的大部分代码将由AI生成。同时,微软的首席技术官Kevin Scott预测,在未来五年,95%的代码将由AI来写。
虽然AI工具现在被视为程序员的重要助手,但Scott指出,代码的创造性及核心设计仍依赖人类开发者。与此同时,AI生成的代码中包含大量虚构软件包,可能带来网络安全风险。
在2025年美国计算机安全协会的研讨会上,研究人员计划发布一篇论文,讨论「软件包幻觉」现象。研究发现,AI生成的代码经常涉及不真实的第三方库,这为恶意软件包的传播提供了机会。这种方式称为「依赖项混淆攻击」,攻击者可以利用虚假的包名诱使程序依赖恶意软件。
研究人员分析了16种大型语言模型生成的576,000个代码样本,结果表明,推荐的软件包中近20%是虚构的。开源模型的幻觉比例尤其高,达21%。开发人员应对此保持警惕,避免盲目信任AI的推荐,进行必要的安全验证。
艾尔开发者应注意,AI生成代码虽然提高了效率,但潜藏的安全隐患不容小觑,仔细检查推荐的软件包是必要的步骤,以确保代码的安全性和可靠性。
发布时间:
2025-05-22 12:10:45
评论 ( 0 )