ReadCai财经资讯
当前位置:首页 » 13. 科技 » 人工智能

谷歌删除AI伦理承诺引发军事化担忧

2025-02-06

数据:

谷歌已删除其人工智能原则中关于不将AI用于武器等潜在有害应用的承诺,加入其他美国科技公司(如OpenAI、Meta)利用AI进行军事目的的行列。

线索:

谷歌的这一行为可能代表了AI技术在军事领域应用的进一步深化,将引发关于AI伦理和安全性的激烈讨论。投资者需关注非和平用途的AI技术开发带来的监管风险和道德争议,可能影响公司声誉及市场反应。此外,如果市场对AI军事化的态度愈发宽容,这可能为相关技术及设备的开发提供新的投资机会。

正文:

谷歌最近的举动引起了广泛关注。继OpenAI和Meta等美国人工智能企业之后,谷歌也在悄然间转变了其对于人工智能的治理承诺。近日,有媒体发现谷歌从其人工智能原则中删除了一段明确承诺不将AI技术应用于武器等潜在有害用途的文本。这标志着该公司可能加入了允许AI技术军事化的行列。

在更新的AI原则页面中,谷歌删除了名为“我们不会追求的应用”的部分,其中包括可能造成整体伤害的技术。谷歌的高层,包括高级副总裁James Manyika和DeepMind负责人Demis Hassabis,试图为这次变动辩护,表示企业与政府应在支持国家安全的背景下共同合作推进AI技术的应用。

根据该公司在2018年发布的AI原则普遍观点,随着技术的快速发展,最初的承诺需要升级。文章强调,AI已成为一种广泛使用的通用技术,许多组织和个人都依赖其构建应用程序。

值得注意的是,谷歌的这一声明发布于其发布四季度财报前夕,而财报结果低于市场预期,导致股价在盘后交易中下跌。这样的背景无疑让谷歌面临更大的压力。在此之前,Meta已允许某些国家安全领域的机构使用其AI模型,而OpenAI也与一初创公司达成合作,着眼于开发国家安全上的AI解决方案。

这一系列的政策变化表明,谷歌的军事化转变引起了外界的质疑,反映出硅谷对军事领域态度的极大转变。如今,谷歌创始人曾经提到的“不作恶”口号似乎正面临挑战。前谷歌道德人工智能团队的联合负责人Margaret Mitchell表示,删除“伤害”这一条款可能使谷歌更倾向于发展可以用于杀戮的技术,这让外界对其未来的道德方向感到担忧。

长期以来,谷歌内部面临如何平衡技术创新与道德责任的挑战,尤其是面对OpenAI及其他竞争对手时,员工对此表达了沮丧和忧虑。

发布时间:

2025-02-05 13:58:00

相关推荐

评论 ( 0 )

3.7 W

文章

72.9 W

点赞

回顶部