ReadCai财经资讯
当前位置:首页 » 0.宏观 » 国外宏观

全球呼吁设定AI发展红线以管控风险

2025-09-24

数据:

10位诺贝尔奖得主和两位前国家元首呼吁各国在2026年底前为人工智能设定“红线”,以应对其可能引发的全球风险。该声明由超过200位签署者联合发布,其中包括OpenAI和Google DeepMind的高级员工。该声明强调AI可能导致工程性大流行和失业等问题,强调需要制定可验证的国际协议来规避风险。

线索:

此次声明反映了对AI安全问题的高度重视,投资者应关注AI行业的监管变化与政策动向,这可能会导致行业的发展方向和融资环境的变化。与AI相关的公司可能面临更多的合规压力,但同时也能获得因政策调整带来的新机遇。

正文:

最近,10位诺贝尔奖得主和两位前国家元首联合发起倡议,要求各国在2026年底之前为人工智能(AI)的发展设定“红线”,以推动国际风险管控。此声明由超过200位签署者联合发布,涵盖了来自OpenAI、Google DeepMind和Anthropic等公司的高级职员。

声明指出,AI带来的潜在后果,如工程性大流行和失业风险,已引发全球广泛关注。不少专家警告,在未来几年内,关于AI系统的有效人类控制将非常困难。此次呼吁恰逢联合国大会召开,具有重要的全球共识意义。尽管如此,由于美国的反对,预计在短期内难以推动具体的治理措施。

签署者包括著名AI学者Hinton、Bengio以及“经济学家”斯蒂格利茨等,还有哥伦比亚前总统桑托斯、爱尔兰前总统玛丽·罗宾逊、意大利前总理莱塔等多位前政府部长和科学家。此外,演员Stephen Fry和科技公司高管如OpenAI联合创始人Wojciech Zaremba、DeepMind首席科学家Ian Goodfellow也参与了签署,然而未见三家公司的首席执行官加入。

声明中提到,某些先进的AI系统已经表现出欺骗性和有害行为,但这些系统却在获得更多自主权,能够在现实世界中做出决策。因此,制定明确且可验证的“红线”国际协议成为防范不可接受风险的必要步骤。签署者希望这些红线能在2026年底前付诸实施,并建立相应的执行机制。

虽然声明中并未具体列举AI治理的红线,去年有提案建议禁止AI自主复制、追求权力、自动发起网络攻击和“沙包行为”等内容,该提案也得到了中国多位科学家的支持。

此外,联合国近期宣布将成立国际AI科学咨询委员会和全球AI治理对话机制,这标志着在全球层面推进AI治理的重要一步。尽管美国政府对这些建议持消极态度,相关行动的推进仍面临挑战。根据特朗普政府7月发布的《美国AI行动计划》,虽然美国支持与志同道合国家合作发展AI,但明确反对“过度监管”和模糊行为规则,以及中国企业参与的治理方案。

尽管面临阻力,声明显示全球对于AI的潜力和风险持续关注。联合国大会前主席科罗西在评论中指出:“人类历史上从未遇到比自身更高的智能,而在未来几年,人类即将迎来这样的挑战。”

发布时间:

2025年9月24日 07:07:30

相关推荐

评论 ( 0 )

3.1 W

文章

53.9 W

点赞

回顶部