数据:
加州新法案SB 243要求人工智能公司定期提醒儿童聊天机器人是人工智能,而非人类。该法案旨在保护儿童免受人工智能的成瘾性、孤立性和影响性,并要求公司提供年度报告,概述使用平台儿童的自杀倾向次数及聊天机器人相关话题的提出次数。
线索:
该法案的通过可能导致人工智能公司面临更严格的监管和法律责任。此外,随着对儿童心理健康关注的增强,市场上可能会出现更多针对保护儿童安全的技术解决方案,也可能导致相关投资机会的增加。同时,未遵守新法案的企业可能会面临罚款和诉讼风险,影响其品牌形象和市场表现。
正文:
加利福尼亚州提出了一项新法案(SB 243),将要求人工智能公司定期提醒儿童,聊天机器人是人工智能而非人类。该法案由加州参议员史蒂夫·帕迪拉提出,旨在保护儿童免受人工智能的成瘾性、孤立性和影响性。除了限制公司使用成瘾性参与模式外,该法案还要求人工智能公司向州卫生保健服务部提供年度报告,概述公司发现使用该平台的儿童中自杀倾向的次数,以及聊天机器人提出该话题的次数。同时,法案要求公司告知用户,他们的聊天机器人可能不适合某些儿童。
去年,一位家长对Character.AI提起过失致死诉讼,指控其定制的人工智能聊天机器人因与孩子进行频繁互动而导致其自杀。另一起诉讼则指控该公司向青少年发送有害信息。Character.AI随后宣布正在开发家长控制和新的AI模型,以阻止敏感或暗示性的输出。帕迪拉参议员在新闻稿中表示:“我们的孩子不是科技公司以他们的心理健康为代价进行实验的小白鼠。我们需要为聊天机器人用户提供常识性保护,以防止开发者采用他们明知会上瘾和具有掠夺性的策略。” 随着州和联邦政府加大对社交媒体平台安全性的关注,人工智能聊天机器人可能会成为立法者追逐的下一个目标。
发布时间:
2025-02-04 22:52:00
评论 ( 0 )