当前位置:城市新闻网icitynews > 微信版 > 正文

不再只靠科技公司自查!美国将给青少年AI安全设独立标准

独立汽车碰撞测试自上世纪90年代中期开始以来,推动汽车制造商不断改进安全设计,每年挽救了数千人的生命。如今,非营利媒体监督组织“常识媒体”(Common Sense Media)希望将类似模式引入人工智能领域。
该组织宣布成立“青少年人工智能安全研究所”(Youth AI Safety Institute)。这是一个由行业支持、独立运作的研究与测试实验室,旨在评估人工智能工具可能对儿童和青少年构成的风险,并向家长和家庭提供更易理解的AI安全信息,同时为科技公司制定青少年AI安全基准。
当前,人工智能公司正竞相开发更强大、更广泛使用的模型,速度有时可能被置于安全测试之上。由于AI工具应用复杂,评估其安全性远比汽车碰撞测试更困难。常识媒体及其顾问委员会认为,仅依靠科技公司自我监管,已经不足以保护年轻用户。现有许多第三方AI安全研究更多关注失业、人类灭绝等社会或生存风险,而非普通家庭日常使用中的儿童安全问题。
苹果公司前AI战略负责人、该研究所顾问约翰·詹南德雷亚(John Giannandrea)表示,虽然领先AI公司会投入安全研究,但目前缺乏独立标准来判断哪些模型更适合不同年龄段的孩子。他认为,真正可行的方式是建立一套公开、独立的安全标准。
该机构成立之际,AI安全争议不断升温。多起诉讼指控聊天机器人鼓励儿童自杀;CNN调查发现,AI聊天机器人曾向青少年测试账号提供暴力建议;xAI旗下Grok也曾因生成涉及女性和儿童的性化图像受到批评。与此同时,AI进入课堂后,也引发外界对其是否影响学习能力的担忧。常识媒体首席执行官詹姆斯·斯泰尔(James Steyer)表示,许多家长和教育工作者都感到,AI正在快速重塑儿童、家庭和学校生活,社会正处于关键时刻。
青少年人工智能安全研究所初期年度预算为2000万美元,资金来自OpenAI基金会、Anthropic、Pinterest、沃尔顿家族基金会、高盛董事总经理吉恩·赛克斯(Gene Sykes)等机构和慈善人士。常识媒体称,出资方不会参与研究所运营或研究决策。
该机构顾问委员会还包括斯坦福大学工程学院计算机科学系主任迈赫兰·萨哈米(Mehran Sahami)、密歇根大学医学院发育行为儿科部门主任珍妮·拉德斯基博士(Dr. Jenny Radesky),以及加州首任卫生总监纳丁·伯克·哈里斯博士(Dr. Nadine Burke Harris)。
研究所将对年轻人常用的主要AI模型和产品进行“红队测试”,通过压力测试识别潜在风险和安全漏洞,并发布面向公众的指南。同时,该机构将制定AI青少年安全基准,推动科技公司将这些标准纳入产品开发和测试流程。
詹南德雷亚表示,AI行业已经习惯用基准衡量模型表现,“现在我们需要的是衡量伤害的基准,尤其是儿童伤害。”常识媒体表示,成立该研究所也是为了避免重蹈社交媒体时代的覆辙。过去,社会花了多年时间,才通过举报人、调查报道和诉讼揭示社交平台对年轻人的危害。拉德斯基表示,新机构希望更快行动,让AI产品设计更多围绕儿童真正需要的安全与福祉展开。

未经允许不得转载:城市新闻网icitynews » 不再只靠科技公司自查!美国将给青少年AI安全设独立标准

赞 (10)
分享到:更多 ()