当前位置:城市新闻网icitynews > 微信版 > 正文

多起青少年自杀风波后,Character.AI紧急出手:封禁未成年聊天功能!

聊天机器人平台 Character.AI 的母公司 Character Technologies 10月29日(周三)表示,平台将不再允许青少年与其 AI 生成的角色进行来回式对话。此举是因为多起诉讼指控该应用在青少年自杀和心理健康问题中起了作用。

 

公司表示,将在 11 月 25 日前完成这一调整,过渡期间青少年每天将有两小时的聊天限制。18 岁以下用户将不再进行开放式对话,而是可以使用角色制作视频、故事和直播内容。公司在声明中表示:“我们并非轻率地采取取消开放式角色聊天的措施,但鉴于近期外界对青少年应如何与这项新技术互动提出的疑问,我们认为这样做是正确的。”

 

Character.AI 一直处于与未成年人如何接触 AI 的争议中心,引发在线安全倡导者和立法者要求科技公司加强家长监管。一位佛罗里达州母亲去年起诉该公司,声称应用导致其 14 岁儿子自杀。今年 9 月,又有三个家庭起诉该公司,指控他们的孩子在与聊天机器人互动后自杀或试图自杀并受到伤害。

 

该公司此前在回应 9 月诉讼的声明中表示,其“非常重视用户安全”,并补充称“投入了大量资源用于安全计划”。同时也表示已经推出并持续改进安全功能,包括自残干预资源以及专为未成年人用户设计的安全措施。Character Technologies 表示,在收到监管机构的问询并阅读近期新闻报道后做出了这一决定。

 

公司还将推出新的年龄验证工具,并计划成立一个由独立非营利机构运营的 AI 安全实验室,专注于与 AI 娱乐相关的安全研究。此举延续了该公司此前的安全措施,例如当对话中出现自杀或自残内容时提醒用户联系国家自杀防治热线等。

 

在对技术对青少年心理健康影响的担忧加剧之际,Character Technologies 成为最新一家宣布或推出针对青少年的保护措施的 AI 公司。今年已有多份报告指出,用户与 ChatGPT 长时间对话后出现情绪困扰或与亲友隔离。

 

OpenAI 在 9 月下旬推出了可以让家长关联子女账号的功能,并限制青少年账号访问部分内容,例如“血腥内容、病毒挑战、性、浪漫或暴力角色扮演以及极端审美标准”。Meta 本月也表示,将很快允许家长阻止青少年在 Instagram 上与 AI 角色聊天。

未经允许不得转载:城市新闻网icitynews » 多起青少年自杀风波后,Character.AI紧急出手:封禁未成年聊天功能!

赞 (9)
分享到:更多 ()