一项新研究显示,随着人工智能(AI)技术使虚假内容更容易制作,越来越多的美国青少年表示,他们在网上被AI生成的照片、视频或其他内容误导。这项研究由非营利倡导组织Common Sense Media发布,调查了1000名13至18岁青少年使用生成式AI工具制作的媒体的经历。约35%的受访者表示曾被网上的虚假内容欺骗。然而,更大比例的41%受访者表示遇到过真实但具有误导性的内容,22%的人表示曾分享过最终被证实为虚假的信息。
这一调查结果发布之际,越来越多的青少年开始使用人工智能。Common Sense去年9月的一项研究显示,70%的青少年至少尝试过生成式AI。在ChatGPT发布两年后,AI领域竞争日益激烈,1月27日(周一)DeepSeek的迅速崛起更是引人注目。但根据康奈尔大学、华盛顿大学和滑铁卢大学2024年7月的一项研究,顶级AI模型仍然容易出现“幻觉”,这意味着即使是最好的AI平台也会凭空捏造虚假信息。
Common Sense的研究还显示,接触过网上虚假内容的青少年更有可能认为AI会加剧他们对在线信息的验证难度。该调查还询问了青少年对谷歌、苹果、Meta、TikTok和微软等大型科技公司的看法。研究发现,近一半的青少年不信任大型科技公司在AI使用方面做出负责任的决定。
研究指出:“生成式AI使普通用户能够轻松快速地传播不可靠的声明和非真实媒体,这可能会加剧青少年对媒体和政府等机构本已较低水平的信任。”青少年对大型科技公司的不信任反映了美国社会对主要科技公司日益增长的不满。美国成年人也不得不面对误导性或完全虚假内容增加的问题,而本已有限的数字防护措施被削弱更是加剧了这一现象。
自2022年收购推特并将其更名为X以来,埃隆·马斯克(Elon Musk)大幅削减了其内容审核团队,允许错误信息和仇恨言论传播,并恢复了此前被禁的阴谋论者的账户。最近,Meta开始用“社区笔记”取代第三方事实核查机构,首席执行官马克·扎克伯格(Mark Zuckerberg)指出,这将导致更多有害内容出现在Facebook、Instagram和其他平台上。
研究发现:“青少年对在线内容准确性的看法表明他们对数字平台的不信任,这为针对青少年的错误信息教育干预提供了机会。”研究还补充道,“科技公司也需要优先考虑透明度,并开发能够增强其平台内容可信度的功能。”
(图片源于CNN)
未经允许不得转载:城市新闻网icitynews » AI助长虚假内容泛滥:超三成美国青少年曾受误导