■AI造假侵入公共记忆
近期,一段“以色列士兵躲在墙后痛哭”的视频在社交媒体平台X上广泛传播。发布者称以军在伊朗火箭弹和无人机袭击下遭受重创,该视频播放量迅速突破160万。德国电视二台调查发现,该视频系典型的AI生成产物。视频中士兵佩戴的徽章时隐时现,上面的文字更是一串毫无意义的乱码。多名网友也指出,视频中制服样式、哭声音效和枪械细节都与真实场景存在明显偏差。
生成式工具进入新闻报道流程后,专业新闻机构的把关机制同样面临考验。2月,德国电视二台紧急召回并解职了该机构一名驻纽约记者,因为其发回的一则关于美国移民与海关执法局执法行动的报道中,混入了一段由视频生成模型Sora生成的虚假视频,画面角落清晰可见Sora水印。事件发生后,德国电视二台宣布为员工开设强制性培训课程,规范AI工具在新闻报道中的使用。“漠视新闻准则造成的损害是巨大的。这关乎报道的公信力。”德国电视二台总编辑贝蒂娜·绍斯滕说。
■操纵制造“社会共识”
比伪造内容更危险的,是AI可以伪造“多数人的意见”。一个国际团队近期在美国《科学》杂志“政策论坛”栏目发表文章说,数字操控正进入新阶段。散布虚假信息的不再只是单个账号,而是伪装成真实用户的AI集群。这类集群能够彼此互动、回应真人、适应情绪变化,并在不断相互附和和强化中制造出一种并不存在的“社会共识”。
德国康斯坦茨大学研究人员达维德·加西亚解释说,这类AI集群由一组可被个人或组织控制的AI智能体构成。它们拥有相对稳定的身份和记忆,能够模拟人类行为,既可以围绕特定目标协同行动,也能够根据实时事件和用户反馈调整表达方式。这类AI集群与早期的僵尸网络有着显著区别,后者通常行为机械,较容易识别;而前者可以跨平台运行,并通过彼此呼应不断放大影响。
加西亚认为,真正的风险将不再局限于个别虚假信息,而是“操纵者”可能借助大模型虚拟出“另一种社会”。他说:“AI集群可以通过缓慢而持续的过程,制造某种立场已获广泛支持的假象,进而影响人们的观点甚至改变社会规范。当许多看似彼此独立的声音不断表达相同立场时,多数派的错觉就会形成,即使这种多数原本并不存在。”
■从被动辟谣到主动识别
面对这种可以伪造“社会共识”的新威胁,研究人员和机构已经开始行动,利用技术手段予以识别,并通过健全监督机制,及时鉴别和揭露虚假信息和内容。
加西亚认为,应利用模式识别等技术手段,检测内容传播中是否存在异常同步、相互呼应和跨平台联动,以更快发现由AI驱动的群体性操纵。
除了技术识别,研究人员还主张建立独立监督机制,持续观察AI智能体如何在不同平台上影响公共讨论,及时揭露虚假内容。加西亚说,这类网络越早被揭露出来,就越难侵蚀公众信任,也越难把原本多样的社会意见伪装成单一共识。
德国人工智能研究中心(DFKI)和莱茵兰-普法尔茨州政治教育中心等机构日前推出尚处于测试阶段的深度防伪检测工具,以提高公众对可疑内容的识别能力。与仅依赖像素异常识别伪造痕迹的传统方法不同,该工具不仅会对图像和音频进行取证分析,还会结合上下文展开交叉核验。后台的AI智能体会并行检索网络信息,并调用经过核实的事实资源库辅助判断,包括德新社事实核查团队提供的数据。
DFKI在新闻公报中说,用户只需点击两下,就能将社交媒体上的可疑图片转发给检测系统,系统随后会分析相关材料是否由AI生成或经过篡改,并向用户反馈其为虚假内容的可能性以及相应线索。
莱茵兰-普法尔茨州政治教育中心主任伯恩哈德·库卡茨基说,虚假信息已成为当前信息传播中的突出问题,公民每天都可能接触到被操纵的内容,因此辨别和核验信息的能力尤为重要。
新华社柏林3月19日电
中山日报微博