(来源:中国妇女报)
转自:中国妇女报
图片源自网络专家表示:AI谣言通过情绪煽动传递恐惧不安,既会让普通人陷入心绪不宁、产生不安全感,又经多人互动后更易演变为公众集体性恐慌,若平台、媒体、政府未能及时提供准确信息以打断恐惧信息链,不仅可能引发网络事件、破坏社会安宁,还会严重损害政府公信力。长期来看,这种谣言屡禁不止、真相滞后的情况更会削弱公众对政府治理与平台的信任,动摇社会协作的基础。
□ 中国妇女报全媒体记者 李瑞琪
“天呐!上虞工业园着火了,浓烟都把天空遮住了,还不断有爆炸声!”一则以AI合成而来的“上虞区工业园区火灾”视频在网络上快速传播。视频里,火势凶猛、震撼的画面让网民不断转发,短时间内浏览量急剧攀升,周边群众忧心忡忡。然而,经民警核查,视频中的火灾场景为AI技术拼接其他视频伪造的。据悉,该团伙利用人工智能技术制作虚假视频超3000个。
这起典型案件正是当下AI谣言泛滥的缩影:近年来,Al技术的快速更新让谣言进入高效生成、精准扩散的新阶段,持续冲击着社会秩序与公众信任。AI谣言为何传播如此之快?又为何能轻易突破公众的认知防线?这些虚假信息又是如何从个体误导快速蔓延至社会层面?为此,记者进行了相关采访。
从经济损失到社会信任侵蚀
AI技术的崛起彻底改变了谣言的传播逻辑,其传播范围、扩散速度与危害程度都远超传统谣言。清华大学新闻与传播学院2024年发布的研究报告显示,2023年以来,网络谣言中AI生成内容占比显著上升,信息量同比增长达65%,形成了“需求分析—内容生产—精准投放”的产业化造谣链条。在传播速度上,AI生成的谣言借助算法推荐实现“秒级扩散”,能在短时间形成巨大的舆论风暴。
然而AI谣言的破坏力早已超出单一事件本身,记者梳理发现,AI谣言在经济、社会、灾害救援等层面的破坏力触目惊心。
在经济层面,据国家反诈中心数据,2025年上半年AI换脸诈骗案件涉案金额超68亿元,单起案件最高损失达2000万元。某涉案机构通过AI分析社交平台热词,针对高关注度话题批量生成虚假信息,最高峰时单日可产出4000至7000篇假新闻,关联账号达800余个,通过流量变现每日非法牟利超万元。
社会层面的危害同样不容小觑。“广州限制外卖配送”的虚假信息传播期间,不法分子借机使用AI工具批量生成多篇看似权威的“政策解读”文章,通过不实文章引流牟利,不仅导致外卖行业从业者陷入恐慌,更是直接扰乱了正常的市场秩序。
而在灾害救援场景中,AI谣言的危害更显致命:四川宜宾筠连山体滑坡事故发生后,某账号为吸粉引流,使用AI工具生成“4名遇险学生被路过司机救出”的虚假信息,引发大量转发误导,既干扰了救援信息的准确传递,更引发公众对救援行动真实性的质疑,极大消耗社会救援的信任资源。无独有偶,新疆库车5.0级地震后,各类AI拼接的虚假图文帖文广泛传播,虚假的“库车市地震导致多处房屋倒塌”等信息直接干扰了救援指挥决策,延误了搜救效率。
反复的AI谣言与辟谣,对公众心理与社会信任体系造成多维度冲击。西安交通大学人文学院社会学系副教授孙晓娥指出,AI谣言通过情绪煽动传递恐惧不安,既会让普通人陷入心绪不宁、产生不安全感,又经多人互动后更易演变为公众集体性恐慌,若平台、媒体、政府未能及时提供准确信息以打断恐惧信息链,不仅可能引发网络事件、破坏社会安宁,还会严重损害政府公信力。长期来看,这种谣言屡禁不止、真相滞后的情况更会削弱公众对政府治理与平台的信任,动摇社会协作的基础。
公众为何难辨AI谣言?
受访专家表示,AI谣言之所以能轻易突破公众心理防线,核心在于其精准击中了当下社会的认知痛点、心理弱点与信息环境缺陷,再加上逼真的内容呈现,让辨别变得异常困难。
一方面,公众对AI技术的陌生感与敬畏感,使得AI生成的内容天然带有“技术背书”的光环。多数用户缺乏辨别AI生成内容的专业能力,面对看似逻辑严谨、细节丰富的图文音视频,容易默认其具备“数据支撑”或“技术验证”的权威性,难以察觉其中的事实漏洞。正如世界互联网大会人工智能专业委员会主任委员曾毅所言,AI生成内容往往“语言表达看似合理,但内容实则虚假甚至违背常识”。这种“逼真的虚假性”让普通用户难以甄别。
另一方面,情绪驱动更成为AI谣言突破公众心理防线的“助推器”——它能直接削弱人们的理性甄别意识。AI谣言的制造者往往精准捕捉社会热点与公众情绪痛点,比如灾难发生后的担忧、社会事件中的焦虑等,针对性生成虚假信息。在强烈的情绪冲击下,人们的理性思考能力会下降,更倾向于相信与自身情绪共鸣的内容,并主动转发扩散。孙晓娥表示,生成式AI能模仿人类表达习惯,伪造文本、图像、视频甚至语音,模糊“真实”与“虚假”的边界,因此普通大众很难在日常生活中,或者浏览新闻的间隙,特意去识别其是否为AI谣言。
此外,AI生成内容的高度逼真性,突破了传统的辨别能力。如今,AI换脸能让名人“说出”从未讲过的话,AI合成视频能制造出“真实”的灾难现场,甚至可以模拟官方媒体的播报风格。有网友吐槽:“以前还能通过画面模糊、细节粗糙分辨假视频,现在AI生成的内容连光影效果都挑不出毛病,根本分不清真假。”
多方合力,筑牢AI谣言的“防火墙”
面对AI谣言的蔓延态势,相关法律专家建议,要构建“法律规制+全民防范+技术治理”的多元体系,才能筑牢信息安全的防线。
法律层面,明确责任主体是关键。北京华资律师事务所律师张洪嘉表示,生成者若针对公民日常造谣,侵犯肖像权、名誉权,需承担停止侵权等民事责任;故意编造内容引发恐慌、扰乱社会秩序,违反治安管理处罚法,面临行政处罚;情节严重的,触犯刑法编造、故意传播虚假信息罪,承担刑事责任;传播者中,恶意传播者为博流量或明知是谣言仍扩散,造成不良影响会被行政处罚,引发重大事故、破坏社会稳定的,同样可能构成编造、故意传播虚假信息罪的共犯,承担刑事责任,同时也需承担相应民事侵权责任。无意识传播者造成严重后果、伤害他人权益的,也需承担民事责任。
张洪嘉补充,依据《人工智能生成合成内容标识办法》,平台要对AI内容标识检验、监测甄别,发现谣言传播或接到举报不及时处理,将被行政处罚,失职致严重危害的,承担连带民事赔偿责任。
在此基础上,孙晓娥提出,需明确“技术开发者”“平台”与“用户”三方的问责与追责边界——高风险AI系统(如深度伪造工具)需强制标注,平台需对用户生成的AI内容承担审核义务,对生成和散布AI谣言的相关主体依法处罚,严重时追究民法与刑法责任。
公众是抵御AI谣言的重要主体,提升全民防范意识与辨别能力至关重要。孙晓娥指出,预防AI谣言问题于未发生之前,即防患于未然更为重要。对此,张洪嘉表示,公众提升辨别能力可从四方面着手:增强核查信息意识,从官方、权威渠道获取信息;注重细节,AI内容常存在人物手指异常等缺陷;核验逻辑合理性,警惕时间矛盾等问题;善用辟谣工具,通过官方平台验证疑似谣言。相关部门也需采取防范措施:强化技术监管,建立谣言治理闭环机制;开展专项整治,打击AI谣言及违规账号、平台;推进普法与科普宣传,普及识别技巧和法律后果;健全协同机制,多部门联动打击AI谣言全链条,搭建举报通道。
孙晓娥还建议,相关部门也需主动作为,强化公众“识别意识”与“免疫力”。一方面,将“AI谣言识别”纳入基础教育与社区培训,对公众(尤其老年人)进行“来源核查”等辨别方法的宣传与培训;另一方面,应重视构建正确与准确信息生态,政府进行常态化信息发布,平台应设立“AI谣言澄清专区”,鼓励普通用户沟通参与信息核查,形成“官方信息发布+平台辟谣+公众监督”的良性互动。
平台与技术层面的治理同样不可或缺。“以AI治AI”成为高效解决方案。据短视频相关从业人员介绍,平台通过引入AI大模型开展谣言治理,通过“提取信息—联网检索—研判处置”的全流程自动化机制,将谣言处置时效从以天提速到以小时为单位,为快速遏制谣言扩散发挥了关键作用。
孙晓娥建议,平台与技术开发者还需建立“预防—阻断—应对”机制:要求技术开发者与平台建立完整的“AI谣言识别机制”,在AI谣言生成与散布初期即进行识别与阻断,避免其通过算法推荐大规模传播,形成“技术识别+平台阻断+政府问责”的全流程治理闭环。
AI技术的发展是一把“双刃剑”,它既为生活带来便利,也催生了谣言等新问题。治理AI谣言,不仅需要法律的刚性约束、技术的精准防控,更需要每一位公众的理性参与。唯有多方合力、久久为功,才能打破AI谣言的“围城”,守护好信息时代的真实与信任。