|
随着AI(人工智能)技术的快速发展,信息传播生态正经历深刻变革。其在为生产生活提供智能高效解决方案的同时,也被一些不法分子利用,生成、传播谣言及不实信息,既侵害公民合法权益、扰乱社会秩序,更对网络综合治理体系构成严峻考验。今年,全国开展“清朗・整治AI技术滥用”专项行动,将利用AI制作发布谣言列为重点整治对象,正是应对这一挑战的重要举措。在此背景下,立足法律框架、整合多元治理力量构建“AI谣言”治理体系,已成为维护网络清朗生态、保障AI技术健康发展的重要议题。 易传播、难防治的“AI谣言”,对监管部门提出了新挑战。过去,谣言的制造和传播多依赖于人工杜撰或简单的技术手段,其规模和迷惑性相对有限。然而,人工智能的介入,特别是生成式人工智能的普及,使得虚假信息的生产呈现出“工业化、专业化、智能化”的新特点。与传统谣言相比,“AI谣言”的危害性体现在多个方面。其一,从生成端看,此类造谣的技术门槛显著降低,内容生成者无需掌握复杂技术,仅通过AI工具捕捉热点话题,便可快速生成涵盖文本、图像、音频、视频等多形态的虚假内容,甚至“一句话指令”就能产出以假乱真的信息,直接推动谣言批量化、规模化生产。其二,从内容形式看,AI谣言内容呈现“多模态融合”特征,通过文字、图片、音视频组合,伪装成“亲历叙事”“权威解读”“数据报告”等形态,通过嫁接真实场景细节、模拟权威信源语气,制造“真假交织”的迷惑效果,甚至嵌入真实地名、机构名或人物特征,大幅增加用户甄别难度。其三,从传播端看,AI生成的虚假信息可借助算法推荐机制精准匹配用户偏好,在社交媒体平台实现指数级传播,短时间内形成舆论热点,加速谣言扩散蔓延。上述特点导致AI直接生成的谣言及借助AI技术放大传播的谣言,更易扰乱网络传播秩序,甚至激化社会矛盾。 针对“AI谣言”等行为,我国已初步形成由法律和专项法规共同构成的法律规制框架。在法律层面,“AI谣言”首先受民事法律约束:根据《中华人民共和国民法典》的规定,若利用AI技术伪造信息诽谤他人、泄露他人隐私或个人信息,受害人可依据该法主张停止侵害、消除影响、赔礼道歉及损害赔偿;在行政责任层面,公安机关可以依据《中华人民共和国治安管理处罚法》,对故意散布谣言、谎报险情、疫情、警情或者以其他方法故意扰乱公共秩序的行为人处以行政处罚;若行为情节严重、社会危害性大,则可能触犯《中华人民共和国刑法》中的诽谤罪,寻衅滋事罪,损害商业信誉、商品声誉罪等罪名,依法追究刑事责任。同时,面对AI技术带来的全新挑战,我国也迅速出台了一系列专项法规,努力在促进发展和防范风险之间寻求平衡。《互联网信息服务算法推荐管理规定》与《互联网信息服务深度合成管理规定》特别禁止了服务提供者和使用者利用其技术制作、复制、发布、传播虚假新闻信息;《生成式人工智能服务管理暂行办法》作为专门针对生成式人工智能的法规,进一步细化了责任主体与义务,要求AI服务提供者应依法承担内容安全与审核、内容标识与真实身份认证等责任;今年发布的《人工智能生成合成内容标识办法》则进一步发挥内容标识提醒提示和监督溯源的技术作用,助力辨别虚假信息。尽管在“AI谣言”治理方面已取得上述进展,但由于技术迭代迅速与法律存在滞后性的矛盾,诸多新型法律问题层出不穷,治理“AI谣言”依然面临挑战。 首先,主体责任归因困难。由于AI本身不具备法律主体资格,无法独立承担刑事、民事或行政责任,因此法律规制的核心在于如何将责任归因于自然人。然而在“AI谣言”生成传播的行为链条中,存在谣言制造者、平台服务提供者,以及构成灰色产业链的多频道网络机构等多个角色,不同角色的责任边界因个案而异,尽管司法实践已在努力将责任从AI延伸至技术背后的具体责任人,但仍存在诸多困难。此类行为中,造谣者作为直接发起者,应当承担主要法律责任,而AI工具提供者是否担责需要具体判断。如果工具提供者未履行合规义务,例如未在生成内容中添加人工智能生成合成内容标识、未拦截敏感词等,就可能因技术漏洞被追责。 其次,责任认定标准模糊。面对AI技术带来的平台责任新挑战,传统“避风港原则”和“技术中立原则”的适用遭遇困境。平台是否担责的关键在于是否“明知或应知”谣言存在却未干预。如果平台未审核AI生成内容,或通过算法推荐扩大谣言传播,就可能因未尽到“合理注意义务”承担连带责任。“技术中立”不能成为平台的“免责金牌”。因此,“通知——删除”原则的适用需要相应调整。但是平台对用户特别是经营者用户的监管义务和职责如何确定,还需要进一步明确,平台信息过滤义务的设定及边界还需要进一步科学化、精细化设计。 最后,追责溯源与技术识别存在局限。民事诉讼遵循“谁主张谁举证”的原则,但随着AI技术的飞速发展,其生成内容的真实度越来越高,即便是专业人员也难以辨别真伪,使得传统的辟谣机制面临成本高、速度慢、效果差的困境。谣言借助AI技术形成二次传播,进一步增加了辟谣的难度,导致受害方举证困难。行政执法和刑事追诉也同样面临发现难、认定难、溯源难等问题,导致“AI谣言”追责成本过高、效率偏低。 为了更有效地应对上述挑战,需要法律与技术协同共振,行业和社会多元主体共同努力,构建多维度的协同治理体系。 完善与细化AI生成内容相关法律法规,以技术监管技术。法律规制必须与技术手段深度融合,强制性AI生成内容标识是应对“AI谣言”最直接的对策之一。我国目前已经通过《人工智能生成合成内容标识办法》从立法层面提出管理要求,并实施《网络安全技术人工智能生成合成内容标识方法》等强制性国家标准,帮助用户识别虚假信息,为执法部门的追溯提供技术支撑。同时,加强对网络平台和自媒体的常态化检测机制,通过建设国家级数字取证实验室和舆情监测平台,提升对谣言内容的主动发现、快速鉴定和精准溯源能力。 强化平台与技术服务提供者的主体责任,筑牢“第一道防线”。平台应提升技术能力,加强内容审核。一方面,健全自动化审核与人工审核相结合的机制,提升多模态AI检测能力,结合声纹、语义、画面匹配度识别AI账号内容,提高对谣言的识别准确率和效率,降低谣言的传播权重。建立“AI+人工”分层审核机制,AI负责对大量内容进行快速检测和初步判断,筛选疑似造谣内容的账号,推送人工复审,强化对AI生成内容的明确标注与提示,并在用户使用过程中进行持续提示。另一方面,建立快速、有效的辟谣通道,并对高频传播谣言的账号进行及时管控,以减弱谣言产生的影响。技术服务提供者需履行全周期安全责任,将法律合规要求内置于AI产品设计框架与伦理框架中,加强内容标识技术研发与应用,提高谣言溯源能力。在这一过程中,应注意把握好创新发展与安全运行之间的动态平衡,既要为创新应用留出空间,也要为各类应用划出红线和底线。 提升行业自律与公众素养,加强协同共治。除了政府监管,AI企业应承担起应有的社会责任,加强行业自律。可以通过制定相关伦理准则和行业标准,加强技术伦理审查。自媒体从业者则需增强自身责任意识,自觉遵守法律法规和道德规范,坚持真实、准确、客观的原则发布信息,不为追求流量和关注度而刻意制造、传播虚假信息,对于自己发布的错误信息及时更正和澄清,积极主动地进行辟谣,引导公众正确认知。同时,通过深入开展法治宣传教育,以案释法,不断提升公民的数字素养和媒介素养,使其具备识谣、辨谣、防谣、抵谣的能力,压缩谣言的生存空间。用户应当主动了解AI技术的应用特点,在转发传播内容前核实信息的来源和真实性,避免成为谣言的传播者,在发现疑似谣言或其他虚假信息时,及时向平台和监管部门举报,为净化网络环境贡献力量。 (作者系南开大学法学院副院长) (责编:杨洋)
【版权声明】凡来源学习时报网的内容,其版权均属中央党校报刊社所有。任何媒体、网站以及微信公众平台在引用、复制、转载、摘编或以其他任何方式使用上述内容时请注明来源为学习时报网。
|