|
|
当前,人工智能技术快速发展,大模型能力快速跃升,应用场景持续拓宽,极速渗透到社会生活的方方面面,其安全性不仅关乎技术稳定,更直接关系到个人权益、社会公平乃至国家安全。目前关于人工智能安全的讨论,常被一种“技术中立”和“工具理性”的话语所主导,在应对思路上将人工智能安全问题简化为纯粹的技术缺陷,如模型产生“幻觉”、数据存在偏见、易受恶意提示词攻击等,并试图通过更精良的算法和模型优化等技术性举措来修补。但是,人工智能安全并非单纯的技术议题,其背后潜藏着责任归属问题。 在人工智能系统的开发、部署与使用过程中,不同主体扮演着不同角色,承担着不同责任,但现有框架下责任划分并不明晰。如可能因追求技术突破而忽视潜在风险,可能因缺乏专业知识而无法有效识别风险,可能因技术认知局限而难以制定科学合理的监管政策。这种责任缺失状态,不仅阻碍了人工智能技术的健康发展,还可能引发一系列社会问题。更为严峻的是,在人工智能事故发生后往往导致责任推诿现象的发生。当人工智能系统造成损害时,开发者可能声称已尽到技术告知义务,使用者则可能主张自身只是被动接受技术成果,而监管者也可能因缺乏明确法律依据而难以迅速定责。这种“三个和尚没水吃”的困境,使得受害者权益难以得到及时有效保障,也削弱了公众对人工智能技术的信任基础。因此,破解人工智能安全背后的责任归属问题,已成为推动人工智能健康可持续发展的当务之急。 究其原因,在于技术“黑箱”与责任缺失的双重叠加。平台企业借助模糊授权、跨平台抓取等手段,低成本获取用户数据,既缺少明确的定价补偿机制,又用算法封闭性掩盖数据滥用风险,形成“用户贡献数据却失去控制权”的结构性不公。当人工智能产生虚假内容或作出错误决策时,企业常常以“算法自动运行”“非人为控制”为由逃避责任,而用户却要独自承受名誉受损、财产损失等后果。 商业化驱动下的伦理弱化。部分企业沿袭传统工业逻辑,把规模与利润置于安全伦理之上,未构建完善的人工智能伦理治理体系。在教育、医疗等敏感领域,一些企业贸然部署未经验证的人工智能系统,却未设置强制人工审核机制;更有甚者利用算法进行消费诱导、情绪操控,以用户权益为代价换取短期利益。这种“收益私有化、风险社会化”的模式,损害了公众对人工智能技术的信任。 监管体系的滞后性。现有法规对人工智能全链条的权责划分还不够明晰,跨部门监管协调机制还不健全,难以有效应对技术快速迭代产生的新型风险。当事故发生时,开发者、平台、使用者之间相互推诿,而“谁主张谁举证”的传统原则,让处于信息劣势的用户难以完成责任追溯,最终不了了之。 加强人工智能治理应注重构建权力与责任对等的治理体系。通过强化大众参与、健全法律框架明确责任归属、加强合作打破垄断等推动人工智能安全治理。 人工智能安全需涵盖经济安全、社会公平、权力制衡、民主问责等维度。必须将“人的福祉”和“社会公平正义”作为人工智能安全的重要考量因素,构建一个综合性的安全观,这一安全观不仅要包括技术的稳健性和伦理的符合性,还要充分考虑其对社会的影响。同时,必须将安全理念内化为人工智能研发过程中的核心要素,而不是仅仅作为事后补救的附加措施。具体而言,可以通过采用伦理嵌入的方法,在技术开发初期就将伦理原则转化为具体可执行的技术要求,从而确保技术的健康发展。此外,还应根据风险等级将人工智能系统划分为不可接受风险、高风险、有限风险和最小风险四类,并针对不同类别实施差异化的监管措施,以确保人工智能技术的安全、可靠和可持续发展。 构建一个全面且可追溯的问责机制。这一机制的核心在于打破技术的封闭性,即所谓的“技术黑箱”,从而推动算法的透明度和可解释性,确保公众能够通过多种渠道参与到监督过程中。为此,我们需要通过制定和完善相关的法律法规及行业标准,明确人工智能系统在开发、部署和使用等不同环节中,各相关主体包括开发者、部署者和使用者的安全责任。这样,才能建立起一个贯穿技术全生命周期的、环环相扣的问责链条。值得注意的是,人工智能所带来的风险与以往任何技术都存在显著差异。其风险并非集中在产品“出厂那一刻”,而是在于它“被激活的一瞬间”。因此,真正的风险控制点并不在于模型参数的优化,而在于技术边界的设计与界定。我们必须确保人工智能系统始终在明确的边界内安全、稳定运作。每一项人工智能能力的释放,都应当同步建立与之配套的权限机制、追责机制、技术封装和行为隔离措施。只有这样,我们才能在保障人工智能技术发展的同时,有效防范和应对可能出现的风险,确保技术的健康、可持续发展。 敏捷协同的治理结构是实现高效科技治理的关键。在这一结构中,政府、企业、学术界、用户以及公民社会等多方主体需要紧密合作,共同构建一个多元化的治理网络。政府部门在这一网络中扮演着重要角色,可以通过加强法律法规和公共政策的引导作用,如积极推进人工智能法的出台,为人工智能的发展提供明确的法律框架。同时,政府还可以通过投资建设公共安全基础设施,如国家级的人工智能安全评测平台,来降低所有参与者的安全门槛,尤其是对于中小企业和公共机构而言,这将极大地减轻其负担,提升整体安全水平。在这个治理结构中,独立的安全审计机构、第三方测评机构以及公众监督机制都发挥着不可或缺的作用。它们能够对“技术权力”形成有效的制衡,确保技术的开发和应用不会偏离伦理和安全的轨道。人工智能行业协会作为行业内部的自律组织,可以牵头制定大模型安全伦理自律公约,通过行业自律来加强风险监管,推动企业在技术研发和应用过程中自觉遵守安全伦理规范。这种多方协同、多角度制衡的治理结构,将为人工智能的健康发展提供坚实的保障。 此外,还需要构建全链条权责治理体系。立法层面明确数据产权界限与算法责任归属,对高风险领域实行“可推定责任”原则。企业将伦理治理融入战略,设立算法伦理委员会与前置评估机制。监管部门建立跨领域协同机制,推行“数据—模型—输出”全链路备案制度。强化社会监督与行业自律协同发力,鼓励第三方机构开展算法合规评估与伦理审计,畅通公众举报渠道。健全数据安全应急处置机制,对算法滥用、数据泄露等行为实行“零容忍”追责问责。通过立法、企业、监管、社会多维度联动,形成权责清晰、监管有效、治理协同的闭环体系。唯有让开发者、平台、使用者各尽其责,才能让人工智能技术在安全的轨道上实现向善创新。 (责编:郑继民)
【版权声明】凡来源学习时报网的内容,其版权均属中央党校报刊社所有。任何媒体、网站以及微信公众平台在引用、复制、转载、摘编或以其他任何方式使用上述内容时请注明来源为学习时报网。
|