|
|
近年来,人工智能正以前所未有的速度嵌入社会运行与知识生产的多个环节,已经从被研究的对象加速向参与判断和决策的重要技术工具转变。尤其值得关注的是,人工智能不仅被用于生成信息,也被广泛用于对自身产出进行识别、评估与裁断,“用人工智能检测人工智能”“以算法判断算法”,正从局部尝试转变为具有普遍意义的应用实践。 科学认识并非仅建立在工具能力之上,而是还依赖于可解释的因果关系、可被检验的论证过程以及清晰的责任归属等。当人工智能深度介入判断活动,在显著提升效率、缓解人力压力的同时,也正在改变判断决策的实际运行模式和逻辑:判断与决策越来越多地由技术系统完成,人的角色则逐渐退居为结果的接受者与执行者。正是在这一背景下,一个更为根本的问题随之浮现,即这种判断方式,是否仍然属于科学意义上的判断? 科学判断并非对结论的简单认定,而是一种嵌入理解、论证与责任之中的过程性实践认识活动。它通常包含对问题背景的把握、对方法路径的选择、对证据可靠性的评估以及对结论合理性的说明,其有效性依赖于可解释的因果链条、可被检验的论证过程和明确的责任主体。从这一意义上看,科学判断的“实际运行方式”,并不只是结论如何呈现,而是判断在何处生成、由谁完成、依据何种标准以及如何被验证。在传统科学实践中,这一运行方式以人为核心,通过公开讨论和反复检验形成判断共识。 人工智能的广泛应用,正在改变判断生成的方式。这种变化在多个领域中已有具体体现。在公共治理中,算法模型被用于对风险事件进行预测分级,对重点人群和事项进行自动筛选,判断结果直接影响治理资源的投向;在金融领域,人工智能参与信用评估、反欺诈识别和投资决策辅助,其评分结果往往构成决策的重要依据;在平台治理中,算法系统对内容进行识别、分类和处置,判断过程高度自动化。判断不再主要发生在以人为主体的理解与讨论过程中,而是被前置到技术系统的运行逻辑之中。算法模型通过对大规模数据的处理和模式识别,直接给出风险等级、可信度评分或结论建议,人往往在结果生成之后才介入确认。判断由此从一种“理解—论证—负责”的过程,转变为一种“计算—输出—采纳”的流程,其运行重心明显向技术系统转移,而人作为实践和认识主体的角色和作用弱化。 在许多现实场景中,人们已经习惯于让算法给出“最终答案”。当系统提示某段内容“高度疑似人工智能生成”,当模型判定某一行为“风险等级偏高”,相关结论往往被直接采纳,而很少再追问其判断依据。这种接受方式看似高效,却正在改变判断本身的性质,判断不再需要被说服,而只需要被执行。 当人工智能被用于裁决人工智能时,这种变化尤为明显。在内容治理实践中,平台算法不仅生成推荐和筛选结果,也负责识别哪些内容由算法生成,其判断结果直接触发限流、标注甚至删除;在模型安全和风险评估中,人工智能系统被用于审查其他模型是否合规、是否存在偏差风险。这些判断已经不再只是参考意见,而是实际发挥着裁决作用。真正值得警惕的,并不是这些裁决是否“准确”,而是裁决标准来自何处。当人工智能裁决人工智能时,判断依据并非外在的、可讨论的规范,而是来自系统内部的统计特征、参数设定和概率阈值。换言之,系统并不是在适用一个独立、可靠和公认的标准,而是在依据自身的运行逻辑对同类系统作出评价。 在这一过程中,判断逐渐被压缩为结果。算法给出的标签、评分或等级,被直接嵌入后续流程,成为行动的触发条件。判断不再需要展开论证,也无需面对反驳,其合理性更多通过“系统性能”“整体效率”来加以证明。裁决因此获得了一种技术权威——不是因为它更容易被理解,而是理解过于繁琐,接受主体缺乏相应的精力、能力或动机。这种技术权威还具有一个重要特征——它难以被真正证伪。当裁决结果受到质疑时,回应往往并不是对判断本身的反思,而是指向模型版本、数据规模或参数设置。错误被解释为“系统尚待优化”,而不是“判断可能不成立”。裁决由此被不断技术化,判断的失败被转化为工程问题,从而逃离了科学判断所必须面对的否定风险。 当技术工具被用于裁决技术本身,科学判断赖以成立的外部参照正在被削弱。判断标准从以人为主体形成的规范,转移到系统内部的运行逻辑;判断权从可承担责任的主体,转移到难以定位责任的技术结构之中。科学判断由此逐渐失去其开放性,转而呈现出封闭、自动和不可质询的“黑箱”特征。 正是在这一意义上,“人工智能裁决人工智能”并不是一个中性的技术选择,而是滋生出的技术权力,导致一种判断权结构的变化和转移。当裁决取代判断,当系统对系统作出最终裁断,科学所依赖的可解释性、可质询性和责任指向,便面临被技术流程覆盖的风险。这一风险并不会随着算法性能的提升而自然消失,反而可能在系统不断自我强化、深入替代人工的过程中被进一步放大。 科学判断不能让渡给算法。系统在人工智能深度介入判断活动的背景下,问题的关键已不在于技术是否足够先进,而在于判断权是否仍然掌握在以人为主体的判断体系之中。科学判断之所以成立,并不取决于效率或准确率,而取决于其是否嵌入可解释、可质询和可负责的认识结构之中。一旦判断权被整体让渡给算法系统,科学活动即使在形式上持续运转,绝大多数结论也是正确的,但这种判断决策权的实质性转移可能隐藏重大风险。因此,人工智能治理面临的一个核心问题是,确保科学判断不能让渡给算法系统。 首先,算法无法承担判断所要求的主体责任。科学判断不仅意味着得出结论,更意味着对结论的理由与后果负责。而算法系统本身并不具备责任能力,其判断后果只能被分散到模型、数据与制度安排之中。当判断权与责任主体相互脱钩,科学判断便失去了其基本的制度支点。 其次,算法无法独立完成对自身判断的否定与修正。科学判断必须始终处于可被反驳的状态,而当判断被技术系统接管,错误往往被工程化处理和隐藏,通过模型优化不断延后承认。否定能力的削弱,使判断逐渐脱离科学所要求的证伪机制。 再次,人工智能在科学实践中的位置,应当被清晰界定为工具而非主体。算法可以辅助判断、提高效率,但不能成为判断的最终裁决者。任何基于算法的判断,都必须嵌入以人为主体、可理解、可质询、可追责的判断体系之中。 最后,科学判断是维护科学得以成立的根本条件。这并非源于对技术的不信任,而是只有当判断权始终保留在以人为主体的判断体系之中,科学才能在人工智能时代保持其开放性与自我修正能力,不偏离“以人为主体”“以人为中心”的发展轨道。 (责编:常滨海)
【版权声明】凡来源学习时报网的内容,其版权均属中央党校报刊社所有。任何媒体、网站以及微信公众平台在引用、复制、转载、摘编或以其他任何方式使用上述内容时请注明来源为学习时报网。
|