人机社会的治理转向

频道:综合 日期: 浏览:1

新一代人工智能(以下简称“机器智能”)技术正在以前所未有的方式进入人类的生产和生活。与传统意义上被动地执行人类指令的工具型技术不同,机器智能(尤其是大型语言模型、算法型决策系统等)不仅具备语言理解、信息整合、判断生成、作品产出等能力,还通过人类对这些能力的运用和不断创新,多路径地参与人类社会的核心领域。这种参与不仅快速改变了人类的生产与生活,也从基础上改变了社会的构成,把纯粹的人类社会转变为人机互生的人机社会,并重塑了治理模式。治理人机社会不仅需要创新治理技术,更需要创新治理理念,面向由人类与技术互动互生形成的人机社会生态系统。

人类社会已然转变为人机社会

在个体层次上,机器智能已深度介入人类的社会交往。机器智能使社会交往出现了一个革命性拐点:从以机器为中介的交往转变为以机器为对象的交往。事实上,数智社交平台的推荐机制不仅影响人们看到什么,还塑造着人们的政治立场、社会认同乃至情感波动或转变。

在组织层次上,机器智能已然从信息处理的工具演变为组织机制的有机节点。随着逐步被纳入教育、健康、金融、军事等关键领域的组织机制、决策流程和行动环节,机器智能在组织中的角色深度影响着人类从行动者能力拓展到权力结构组成的各个方面。机器智能已不仅仅是服务性的技术,还成为组织机制的有机节点,且已深深嵌入组织权力运作。

在社会层次上,机器智能的参与也已然或正在广泛地改变个体的行为模式、社会的运行方式与制度的运作逻辑。机器不再只是工具性嵌入社会,其行动结果已然被直接纳入社会考量,其行动逻辑也被拟人化,成为社会秩序的一个组成部分。从个体、组织再到社会,机器智能的介入虽然在形式上依然是中介,却已不是只被动地执行人类指令,而是还会主动参与人类指令的生成,有建议和产出,还能由指令生成媒介化的现实,进而成为与人类类似的互动对象以及社会现实的有机组成部分。

不仅如此,人类与机器的互动也从传统的体力类型转向体力与脑力的交互并在。这一转变意味着人类与机器关系的本质性转变,机器对社会生产与生活的介入和作为准行动者的存在已经是不争的事实,人类社会已然转变为人机社会。从人类主体性的视角看,人类与机器智能虽然都产生社会影响,但两者在行动目标、价值取向、伦理判断等诸多议题上的差异依然是本质性的。一方面,人类具有自由意志和自主权力,还具有目的设定与意义赋予的能力;另一方面,尽管对人工智能未来是否会发展出自由意志与自主权力存在争议,但至少在目前,机器智能还在依据人类设定的参数与目标运作,其能动性和自主性仍源自人类的设定。因此,站在人类主体性的立场,我们可以接受机器智能是具有效率、效果、效能的准行动者,却无法将类似于电车难题的责任归咎于机器,因为人类依然是人机社会责任与判断的能动主体。人机社会虽然将机器视为准行动者,但并不意味着机器具有与人类对等的主体性,自由意志和自主权力依然还属于人类。

既有治理框架遭遇结构性挑战

当机器智能不再只是被动地执行人类指令的工具,还会主动介入人类事务并影响人类思考与行动时,既有治理框架便遭遇结构性挑战:过去针对人类行动者的人治与法治架构还依然适用于人类与非人类行动者互动互生的人机社会吗?

首先,治理主体界定困难,给治理带来无主可治的挑战。人机混合治理场景催生的主体很难界定,本质上是人类社会在向人机社会的转换过程中的结构性矛盾。要突破这一矛盾,需要同时超越人类主体与技术工具的二元框架和机器智能的准行动者框架,并在承认机器智能有限自主性的基础上,以人机社会整体而不是以人类和机器智能分别为对象,建构责任分配的伦理原则与法律机制。

其次,责任归属的模糊进一步引发治理问责的机制危机。在人机社会,决策和行动由算法设计者、数据来源、模型参数、训练环境、使用提示词等共同生成,与主体的数据分身具有相对性,责任也被稀释在复杂的人机数据点位,使得机器智能的决策与行动具有高度的集体制造特征。许多机器智能内部决策的过程高度复杂且缺乏可解释性,当决策过程对利益相关方不可解释时,就意味着在事实上无法落实责任,甚至难以确定错误的来源,从而会导致典型的责任真空,给法律和社会伦理带来前所未有的挑战。如果责任不明确,治理便失去了问责的核心和基础,进而会威胁治理的正当性。

再次,算法黑箱以及因此导致的治理透明度下降问题给治理实践带来了冲击。由算法主导的治理切断了传统治理依赖的“透明—参与—问责”链条,透明性因黑箱而消失,参与性因技术壁垒而被剥夺,问责性因责任主体虚化而无法落实,从而让人机社会的治理陷入技术利维坦的困境。机器智能以效率之名吞噬了治理的社会合法性,人类社会却难以用现行制度框架对其进行约束。从这个意义上说,机器智能引发的不只是治理理论与实践的危机,还是对社会秩序的根本性挑战。如何在人机社会建构和维系社会秩序,确保人类在人机社会的主体性和权力始终服务于人类的尊严与自由,而非异化为技术系统的附庸,是人机社会必须面对的治理转向。

人机社会治理将发生系列变化

治理人机社会,并非否定对机器智能的监管要求,而是强调治理的重心不仅在于让技术的宗旨回归人类,更在于建构并维系人类与机器智能交织而成的混合系统的秩序。在这一视角下,人类不再是以主宰者姿态单向治理机器智能,反而是要将自身视为人机互生生态的一员,通过协同和引导的方式实现二者的良性互动:既让机器智能不断发挥效率,又让人类始终具有主体性。这一转向意味着社会治理目标、责任和模式将会发生一系列改变。

首先,治理目标呈现出双重性和复合性。在人机社会中,治理既要关注机器智能的行为,使其符合人机安全、伦理和法律的要求,也要关注人机互动互生的良性运行和发展。人类社会治理的焦点在于通过规范人类行动者的行动来建构和维护社会秩序,增进人类福祉。在人机社会中,除了要聚焦人类社会的治理目标,社会治理还必须要将机器智能代表的技术系统的行动置于议程之中,尤其是要把人机交互行动纳入治理。对人机社会的治理增加了一类新目标,即机器智能及其产生的机器行动,更准确地说,是机器智能的行动及其与人类交互的行动。因此,治理目标不再单一地针对人类行动,也需要针对机器行动。同时,还需要平衡双重目标:既要保障机器智能有效、可信、可靠,也要维护人类的价值和利益。

其次,治理责任链条的扩展与延伸。在人机互生实践中,将责任归属于单一主体的传统责任溯源与分配模式已难以奏效,为此,新治理范式主张建立覆盖端到端的人机责任体系,让相关参与方承担决策与行动的组合式责任。具体而言,面向人机社会的责任分配,意味着把场景涉及的人机责任作为一个整体纳入考量,采用总分模式,把机器智能开发者、提供者、部署者、使用者等都纳入责任网络,形成基于行动场景的利益相关者责任体。通过纵向扩展责任链条和建立未明责任池,人机社会的治理将不再简单地沿用传统归责机制的方法将责任归于单一行动者,而是强调人机互生各主体的协同负责和群体责任,且形成由责任扩展带来的权力制衡。

再次,治理理论与实践模式更新换代。面对人机社会,多主体协商治理必须以主体对等性为前提,机器智能虽然在行动上具备了能动性和自主性,可是尚不具备目的性和价值性,这意味着机器智能还难以作为独立主体来承担责任。因此,尽管在治理实践里必须纳入机器智能,在理论上依然要找到承担机器智能责任的人类主体。在诸多场景中,如果否定指向单一行动者的简单归责,难以追溯责任主体的场景就必然存在,出于对治理效率的考量,创新治理理论与实践便成为如今需要面对的导向性问题。对此,“回路社会”监管框架或许是一个有益的启示。在本质上,“回路社会”是将多元利益相关者的目的性和价值性通过机制化的方式植入机器智能,使其从代码阶段就建立与社会目的性和价值性的协同。除了植入式协商,治理实践还强调共同决策和合作执行。多主体、多维度、多层级的协同治理模式可以打破以往政府单向管制和市场自我调节的对立,通过多方互动提高治理的适配性,同时,也呼应了人机社会的特征,即通过多行动者(包括人和机器)的互动互生共同影响治理结果。这也意味着治理理论焦点的转向:从强调控制和科层的传统,转向多元、互动、互生、敏捷网络化动态化治理,以适应人机混合的复杂现实。

最后,治理人机社会,需要一系列新规制和新机制来保障协同治理的落实。为了破解算法黑箱难题,除了分配群体责任和建构责任池,提升算法透明度和可解释性依然是可努力的方向。技术性治理工具也是人机社会治理转向不可或缺的内容。这些工具既可以提升治理机制对复杂人机社会的感知和响应能力,还可以通过制度和工具的双重创新将人机互生的治理观从原则转化为可操作、可持续的现实,进而建构一种新的治理范式,即人类发挥战略引领和价值裁定的作用,机器提供高效的数据处理和执行能力,二者通过有机的制度接口实现优势互补、互生决策和行动,进而建设一种新的治理图景:人类和机器智能不是对立的治理主体和客体,而是被纳入同一个互生治理框架的整体。人类依然掌握着目的和价值的制定权,机器智能则根据人类设定的规则高效地参与和执行治理过程。这样的人机互生治理框架既坚守了人类的主体性和社会价值,又充分利用了机器智能的工具性和数据能力,为人机社会提供了一种可持续的治理转型路径。

(作者邱泽奇来自北京大学社会学系,本文首发于《社会》2025年第3期,约16000字,本文内容为《高等学校文科学术文摘》2025年第8期摘录部分,小标题为澎湃新闻编辑所加。)