人工智能立法体系化的理论证成与路径选择
目次
一、人工智能立法体系性不足的表现
二、人工智能立法体系化的对象框定
三、人工智能立法体系化的实现路径
四、余论
内容提要:人工智能立法体系化是全球人工智能法治的大势所趋,也是协同治理的重要抓手、科学立法的应有之义和法学知识的素材支撑。然而,当前人工智能立法研究存在“概念不清”“定性不准”“理念不彰”“范畴不明”“脉络不畅”五大问题,阻滞了立法体系化进程。应当从“人工智能的应然法律概念”“人工智能法律规范的属性”“人工智能立法的理念欲求”三个层次设置“滤网”,在区分“狭义的人工智能立法”和“广义的人工智能领域立法”的基础上锚定人工智能立法范畴。针对当前人工智能立法“碎片化”的现象,应当坚持以“事物本质”理念检视问题,在法律体系化方法中嵌入“系统—控制论”原理来规整领域立法素材。在此基础上,应当在“法律”层级适时制定一部兼具框架性和包容性的“人工智能法”,以“发展负责任的人工智能”为融贯立法体系的价值基础,以“平衡公平与效率”和“平衡安全与创新”为两大基本原则。此外,以人工智能全生命周期的“研发—生产—服务—使用”节点为横轴,以“具体风险控制”和“抽象权利保护”两种控制模式为纵轴,可以纵横交错编织出八个具有规范生成功能的法律关系定型“区间”,由此形成构筑人工智能立法制度谱系的基本线索。
关键词:人工智能立法;法律体系化;系统—控制论;人工智能全生命周期;人工智能法律关系
当前,我国正处于从网络时代迈向智能时代的关键转型期,以自动驾驶、AIGC、智能推荐等为代表的颠覆性人工智能技术,在为数字社会变革注入强劲动力的同时,也为法律治理算法黑箱、消除数字鸿沟、保障人工智能稳定运行等新型社会问题带来巨大挑战,这些社会问题呈现出交叉性、整合性和动态性特征,难以为传统法律部门所涵盖。
〔1〕根源在于,人工智能的复杂性不仅表现为技术本身的复杂性,而且表现为社会和组织上的复杂性,
〔2〕正在突破传统部门法律关系所立足的线性、均衡、简单还原
〔3〕的社会关系构造。虽然人工智能领域已经制定了数量可观的政策、法规、规章和规范性文件来弥补部门法“各自为政”之缺陷,但这些规范整体上零散无序,相当一部分条款依旧脱胎于部门法的固有理念和调整思路,没有在法理上对人工智能的本质和运行机理正本清源,规范之间的体系性也极为欠缺,因而这种“头疼医头、脚疼医脚”的立法模式难以充分应对人工智能引发的一系列复杂性社会问题。“系统思维作为一种解决问题的整体分析方法,将复杂系统视为相互联系、互为依存的状态,其内在行为可能会产生连锁反应;只有将系统行为作为整体来理解而不是专注于孤立的组件,才能准确识别潜在的模式和关系,找到有效决策方案。”
〔4〕因此,转变立法思维、坚持系统观念,构筑体系化的人工智能立法方能妥善应对新挑战。
早在2017年,《国务院关于印发新一代人工智能发展规划的通知》(以下简称《新一代人工智能规划》)就提出人工智能立法“三步走”战略目标,其核心要义是建构完善的“人工智能法律体系”;国务院2023年度和2024年度“立法工作计划”均将“人工智能法草案”列入预备提请全国人大常委会审议草案的范围,虽然“人工智能法”未能进入正式立法计划,但立法者已然意识到人工智能领域体系化立法的必要性。学界对人工智能立法问题也有所关注,主要集中于“人工智能对传统部门法的挑战与立法回应”“生成式人工智能、自动驾驶、虚拟数字人、人脸识别等具体场景或某种新技术引发的法律风险及立法应对”“域外人工智能立法评介”“人工智能赋能(辅助)立法”等主题,从原理层面专门探讨我国人工智能立法体系化问题的研究较为少见。鉴于此,本文首先聚焦当前人工智能立法体系性之不足,解决立法体系化的前提问题,并据此框定人工智能立法范畴;其次,明确立法体系化预期实现的目标,在应然与实然之间提炼法律体系化的一般原理;最后,嵌入人工智能立法的特定机理,从模式、价值、原则、脉络等维度设计人工智能立法体系化的可能路径。
一、人工智能立法体系性不足的表现
一般认为,数据、算力和算法是人工智能发展的“三驾马车”,其中大数据是人工智能发展的基础,云计算是人工智能发展的平台,而深度学习是人工智能发展的手段,三者之间的联系极为紧密。
〔5〕当前,我国涉人工智能法律规范总体上呈现出“碎片化”特点,具体表现为“概念不清”“定性不准”“理念不彰”“范畴不明”“脉络不畅”五大问题。
(一)人工智能的概念含混不清
在我国涉人工智能法律规范文本中,鲜见针对人工智能本质特征和特有属性的明确定义,大多数文件只是在涉及人工智能的语句中零散地给出特征描述词或者类型归属词,难以准确阐明何谓人工智能。即便《深圳经济特区人工智能产业促进条例》(以下简称《深圳人工智能条例》)、《上海市促进人工智能产业发展条例》(以下简称《上海人工智能条例》)和GB/T 41867-2022《信息技术人工智能术语》(以下简称《人工智能术语国标》)制定了专门界定人工智能意涵的定义性条款,但三部文件的属概念分别侧重“行为论”“本体论”“知识论”,种差特征在“人工智能的方法”“人工智能的结构”“自主性标准”等方面存在分歧,并且对“是否需要列举人工智能的外延/类型”也没有达成共识。诚然,形成合理的法律概念是科学构筑法律体系、清晰表达法律内容、准确适用法律规范的前提条件,当前规范文本中含混不清、位阶不高、确定性不足的人工智能概念致使不同规范的适用范围存在交叉重叠,极易造成重复性立法、矛盾性立法以及立法漏洞等问题,进而减损法律适用的稳定性;特别是在人工智能集成应用、高速迭代、场景泛在的发展状态下,共识性定义缺失将会导致国家权力对产业发展的干预范围和控制程度模糊化,诱发科技创新的“寒蝉效应”。
(二)人工智能立法的定性不准
在学理上,法律规范的性质关乎其在立法谱系中如何定位,不同类型的部门法之间不仅法律关系的内容不同,而且植根于部门法的立法精神和价值导向更是不同。在传统部门法视域下,涉人工智能法律规范的性质界定尚不清晰。譬如,“使用人脸识别技术处理个人信息”是典型的涉人工智能法律行为,而司法解释将其纳入私法意义上“信息处理者侵害自然人个人信息权益”的民事法律关系。
〔6〕又如,“利用个人信息进行自动化决策”也是算法行为的重要类型,规制该行为的条款主要存在于《
中华人民共和国个人信息保护法》(以下简称
《个保法》)中,有学者认为该法是配套实施《
中华人民共和国民法典》(以下简称
《民法典》)的重要法律,属于公法和私法的混合,但
《个保法》的内容大多是关于民事权利和义务的规定,因而其与
《民法典》之间是“特别法与基础法”“特别法与普通法”或者“单行法与基本法”的关系。
〔7〕这就意味着调整“利用个人信息进行自动化决策”行为的条款似乎更多地表征着私法属性的民事法律关系。除了将人工智能规范定性为民事规范,有学者在描述人工智能立法特点时,将《
中华人民共和国网络安全法》(以下简称
《网安法》)、《
中华人民共和国刑法》对个人信息的保护、《
中华人民共和国反垄断法》对“利用数据和算法实施垄断”的规制以及智能网联汽车、人工智能医疗、互联网信息服务算法、深度合成算法等领域的行政管理规范,都归为人工智能立法,
〔8〕而这些规范表现出显著的“公法”属性。此外,还有学者对人工智能立法的定性超越了公法和私法的二元区分,认为其是“科技法”规范、
〔9〕“领域法”规范
〔10〕或者“核心是风险控制与问责的风险立法”规范。
〔11〕可见,法律实践和学术研究对人工智能立法属性的厘定分歧较大,立法性质界定不准将会影响立法理念在法律规范中的准确适用。
(三)人工智能立法的理念不彰
当前,涉人工智能法律规范缺乏一以贯之的基本理念来统合各类价值。一是作为立法逻辑起点的人工智能法律概念中没有嵌入价值理念,但“法律概念也承担着法的调控任务,受制于目的论”
〔12〕,人工智能法律概念的价值倾向可以经由解释学通道直接影响立法目的实现程度。譬如:《深圳人工智能条例》在界定人工智能时“输出端”和“目标端”双重缺失;《上海人工智能条例》中“最佳结果”也指代不明;即便《人工智能术语国标》设置了“针对目标产生输出”的单向线性结构,但目标对输出的“反馈/修正”等逆向性特征并未体现。二是不同法律价值之间缺乏消解冲突、平衡利益的决断依据。同样是针对“高风险”的人工智能,《上海人工智能条例》严把准入关,设置了“清单式管理”和“合规审查”两道门槛,并且明确规定合规审查的实质标准是“必要、正当、可控”;
〔13〕而《深圳人工智能条例》只是在程序上要求“事前评估”和“风险预警”,没有从实体上直接划定人工智能类型“禁区”,
〔14〕相对而言,市场准入空间较大。究其原因,一方面,人工智能治理要求“包容共享”“开放协作”“共担责任”,相对统一的准入门槛有利于防止市场碎片化、促进跨地区资源共享,并在地区协作治理时降低责任分配的协作成本;另一方面,人工智能治理也要求“安全可控”“敏捷治理”,预先设定较高准入门槛成为倒逼安全措施升级、能动防范风险的强有力手段。
〔15〕因此,两部条例设置差异化准入标准,不仅仅是考虑到地方资源和发展方向的特殊性,背后反映的深层次问题是不同价值之间难以平衡,只能暂时“妥协”而偏重单一价值,其根源正是当前政策及立法文本中没有确立能够合理融贯各类法律价值的根本理念和有效消解价值冲突的合理方法。
(四)人工智能立法的范畴不明
从“效力位阶”和“客体类型”审视涉人工智能法律规范,其整体上呈现出“非正式法律渊源数量多于正式法律渊源,并且正式法律渊源以部门规章和地方性立法为主导”,以及“涉数据要素的规范数量最多、涉人工智能整体的规范次之、涉算法要素的规范较少、涉算力要素的规范最少”的体量分布格局。从“规范内容”来看,数据立法重在维护数据/信息安全,并激励大数据产业发展、促进公共数据开发利用;针对人工智能整体的立法侧重于促进智能制造业升级,并且重点扶持智能网联汽车行业,而涉及“通用人工智能”和其他应用场景的立法较少;算法领域主要是规制“深度合成服务”和“算法推荐服务”的部门规章,涉及“算力/云计算”的正式法律渊源缺位,即鼓励大模型创新应用和算力基础设施完善的规范基本是“红头文件”类的政策指引,目前该领域尚未出台专门立法。此外,涉人工智能法律规范也存在于名称上不直接冠以“智能或其要素”但某些条款涉及该客体的立法中,譬如规制“推荐类算法”(大数据杀熟)的《
中华人民共和国电子商务法》第
18条,此类条款往往散见于
《网安法》《个保法》《
中华人民共和国数据安全法》(以下简称《数安法》)等法律法规,总体而言数量稀少。诚然,观察人工智能的视角不同,涉人工智能法律规范呈现的特征也不同,由此引发的问题是:是否所有涉人工智能法律规范都可以被纳入人工智能立法范畴?具言之,该问题项下主要涉及“人工智能立法范畴是否需要限定在正式法律渊源之内”“针对人工智能单一要素的立法是否属于人工智能立法”,以及“针对人工智能整体的立法或其他法律法规中的涉智能条款,能否不加区分地直接将其归为人工智能立法”等子问题。鉴于此,只有妥善解决人工智能立法范畴问题,才能有的放矢地进行体系化作业。
(五)人工智能立法的脉络不畅
涉人工智能法律规范基本将
《个保法》作为其立法根据,但该法难以成为保障人工智能合理利用的一般性法律。无论是在价值理念上侧重于保护个人免受过度数字化控制,抑或利益分配时倾向对信息处理者科以严格义务,该法“强监管、弱激励”的整体导向使下位配套规范形成路径依赖,甚至出现实质上超越上位法精神的潜在违法风险。以立法中“反算法歧视”条款对“输入端”数据的控制方式为例,企业能够利用的数字资源被不断压缩,并且框定数据利用范围的标准也越发模糊。作为上位法的
《个保法》第
24条没有从“数据库”层面直接干预企业利用个人信息,只是要求“算法透明”或者在“输出端”控制结果;而《
互联网信息服务算法推荐管理规定》(以下简称《算法推荐规定》)第21条开始控制“输入端”内容,不当利用消费者偏好、交易习惯等特征数据,成为认定差别待遇的要件;《
生成式人工智能服务管理暂行办法》(以下简称《AIGC服务办法》)第4条则更进一步,在“输入端”将控制范围从“利用”延展到“研发”,在“训练数据选择”时便要求采取措施防止出现歧视,并且用户民族、国别、性别等特征数据也被剔除。然而,《
中华人民共和国立法法》第
91条第2款要求,部门规章的权限仅在于执行法律,不得设定减损私主体权利或者增加其义务的规范,不得增加本部门的权力或者减少本部门的法定职责,据此反观两部规章和
《个保法》的关系,二者在体系协调上存在违法风险。一是不当增加信息处理者义务。上位法规制“算法歧视”时主要在“输出端”为个人信息处理者配置义务,无论是要求“提供多元选项或者拒绝选项”,抑或赋予个人“请求说明权或者拒绝权”,都没有在算法设计和数据选择层面为企业增加过多负担。二是不当扩张监管者权力。规制“算法歧视”的关键举措是防止出现“不合理差别待遇”,上位法的控制对象是经算法处理后的“交易价格”这一输出结果,而部门规章的控制对象是“算法利用行为”,即上位法不对算法本身的架构、运行原理进行合理性审查,但部门规章需要审查算法设计及其部署方式。三是整体的权利义务分配机制失衡。监管者自我约束不足,“结果公平公正与否”“差别待遇合理与否”“内容歧视与否”以及“防止歧视的措施实施、有效程度如何”等皆是裁量空间较大的模糊标准;私主体权益保障不足,对抗国家审查权力和个人请求权利的“抗辩性企业权利”在立法中难寻踪迹。因此,从体系脉络看,
《个保法》的起始逻辑并非为了发展人工智能而是“人格尊严保护至上”,由其统率的涉人工智能法律规范没有在整体上对数据和算法的内在牵连性予以系统关照,利益配置时也不当地向部分主体过度倾斜。
二、人工智能立法体系化的对象框定
“在法律工作范围内之体系性思考的目标则是,将众多的规范与事实安排进一个秩序里,由此创造一个统一体。”
〔16〕要创造这样一个统一体,必须按照一定的标准,框定应予安排进该统一体的规范与事实的具体范围。
(一)识别体系化对象的三道滤网
1.第一道滤网:明确人工智能的应然法律概念
虽然人工智能立法方兴未艾,但无论是其调整对象确定,抑或制度、规则设计,皆需要借助明确的人工智能法律概念在规范与事实之间搭建沟通桥梁,以期实现法律对社会关系的合理调控。
从既有立法素材中“提取公因式”是形塑法律概念的重要方法,不同规范文本的人工智能概念之间只有达成“最低限度共识”,才能确保领域法语境下人工智能规范集群中各类规范的调整对象不至于过度偏离人工智能的中心语义和社会认知预期。系统梳理域内外涉及人工智能的规范性文本以及中国法学界对人工智能的学理界定,并在“属概念—种差—外延”这一经典认知框架下检视各种定义模式之优劣,进而引入“事物本质”理念和“系统—控制论”原理重构人工智能的法律概念,可以得出如下结论:其一,就属概念而言,应当从人工智能全生命周期厘清各个节点的关系。人工智能并不直接指涉“科学或者学科”,其首先应当是一种信息处理“系统”,而“程序、模型和机器”则是该系统的软硬件组成部分;智能系统的科学研究或技术研发,称为“人工智能科学”,其范畴包括人工智能“知识、原理、方法和技术”等;科学成果转化、投产后,形成“人工智能产业”、制造出“人工智能产品”;而人工智能作为一种“权益”,受制于特定的政策背景和法理话语,并且具有较强的评价性色彩和逻辑上的后置性,不能成为界定人工智能法律概念的术语。其二,就概念内涵而言,应当结合功能型定义模式和发生型定义模式,以期同时实现对“理性智能体”的“目标控制”和“行为控制”。具言之,人工智能是依托算力基础设施,通过控制系统的算法处理输入的数据,以软件或硬件等多元集成方式嵌入系统后输出,或者直接在具体场景中输出对人类某种理性功能的模拟状态,在环境中进行交互,并在目标约束下经过反馈修正,最终完成预设任务的信息系统。该种信息系统的法律本质为“理性智能体”,是界定其法律地位的主要依据。该定义的法学构造主要包括数据、算法、软件/硬件、目标/任务、反馈、输出等相互影响、互为制约的基本要素,以及这些要素在“系统—控制论”原理下的各种内生性或外显性行为(譬如“黑箱”“集成”“功能模拟”“变换”等)。其三,就概念外延而言,人工智能既包括外观上模仿生物人但本质上是集成软硬件的“智能机器人”,也包括单纯的智能系统(如ChatGPT)或硬件设备(如智能传感器),以及嵌入这些软硬件的其他“智能体”(如自动驾驶汽车)。
2.第二道滤网:厘清人工智能法律规范的属性
法律关系的客体作为法律关系主体发生权利义务联系之中介,由其承载的法律关系之性质关涉不同类型制度之间的界分,成为识别调整对象的第二道滤网。
首先,在人工智能全生命周期中,不同节点的立法价值导向有所差异。针对“人工智能科学”的立法着眼于研发端,重在科技伦理、科技政策的法律化“转译”;针对“人工智能产业”和“人工智能产品”的立法着眼于市场端,重在激励生产积极性、提高商品流通效率、维护公平秩序和保障消费者权益;而“人工智能法”则着眼于智能系统的运行、维护端,重在防范、化解人工智能部署、利用时产生的整体性社会风险。其次,人工智能系统各要素作为法律关系之客体,其承载的法律规范并非全都属于人工智能立法。事实上,涉及人工智能的法律规范由“范围和监管模式大相径庭”的多层次规则组成,主要分为“规范数据使用的数据规则”“针对特定AI应用程序或应用程序域的AI规则”“适用于广泛人工智能应用的通用人工智能规则”“应用程序特定的非人工智能规则(适用于特定活动,但不适用于人工智能)”,以及“通用的、跨领域的非人工智能规则”等不同层次,其结构、稳定性和相关度皆是不均衡的。
〔17〕只有相关法律行为能够映射人工智能的法律概念,二者在“系统—控制论”原理上实现耦合,才能将该条款归人人工智能立法范畴。譬如,仅涉及数据处理前端的数据确权、个人信息权益保护、数据流通交易等规范,并不符合人工智能法律关系客体的完整内部结构——具备“输入—输出”反馈链条的系统——所承载的行为模式及法律后果,因此不宜定性为人工智能法律规范。最后,人工智能立法主要着眼于公共利益维护。原因在于,(一些)环境法具有预防性、系统性和监管导向性,人工智能系统的危害在结构上类似于环境危害,往往也是系统性、社会性的而不仅仅是个体性的;并且,该种损害如同环境损害一样,实际上是未来致害的风险而不完全是既得伤害,因而很难具体衡量和追踪因果关系,受害人也会同样面临集体行动的问题。
〔18〕基于以上考虑,人工智能立法的性质应当是超越公私二元结构的“风险立法”,
〔19〕其法律关系的内容主要是针对人工智能系统造成的大规模社会性损害,为相关主体设置损害救济权利、风险防范(监管)义务,以便合理分配各方责任。
3.第三道滤网:彰显人工智能立法的理念欲求
诚然,经过法律概念和法律性质两道滤网筛选,人工智能法律规范的结构特征和问题面向已基本清晰,但锚定人工智能立法范畴还需要进一步在价值层面明确人工智能法律规范的共同理念。
从国内外发布的人工智能政策、法规,以及理论研究和法治实践看,“发展负责任的人工智能”在国际社会中已达成广泛共识,该理念是关于人工智能应当如何研发、部署、使用、评估以及治理的提议或规范性声明,它由一系列确保人工智能透明、负责和合乎道德的基本原则构成,以促进人工智能技术的使用与民众的期望、组织的价值观以及社会的法律规范一致。
〔20〕进言之,“负责任的人工智能社会治理是一种前瞻性社会治理、预期治理,以及针对人工智能开发与应用风险的全过程治理;构建负责任的人工智能社会治理体系,关键在于树立责任共同体意识,实现从个体责任意识到共同责任意识的转变”
〔21〕。因此,判断涉人工智能法律规范应否被归入人工智能立法,目光需要在“规范内容和立法目的之间来回穿梭”,通过衡量行为方式、法律后果、权利/义务构造、风险分配,以及利益保护程度等,挖掘其中蕴含的价值判断及其作用范围,进而真正“理解”法规范的意义。
〔22〕以
《个保法》第
24条第3款为例,结合第
73条第1款第2项对“自动化决策”的定义,该项的规范结构与人工智能应然法律概念内嵌的“系统—控制论”原理基本相符;进一步结合该法第70条针对“个人信息大规模侵权”所设计的公益诉讼制度进行体系解释,该款也符合人工智能法律关系对“系统性应对社会风险”的内容要求;如果该款能够被归入人工智能立法,还需要在人工智能全生命周期视域下审视其内在价值是否契合“发展负责任的人工智能”理念。进言之,该款的预设立场和价值导向是对完全自动化决策的默示允许,更倾向于在保护信息主体的基础上平衡人工智能产业发展,并且“重大影响”的判断标准也从侧面反映了我国立法对人工智能产业的保护。
〔23〕因此,
《个保法》第
24条第3款的权利义务构造基本实现了“私权利”主体、“私权力”主体和“公权力”主体三方关系的平衡,即该款的利益分配模式有利于“发展负责任的人工智能”,可以将其纳入人工智能立法范畴。
(二)锚定人工智能立法的范畴
法律渊源依效力差异分为“正式法律渊源”和“非正式法律渊源”,本文侧重于从正式法律渊源层面对“三道滤网”识别出的人工智能法律规范进行分类分层,并以“系统—控制论”原理为基底设计法律渊源的体系架构。根据各类规范调整对象之差异,可以将人工智能法律渊源区分为“调整人工智能整体的狭义人工智能立法”和“调整人工智能要素/基础设施的广义人工智能领域立法”,其他部门法或领域法中涉及人工智能的法律规范则归人“广义的人工智能领域立法”。需要注意的是,本文对人工智能法律渊源类型层次的划分基于“共时性”而非“历时性”视野,其中既包括已经出台的法律规范,也包括未来可能会制定的法律规范。