内容摘要:人工智能时代的到来引发了刑法学界的热议,不过这并未给
刑法理论带来挑战。人工智能在事实层面上应以科学技术为应然理解,在规范层面上无法通过
刑法体系化的检验。刑法学界对人工智能相关问题的思考大都是以风险社会为大背景展开的,因此,
刑法解决人工智能问题最根本、最透彻的方法即是对作为源头的风险社会理论进行检讨。
刑法对于风险社会大可不必动辄架构新的风险
刑法体系,风险社会相关理论无法通过
刑法教义学的检验,其本身就是一道伪命题并不值得被
刑法关注。最后,
刑法重点关注的是人工智能在当下
刑法体系中的应然定位。
刑法首先从规范的角度对理论界关于强弱人工智能分类做出否定,而后在厘清人工智能风险来源的前提下,以内外二元风险之“产品性”和“工具性”为基础来明确自己的定位。
关键词:人工智能;风险社会;风险
刑法;法益保护原则;产品属性
2015年,德国大众汽车公司员工在调试机器人时,被机器人摔至金属板惨遭碾压身亡,这就是震惊当时的“机器人杀人事件”。无独有偶,Google在测试其无人驾驶技术时,因导航故障引发交通事故,所幸无人伤亡。类似的高度智能化应用情形还有,Alpha Go击败韩国围棋手李世石、国际象棋棋王卡斯帕罗夫和计算机之间的“深蓝”对决等。人工智能技术的飞速发展以及高度智能的场景化应用模式的建立引发了一系列关于人工智能主体性地位的思考,涉及的学科有哲学、法学等。比如,在人工智能主体性这一问题上,刑法学界有学者主张,鉴于人工智能技术如此突飞猛进,人类势必要进入到一个强人工智能时代,在这个时代,机器人将会产生独立的思考能力、意识以及控制能力,因此学者建议将其规定为
刑法上的主体。
[1]也有学者认为,人工智能机器人就是人类社会生产的一种辅助工具,并不具备人的要素和属性,因此,
刑法大可不必将人工智能体视为责任主体。
[2]上述分歧体现出人工智能时代的到来已经在法律规范层面上带来了争议,尤其是刑法规范是否应当对这一现象做出反应。因此,本文拟从人工智能的技术本质入手,进而对人工智能进入
刑法体系产生的障碍做出分析,并进一步指出这种以人工智能技术为张贴对象的风险社会理论的虚伪性,最终以人工智能的技术本质为刑法定位的落脚点。
一、人工智能的本质需以科学技术为应然理解
人工智能时代的到来符合技术发展的客观规律,先进科学技术的进步与应用必然会在社会层面引起广泛的关注和探讨,而且,社会层面的波动也会引发法律规范层面上的联动反应。不过,人工智能技术有无在刑法规范层面探讨的必要性,这要取决于对人工智能本质的探讨。
刑法应从实质上了解人工智能背后的运作原理,在事实层面明确人工智能的运行本质,而后再进入到刑法规范的话语体系中进行探讨,唯有此才可以全面刺破人工智能时代的面纱。
从宏观的人工智能技术定位来看,人工智能总体上即是以科学技术为体现的一门技术学科。人工智能(Artificial Intelligence,简称AI)是计算机学科的一个分支,其与空间技术和能源技术并称为20世纪70年代以来的世界三大尖端技术,从字面意思来看Artificial Intelligence指的是智能的人工制品,而且,P.Winston早在1978年就对人工智能做出了如下评价:人工智能本质上是为了帮助人们变得更加智能的一项技术,其不仅是局限在使计算机模拟智能的研究上。
[3]除此之外,也有学者指出人工智能其实就是一门技术科学,其主要是用来模拟、延伸以及扩展人类智能,因此,人工智能本质上是计算机科学的一个分支,即其属于计算机技术的前沿领域。
[4]并且,人工智能作为一门跨技术领域众多的学科,其研究都是结合具体领域,诸如问题求解、自然语言处理、人工神经网络、遗传算法、专家系统、知识工程、人工生命、深度学习以及智能控制等。
[5]这些领域综合起来所设计出的智能系统便是AI系统。这些系统都是高度智能化的系统,当它们组合到一起的时候,这种计算机程序就体现出了一定的“智能化”。这些系统主要包括问题求解系统、自然语言理解和处理系统等大概12种系统。
[6]A.Barr和E.Feigenbum指出人工智能作为一门学科,它属于计算机科学的组成部分,它的主要任务就是设计智能化的系统,而这一系统要与人类的行为相似;ElainRich认为人工智能就是让计算机去模拟人类大脑活动,用它解决一些只有专家才能够处理的问题,这些活动主要包括推理、设计以及规划等;Michael R.Genesereth和Nils J.Nilsson认为人工智能首先是一门科学,而这门科学的主要任务就是建立关于自然智能实体行为的理论和指导创造具有智能行为的人工制品。
[7]
从微观的人工智能技术的具体运行来看,人工智能的本质就是借助算法、智能系统运行的一套完整的技术程序。人工智能的运行逻辑是建立在算法之上,算法撑起了人工智能的技术框架。
[8]人工智能的本质是在自然语言基础之上、以数据为对象将算法与数据相互结合应用,并且这一过程并不是简单的模拟人脑。
[9]人工智能之所以能够逼真地模拟人类行为,这与它的运作系统密不可分,而判断一项AI技术成功的标准,关键是看其能否通过“图灵测试”
[10]。人工智能作为一门科学,其自身的特征也是独一无二的。以利用推理为例,AI程序系统立足于模拟人类思维的一般规律进而使用知识,即这一推理实际上是模拟人类推理形式而来。再如,Alpha Go之所以能够战胜世界围棋选手,最大的优势在于其能够进行不断的自我学习。这种自我学习是一种系统上的自我学习,其主要是将围棋巨大无比的搜索空间压缩到可控的范围之内,Alpha Go自身配备的系统非常周密,加上Google强大的硬件支撑和云计算资源,结合CPU & GPU进而不断增强自己的学习水平和博弈能力。
[11]这背后体现的是Alpha Go自身深度学习的能力,这其中依赖于一般的博弈算法,比如极大极小搜索算法、α-β剪枝算法等。由此可见,无论是人工智能的设计程序抑或是人工智能的运作原理,其都主要是强调模拟人类工作、学习等方面,即人工智能的最大特征在于高度拟人化、模拟人类。
人工智能技术应用产生的风险确实也引起了人们担忧。比如,斯蒂芬·霍金曾指出忽略人工智能的危险或是“历史上最致命的错误”。
[12]实际上,担忧者并不在少数。比尔·盖茨以及牛津大学的哲学教授也曾主张人工智能威胁论,然而,人工智能专家对人工智能威胁论持反对态度,伦敦大学的金史密斯学院认知计算机系教授马克·毕绍针对斯蒂芬·霍金的担忧做出了评价,他认为霍金的这种担忧完全是错误的。
[13]在刑法学界,有学者就以Alpha Go战胜世界围棋冠军为例,主张人工智能时代下的机器人已经具备了自主学习的能力,而且其拥有自主意识和意志力,进而主张人工智能机器人实施的行为可以被评价为
刑法意义上的行为。
[14]
综上所述,人工智能在事实层面上无论是从宏观视角还是微观视角,都能够得出人工智能本质上是以算法、程序为核心的科学技术。从事实层面上看人工智能机器人具备独立意识、意志力等观点是无法成立的,技术本质决定了这种高度智能的人工智能体只可以作为人类先进的辅助工具,以人工智能技术为程序基础的相关生成品应做产品之理解。
二、人工智能进入刑法体系后的障碍
文章前述章节明确了人工智能的技术本质,
刑法还应当立足于规范自身,在
刑法体系内部检讨人工智能进入
刑法理论后的障碍。本部分主要是检讨人工智能进入
刑法体系中产生的障碍。人工智能有关问题无论是从法规范主体的可解释性上,还是从
刑法体系内关键要素如罪过形态以及刑罚论的检讨上,都无法得到刑事规范肯定性的答复。
(一)人工智能不具备法律主体的可解释性
人工智能进入到
刑法领域内的首要问题是,人工智能主体是否具备刑法规范主体的可解释性。这是因为,主体行为的可解释性是责任承担的基本前提,而且,权利的可实践性正是以其具备可解释性为关键前提。
[15]因此,人工智能拟作为法律规范上的主体必须要经过主体理论的检验。毕竟,法律是由人类创造的社会产物,目的是为了调整人与人之间的社会关系。法律规范关注的首要问题便是主体问题,否则无从谈及后续的法律关系以及法律责任问题。
[16]
当下,学界对于人工智能主体在刑法规范上的定位产生了争议。肯定人工智能主体地位的观点如,人工智能时代下智能机器人因为具有了辨认能力和控制能力,因此可以作为刑事责任主体。
[17]还有学者从法人的角度出发,主张通过类比法人制度来赋予智能机器人权利主体资格,其认为通过这种“法律拟制”可以为立法者提供解决智能机器人权利来源的问题。
[18]否定人工智能主体地位的观点认为,行为主体意指在
刑法上实施犯罪行为的主体,其通常来说指的是自然人,
刑法构成要件要素中所规定的主体指的也是自然人,而且其所描述的行为主要也是指由自然人实施的行为。
[19]哲学层面上所指的
刑法主体必须具备实践性和社会性的本质特征,实践性要求主体能够进行有意识的活动,社会性要求主体能够与特定的社会关系进行互动。
[20]即便是人工智能技术在无人驾驶领域的应用有着优越的表现,但在德国修订的《道路
交通法》中,也未予承认人工智能的主体地位,由此可见,立法者并不认为可以将这一主体纳入到立法蓝图中,毕竟不论是自然行为论、目的行为论还是社会行为论都主张行为的发起者应当是自然人。
[21]
在本文看来,人工智能法律规范的主体地位是不成立的,理由如下:其一,
刑法必须正视人作为规范主体的独立性与专门性,人工智能主体性的观点忽视了人作为规范的终极目的性。我国法律规范体系中,
宪法及
刑法都在其规定中明确指出立法宗旨是为了服务人类自身,人类是法律规范意义上独一无二的主体。人工智能也不具备获得道德主体地位的资格,
[22]这当然会影响到它的规范主体地位。当下,就法律主体的概念而言,德国法哲学家拉德布鲁赫曾做出以下定义,其主要是指能够被特定时代实定法当作是目的本身而予以尊重的事物。
[23]换言之,法律主体在特定时代下永远是目的而不是手段。基于此,反观当下肯定人工智能主体性的理论,可以发现这一系列观点背后的主要目的是为了服务人类自身,即该观点认为将人工智能视为法律规范的主体更加便于在立法上进行管理,这就意味着人工智能主体性理论始终都被视为手段而非目的。
其二,人工智能不具备法律主体要求的辨认能力和控制能力。无论是强人工智能还是弱人工智能,其所谓的能够“自主学习”“独立思考”等实际上都依赖于设计者所设计的基础程序,这种“辨认能力”和“控制能力”也不过是计算机算法运行的体现,与人的意志体现并不相同。刑法规范根本无法期待人工智能机器人能够实现独立自动的思考。
[24]毕竟,从犯罪成立的基础要求来看,犯罪永远都是人的行为,与人的意志无关的事件永远无法实现犯罪构成,行为都是受制于人的思想且无关于机械或生理活动。
[25]即便是强人工智能高度模拟了人类行为,诸如对人类常识、直觉等特殊的感知能力的模拟,人工智能也难以实现自由意志。
[26]由此可见,人工智能技术无论发展到哪一阶段,其都是技术创新与进步的体现,其“意志”不过是人类意志的体现,人工智能始终无法与“自由意志”产生必然联系。
其三,理论中以法人获得主体资格的法理来类比演绎人工智能主体性的观点是无法成立的。这一主张忽视了法人集合体人合性的本质特征,法人与人工智能体的根本区别在于法人的行为总是通过自然人来“完成”
[27]。单位犯罪一般是由单位的决策机构按照单位规定的决策程序做出决定,然后交由直接责任人实施。并且,单位这一主体在
刑法的前置法如民法、经济行政法都得到了确认,相比之下人工智能的主体性则未予确认。
[28]单位犯罪具体行为的实施还是要依靠自然人来完成,单位脱离了自然人也就不复存在,单位的意志也是全体成员意志的集合。
[29]此外,对于法人本身能否成为刑事责任主体当下也并未形成统一意见,在德国刑法中就不承认法人和经济企业的刑事责任。
[30]
(二)人工智能不具备刑法要求的罪过形态
罪过形态作为完整的犯罪体系中不可缺少的因素,也是人工智能进入
刑法理论体系绕不开的话题。有学者主张在强人工智能时代下,机器人已经具备了认知能力。
[31]并且,学者还主张智能机器人与自然人有很多共同之处,由自然人实施的绝大多数犯罪行为智能机器人也可以实施,例如诈骗罪等。
[32]需要注意的是,刑法规范注重对行为人故意或者过失这种罪过形态的判断,故意和过失的认定在
刑法体系中的位置不言自明。而且,
刑法强调对故意和过失的判断,不能仅停留在对事实的认定上,还包括对法律规范的认识和感知。
[33]换言之,
刑法不能只要求行为主体对记述的构成要件要素具备认识,还应具备规范意义上的认识,并且,这种认识应当是对行为性质、后果以及作用的认识。
在本文看来,人工智能并不具备
刑法意义上的罪过形态,原因如下:其一,人工智能体不具备故意或者过失这一罪过形态。无论是从事实层面还是规范层面,人工智能始终无法产生故意或者过失的罪过形态,无法通过其自身能力理解法律法规所规定的意义。也无法期待人工智能与
刑法分则中规定的目的犯产生碰撞,比如诈骗罪要求“以非法占有为目的”等,因为特定目的产生的前提是主体必须具有自由意志,而且主体能够认识到其行为的社会评价以及规范评价,而人工智能显然不具备这一点。此外,立足于自主性的发展逻辑来看,人工智能难以生成较强的自由意志,更不用说能具备实质的自我意识。
[34]其二,故意或者过失罪过形态的证明也成为人工智能作为刑事规范主体的障碍。
刑法将人工智能机器人作为法律主体的观点在证据法上也存在障碍,即在罪责层面上对故意和过失的证明成为一大难点。
刑法无法期待仅通过人工智能体的行为证明其具备犯罪意图,这也难以达到排除合理怀疑的程度,即
刑法无法判断这是否是因为人工智能体内部程序运行出错导致。故意、过失这种心素的记载对评价行为具有重要的意义,如果缺乏这种心素的描述行为就失去了表达的含义,失去了主观要素的支撑,仅靠单纯的“裸”行为要素似乎难以起到“筛选”犯罪的作用。
[35]反观智能机器人所实施的行为,正是不具备心素内容的“裸”行为,这种无意识的行为并不具备被
刑法评价的资格。
(三)人工智能不具备进入刑罚体系的资格
人工智能除了前述理论上的障碍以外,其在刑罚论中也不具备进入到当下刑罚体系的资格,这主要体现在人工智能受刑能力的缺失以及针对人工智能增设新罪名以及新配套措施上的障碍。
1.人工智能不具备受刑能力
人工智能进入到刑罚体系中,无法期待对人工智能的处罚能产生刑罚上的意义。刑罚作为联结行为与行为人的桥梁,其有着将行为产生的责任过渡到具体行为人身上的功能。刑罚是国家针对侵犯法益的犯罪行为而予以惩罚的一项严厉措施,其一般建立在剥夺性、限制性等痛苦基础之上。本文认为,人工智能不具备受刑资格,主要体现在以下几点:
第一,人工智能不具备受刑能力。受刑能力的关键是受刑者能够感知到其行为带来的规范意义上的否定性评价,并由此承担精神或者身体上的痛苦。通过受刑对象对刑罚感知的回应,以此可以证明规范实施的有效性。受刑者只有借助这种由刑罚实施产生的羞耻感或者痛苦,才能体现刑罚的功能和作用,受刑者或潜在的犯罪人才会理性掌控自己的行为,国家和社会才得以正常运转。人工智能实则并不存在情感,也不具有道德判断和认知,且欠缺感知刑罚痛苦的能力,故导致刑罚必要性的缺失。
[36]因此,人工智能体不具备感知痛苦的能力决定了对其实施刑罚的无意义和不切实际性。
[37]毕竟,无法期待一台冰冷的机器能够感受到痛苦或者羞耻,即便是其未来会产生痛觉或者羞耻感,这也是建立在人类为其编写的程序基础上。实际上,人类创造的机器人应由人类自身为机器人的“不法”行为买单。
[38]当然,法人组织也不具备感知受刑能力,但我国
刑法对法人犯罪规定了相应的处罚措施。这是因为,法人具备人合性的组织特征,法人组织感知受刑的能力都可以内化到内部成员。
第二,人工智能体具备受刑能力的观点在当下规范逻辑上出现了障碍。按照部分学者主张应承认人工智能具有受刑能力的逻辑,进而也应当承认赋予智能机器人基本的权利。有学者从权利历史演进的角度主张应遵循动物获得权利的轨迹,认为智能机器人也应当被赋予权利,同时,指出权利主体不应是一成不变的。
[39]但在本文看来,法律规范赋予人工智能体权利这一做法并不现实,理由如下:其一,人工智能体无论是从技术还是从道德上来看,其在赋权过程中都存在障碍。
[40]人工智能体最初是以工具身份亮相,这就决定了其最终也只得以工具来定位。法律规范无法期待人类与人工智能体或者人工智能体自身之间能够达成社会契约,因为这种社会生活的游戏规则只有人与人之间才具备制定与遵守的资格和能力。其二,刑法规范若赋予人工智能体权利,则这一权利的根据来源不明确。我国
宪法强调保护人权,若在
刑法中承认机器人享有权利,但
宪法条文中并未就此做出明确指示,这就造成了
刑法与
宪法相冲突的尴尬困境。其三,法律规范若赋予人工智能体权利,则这一权利的行使面临一定的困难。例如,法律规范倘若赋予人工智能体生育权、财产权等基本权利,接下来所要考虑的是如何保障这一权利的行使。此外,人工智能体是否在满足基本条件之后享有选举权与被选举权等,这都会为法律和社会带来不小的挑战。其四,理论界主张类比动物获得权利的轨迹来启示对人工智能体赋权的工作并不可行。现有的法律条文对野生动物只是做出了保护性的指示,并未明确提及要赋予野生动物权利。倘若赋予动物最基本的诸如生命权等权利,那么,人类伤害或屠宰家禽剥夺生命的行为便属于侵权行为抑或是犯罪行为,因此,动物作为权利主体并不可行,人工智能体同理亦是如此。
第三,
刑法惩罚人工智能不符合刑罚的功能和目的。刑罚作为对犯罪人权利和利益的一种剥夺和限制手段,在满足了刑法规范目的的同时,对国家和社会来说都具有相当大的副作用。
[41]刑法之所以主张对自然人科处刑罚,是因为对于自然人犯罪刑罚能够发挥一般预防和特殊预防的功能,最终达到减少犯罪的效果。从一般预防功能考察,针对人工智能实施刑罚处罚是否能够起到威慑潜在犯罪的效果,答案显然是否定的。
刑法根本无法期待潜在的人工智能会因此产生敬畏法律的意识。从这一点来看,人工智能的一般预防效果无法与规范的有效性产生联动。同理,从特殊预防的角度来看,对人工智能科处刑罚也不具备规范上的意义。而且,对人工智能实施刑罚措施悖离了社会大众对常识常理常情的认知,实在无法想象机器会“在意”对自己的“不法行为”实施的“刑罚”。因此,
刑法对智能机器人实施刑罚并不具备任何意义。
[42]
2.增设罪名及配套刑罚措施的障碍
目前,刑法学界有观点认为,强人工智能时代
刑法应增设人工智能相关犯罪以及配套的刑罚措施,以实现
刑法对人工智能犯罪的规制。例如,有学者主张应当围绕着人工智能构建新的刑罚体系。
[43]还有学者主张增设滥用人工智能罪和人工智能事故罪,该学者主张在配套的刑罚措施上增设删除数据、修改程序。
[44]另外,还有学者主张将人工智能有关犯罪扩充至
刑法分则体系中,即在分则第六章专章增设“妨害人工智能发展罪”以及增设有关“扰乱人工智能活动罪”“非法提供人工智能技术罪”以及“非法利用人工智能罪”等。
[45]不难看出,上述主张增设人工智能相关犯罪观点背后体现的正是以人类利益为中心的人类利益优先论,即上述罪名从表述来看都是将人工智能作为一种工具或者是技术资源等,人工智能在上述拟增设的罪名中并非是主体。不过应当注意的是,即便
刑法主张人类利益优先,也大可不必以扩充
刑法体系的方式维护人类利益,而且这一做法并不见得是最佳手段,因为刑罚圈的扩张意味着人类自由空间的压缩,这样看来反而会削减人类的利益,并且还会阻碍科学技术的进步。本文对增设有关罪名及配套刑罚措施的主张持否定态度,理由如下:
其一,新罪名的增设与当下既有的刑法规范相冲突。滥用人工智能罪、非法利用人工智能罪等罪名的增设不过是把人工智能当作是辅助人类的一种工具罢了。之所以要增设新罪,是因为这种观点认为滥用、非法利用人工智能的社会危害性要高于传统的犯罪行为,而后动辄就以新增罪名予以规制。然而,这一做法未免过于激进,对其把控不当的话极有可能阻碍科学技术的进步。以核事故、生化武器为例,人类滥用核能以及生化武器等所造成的社会危害性并不低于滥用、非法利用人工智能的行为,然而
刑法并未对滥用核能等行为单独进行规定。事实上,上述增设相关罪名的目的无非是强调对公共安全的保护,因为这种观点认为人工智能潜在的社会危害性较大,而且其危害的对象也不特定,既有的刑法规范无法对其进行规制,因此
刑法应当将这一主体单独进行立法。然而,这一现象在既有的
刑法体系内,通过现有的
刑法解释方法完全可以“以危险方法危害公共安全罪”来消解上述问题。同理,反观增设人工智能事故罪背后的法理,不过是为了提醒研发者和使用者应当尽到注意义务,而现有的
刑法体系早已对注意义务作出了规定,比如:重大责任事故罪等。因此,
刑法没有必要超出现有的体系增设新的罪名或者是扩充刑罚体系。
其二,新增的“刑罚措施”并不属于
刑法意义上的措施。既有的刑罚措施在当下都是建立在以人为主体的前提下,
刑法中的处罚措施都是根据人的主体性特征所构建,这也符合刑罚处罚措施的应然状态,因此,
刑法无法期待针对人工智能再构建一套新的刑罚体系。再者,刑罚措施应当是
刑法