标题    全文    标题或全文  |   精确查询    模糊查询
标题:
全文:
期刊名称:
全部
作者:
作者单位:
关键词:
期刊年份:
全部
期号:
学科分类:
全部
搜索 清空
ChatGPT类生成式人工智能产品提供者之刑事责任
《法治研究》
2024年
2
61-71
刘杰
华东政法大学刑事法学院
ChatGPT类生成式人工智能产品数据处理不可控,提供者刑事责任不明确,将会引发刑事治理难题.在产品投入流通时,如果ChatGPT类生成式人工智能产品符合国家标准、行业标准,并不存在当前科学技术水平能够发现的缺陷,一般不宜追究产品提供者的刑事责任;在产品投入流通后,产品提供者应承担适度的安全管理义务.违反安全管理义务,有可能承担刑事责任.有限度追究产品提供者的刑事责任,既符合网络领域积极主义刑法观的趋势,也有利于实现鼓励科技创新和防范产品风险之间的平衡,还符合社会公众的期待.提倡"全面性考察"方案,用以限制产品提供者成立帮助信息网络犯罪活动罪的范围.在具体贯彻"全面性考察"方案时,可以"超过半数规则"作为产品提供者主观"明知"的认定标准.
ChatGPT        生成式人工智能        数据安全        安全管理义务        刑事责任
ChatGPT        generative artificial intelligence        data security        safety management obligations        criminal responsibility
  
ChatGPT类生成式人工智能产品提供者之刑事责任*

刘杰**

内容摘要:ChatGPT类生成式人工智能产品数据处理不可控,提供者刑事责任不明确,将会引发刑事治理难题。在产品投入流通时,如果ChatGPT类生成式人工智能产品符合国家标准、行业标准,并不存在当前科学技术水平能够发现的缺陷,一般不宜追究产品提供者的刑事责任;在产品投入流通后,产品提供者应承担适度的安全管理义务。违反安全管理义务,有可能承担刑事责任。有限度追究产品提供者的刑事责任,既符合网络领域积极主义刑法观的趋势,也有利于实现鼓励科技创新和防范产品风险之间的平衡,还符合社会公众的期待。提倡“全面性考察”方案,用以限制产品提供者成立帮助信息网络犯罪活动罪的范围。在具体贯彻“全面性考察”方案时,可以“超过半数规则”作为产品提供者主观“明知”的认定标准。
关键词:ChatGPT;生成式人工智能;数据安全;安全管理义务;刑事责任
一、问题缘起:ChatGPT类生成式人工智能产品引发的刑事治理挑战
  凭借高度“拟人化”“智能化”的表现,由美国OpenAI公司研发的生成式人工智能模型ChatGPT一经面世,便迅速引发社会广泛关注。与此同时,我国诸多科技公司也相继确认正在研发ChatGPT类生成式人工智能产品。该类人工智能技术的突飞猛进,将会给各个行业、领域带来深刻变革。但利之所在弊亦随之,人工智能产品也存在安全性和可靠性等问题。[1]例如,意大利便曾因发生一起数据泄露事件,宣布暂时禁用ChatGPT。[2]随后,马斯克及全球千名科技人士联名呼吁至少暂停半年对更强大人工智能系统的开发和训练。[3]ChatGPT类生成式人工智能模型的出现,将会引发一系列新的刑事法律风险。
(一)数据处理不可控,易造成数据安全隐患
  其一,数据来源问题。在产品研发阶段,ChatGPT类生成式人工智能产品的整体架构分为语料体系、预训练算法与模型、微调算法与模型。[4]其中,语料体系的参数量,是决定产品最终输出“答案”的重要因素之一。以ChatGPT各代模型为例,OpenAI于2018年6月推出的初代GPT参数量为1.17亿;2019年2月推出的GPT-2参数量为15亿;而2020年5月升级的GPT-3参数量则为1750亿;此后,OpenAI未再公布后续版本的参数量。[5]相较之下,国内如阿里公司的“通义 M6”、腾讯公司的“混云”参数量均达到万亿级别。[6]在监管尚不完备的情况下,ChatGPT类生成式人工智能产品语料体系的参数可能存在违规问题。例如,语料体系中的参数是否均来源于公开渠道?是否侵犯他人的隐私、商业秘密?是否涉及国家秘密或者情报?即使来源于公开渠道,是否又可能存在虚假信息的问题?
  而在产品应用阶段,也可能存在数据来源不合规的现象。根据OpenAI公司官网公开的《隐私政策》,ChatGPT类生成式人工智能产品除了从书籍、杂志、论坛、网站等渠道收集的语料参数之外,当用户使用该公司的服务或者与他们沟通时,用户创建的账户信息、通信信息以及技术信息等数据均可能被该公司所收集。[7]倘若用户使用的是包含虚假信息、个人隐私、商业秘密、国家秘密或者情报等的各种数据与ChatGPT类生成式人工智能产品进行交互,这些数据均会被产品所收集作为语料体系的参数量。
  其二,数据提供问题。ChatGPT类生成式人工智能产品的“答案”输出,主要依靠预训练算法模型和微调算法模型。区别于搜索引擎的检索功能,ChatGPT类生成式人工智能产品的特点在于,能够更好理解自然语言,并且生成更加全面、合理和准确的结果。一方面,获取而来的他人隐私、商业秘密、国家秘密或者情报,有可能被产品提供给用户;另一方面,原本语料体系中互相独立的参数有可能会发生“化学反应”,生成包含公民个人隐私、商业秘密、国家秘密或者情报的数据,进而提供给用户。除此之外,还可能存在输出“虚假信息”的问题。正如有学者所言:“虽然人类设计、制造了它们,但它们的行为却不受人类的直接指令约束,而是基于对其所获取的信息的分析和判断,而且,它们在不同情境中的反应和决策可能不是其创造者可以预料到或者事先控制的。”[8]概而言之,在数据提供阶段,可能存在数据内容违法、信息虚假等问题。退一步说,即使ChatGPT类生成式人工智能产品获取和提供的数据均系合规,也仍然存在被他人用于实施违法犯罪活动的可能。例如,黑客使用ChatGPT类生成式人工智能产品辅助编写代码破坏他人网站,等等。
(二)法律监管不完备,提供者刑事责任不明
  党的二十大深刻指出“加快建设数字中国”。习近平总书记提到:“数字经济事关国家发展大局。”中共中央、国务院印发《数字中国建设整体布局规划》明确要求:“强化数字技术创新体系和数字安全屏障‘两大能力’,优化数字化发展国内国际‘两个环境’。”《新一代人工智能发展规划》也指出:“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战。加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”2023年7月10日,《生成式人工智能服务管理暂行办法》正式颁布。该法第21条规定:“提供者违反本法规定……构成犯罪的,依法追究刑事责任。”然而,关于ChatGPT类生成式人工智能产品提供者的具体刑事责任尚不非常明确。
  作为新型人工智能技术,ChatGPT类生成式人工智能产品将使得个人、公共及国家安全面临严峻风险,刑法不能坐视不理。“解铃还须系铃人”。对ChatGPT类生成式人工智能产品引发的刑事风险须从源头治理。产品风险的源头在于提供行为,因此,防范产品带来的风险离不开对研发、提供行为的合理监管,以及提供者刑事责任的合理设置。具体而言,若赋予产品提供者过多“条条框框”,则会加重企业负担,限制人工智能技术的发展,不利于我国公司在国际社会的竞争,从而可能发展成新的“卡脖子”问题;反之,若对产品提供者不加任何限制,监管始终处于缺位状态,那么,将会使得ChatGPT类生成式人工智能产品沦为违法犯罪行为肆虐的重灾区,不仅可能危害个人的合法权益,还有可能危害国家安全。而ChatGPT类生成式人工智能产品深度学习以及“一对多”服务对象不特定的性质,既会影响对产品提供者预见可能性等问题的判断,[9]也可能会冲击共犯从属性等基础理论,[10]进而影响产品提供者承担刑事责任的范围。本文基于ChatGPT类生成式人工智能产品可能引发的刑事治理难题,力图为合理设置产品提供者的刑事责任范围提供一定思路。
二、ChatGPT类生成式人工智能产品提供者刑事追责的必要性
  在大多数情况下,商业主体研发ChatGPT类生成式人工智能产品,将会改进入类生活、提升科技水平。然而,科技产品因其本身所具有的便利性,同样有可能被他人作为犯罪工具而使用。当产品提供者的行为符合刑法规定的具体构成要件时,就有可能承担相应的刑事责任。对ChatGPT类生成式人工智能产品提供者的刑事责任,需进行类型化分析。主要可以划分为三种行为类型:一是为自己实施犯罪而研发ChatGPT类生成式人工智能产品;二是产品提供者与他人“通谋”,由产品提供者研发ChatGPT类生成式人工智能产品,并提供给使用者用以实施犯罪;三是产品提供者与他人没有“通谋”,研发的ChatGPT类生成式人工智能产品既可以被用户合法使用,也可以被非法使用。
  其中,为自己犯罪准备“工具”以及与他人“通谋”实施共同犯罪,此两种情形,刑事责任分析较为简单,前者按照其所犯之罪追究刑事责任,后者按照共同犯罪追究刑事责任即可。[11]例如,产品提供者以营利为目的,研发ChatGPT类生成式人工智能产品,并利用其制作、出售假冒他人的美术作品,应当追究其侵犯著作权的刑事责任。[12]此时,ChatGPT类生成式人工智能产品属于行为人实施犯罪的工具,并非用于销售,不属于产品范畴,无须按照生产、销售产品类犯罪追究刑事责任,其行为充其量属于侵犯著作权犯罪的预备行为。再如,产品提供者与使用者“通谋”,由其研发能够生成“钓鱼”邮件、诈骗“脚本”的ChatGPT类生成式人工智能产品,再提供给使用者,由使用者利用该产品实施诈骗行为。在这种情况下,产品提供者和使用者成立共同犯罪,提供ChatGPT类生成式人工智能产品的行为属于诈骗罪正犯的帮助行为;当然,如果提供ChatGPT类生成式人工智能产品的行为对诈骗结果的发生起重要作用,按照实质客观说中的“重要作用说”,[13]产品提供者也可能属于共同犯罪中的正犯范畴。
  需要讨论的问题是,如果产品提供者与使用者之间没有“通谋”,研发并提供的ChatGPT类生成式人工智能产品既可以被合法使用,也可以被非法使用,使用者利用产品实施违法犯罪行为,能否追究产品提供者的刑事责任?例如,产品提供者研发的ChatGPT类生成式人工智能产品既可以向用户推荐合法视频的观看网站,也可以向用户推荐淫秽色情网站。此时,虽然ChatGPT类生成式人工智能产品并非专门用于违法犯罪活动,但是在客观上确实为他人实施违法犯罪行为提供了帮助。
  有观点认为,如果产品提供者是出于合法目的,并未赋予产品实施任何犯罪行为的能力,但使用者借助人工智能产品实施犯罪行为,不能追究提供者的刑事责任。在这种观点的内部,又存在不同论证方向。例如,刘宪权教授认为,在这种情况下,人工智能产品仅是被作为犯罪使用的工具,只能追究使用者的刑事责任。[14]江溯教授则认为,人工智能产品对社会造成的危险属于“允许的风险”,不宜通过刑法进行规制。[15]上述观点立足于限制帮助行为的处罚范围角度,避免刑法过度干预,这种立场值得肯定。但可能存在疑问的地方在于,帮助犯本就不存在定型性,而在提供产品的行为确实使得法益风险升高的情况下,如何界定其属于“允许的风险”?例如,汽车在道路上行驶的风险属于“允许的风险”,如果汽车提供者明知他人利用汽车实施故意杀人行为,仍然提供汽车,是否也可按照“允许的风险”排除客观归责?如果得出肯定结论,那么一个有意支配因果进程实现法益侵害的罪犯,只要他足够狡猾,将自己的行为隐藏在“允许的危险”的外衣之下,就可以轻易逃避刑罚的制裁。[16]这种全面不可罚的结论,显然是不能被广泛接受的。更何况,利用网络实施犯罪的社会危害性通常高于一般犯罪行为的社会危害性。[17]随着人工智能技术的快速发展,智能网络对犯罪的协助作用将越发突出,全面不可罚的观点可能放纵犯罪。[18]
  事实上,如果按照传统的帮助犯理论,只要能够证明产品提供者主观上存在明知,客观上具有帮助性,且对犯罪结果的发生具有因果性,就可以追究行为人的刑事责任。[19]但是,这种“全面可罚性”的方案,必然扩大刑罚的处罚范围,侵犯公民的个人自由空间,干预国民的正常生活。[20]尤其是在网络时代,智能产品服务的对象数以万计,因此,当下的理论主要是从限制处罚的角度,力图限缩帮助犯的成立范围。[21]对于智能产品,有观点认为,智能产品提供者具有安全管理义务,对于提供者在人工智能产品的设计、生产、销售阶段未预见到、上市后才发现产品有缺陷,但发现之后又未及时通过系统升级、更新等手段解决产品缺陷的,可以对其追究刑事责任。[22]此观点认为赋予产品提供者一定的安全管理义务,对保护法益具有重要作用。
  本文认为,对ChatGPT类生成式人工智能产品提供者的刑事规制,既不能失之于宽,也不能失之于严,可以借鉴“避风港”原则,[23]将产品提供者的刑事责任限制在一个合理的范围内,在保护法益的同时,不至于妨碍技术的进步。亦即,有限度地追究ChatGPT类生成式人工智能产品提供者的刑事责任。具体而言,在产品投入流通时,只要研发的ChatGPT类生成式人工智能产品符合国家标准、行业标准,并不存在当前科学技术水平能够发现的缺陷,一般不宜追究产品提供者的刑事责任;而在产品投入流通后,产品提供者应承担适度的安全管理义务。若其违反安全管理义务,则将承担相应的刑事责任。例如,产品参数中存在国家秘密或情报,监管部门责令产品提供者采取删除数据、优化算法等改正措施而其拒不改正,致使国家秘密或情报被境外的机构、组织、人员获取,应当追究其刑事责任。[24]
  其一,有限度追究ChatGPT类生成式人工智能产品提供者的刑事责任,符合我国网络领域积极主义刑法观的趋势。“鉴于数字经济的战略性地位,以及网络犯罪在数字技术加持下的异化,刑法的扩张具有必要性。”[25]在司法层面,例如“快播案”。[26]“快播”既可以作为合法视频的播放软件,也可以被用户用于下载、观看淫秽色情视频。虽然软件商作无罪抗辩,但是法院最终驳回辩方关于“技术中立”责任豁免以及“中立的帮助行为”等观点,认定“快播公司”构成传播淫秽物品牟利罪。[27]而在立法层面,我国从《刑法修正案(七)》开始便呈现预防性立法的迹象,在随后的几次修正案中,这种积极主义的刑法观逐渐得以正式确立。[28]以《刑法修正案(九)》为例,在该修正案中相继增设了拒不履行信息网络安全管理义务罪、非法利用信息网络罪以及帮助信息网络犯罪活动罪等犯罪,反映了网络领域积极主义刑法观的趋势。[29]刑法对ChatGPT类生成式人工智能产品提供者的规制处于观望立场,既不利于智能产品的高质量发展,也不符合网络领域积极主义刑法观的发展趋势。[30]
  其二,有限度追究ChatGPT类生成式人工智能产品提供者的刑事责任,有利于网络领域的法益保护。ChatGPT类生成式人工智能产品的应用风险不可控,忽视产品提供者对产品的安全管理义务,势必造成严重的法益侵害或危险。[31]如果对研发及提供行为不加以限制,让人工智能技术超出人类的可控范围,一旦该类产品被利用作犯罪工具,产生的危害结果可能数倍严重于传统犯罪,甚至可能给人类社会带来毁灭性的打击。[32]ChatGPT类生成式人工智能产品的提供者掌握着技术、数据的优势,对其产品和服务保持着事实上的掌控关系,而国家监管部门缺乏足够的技术能力和管理资源,只能对产品进行间接管理。此外,从法律经济学的视角来看,倘若业务性中立帮助行为发挥了不可替代的作用,刑罚处罚业务性的中立帮助行为的收益就会大于成本。[33]因此,为了能够保护法益、维护社会秩序,应当对产品提供者赋予适度的安全管理义务,而且有必要将其上升为刑法义务。[34]
  其三,有限度追究ChatGPT类生成式人工智能产品提供者的刑事责任,有利于实现鼓励科技创新和防范产品风险之间的平衡。ChatGPT类生成式人工智能领域的安全与发展不可偏废。[35]为了鼓励科技创新,我国法律明确规定了产品提供者责任的免除条款。例如,《中华人民共和国产品质量法》(下文简称《产品质量法》)第41条第2款规定了生产者的三种免责事由,亦即,“未将产品投入流通的;产品投入流通时,引起损害的缺陷尚不存在的;将产品投入流通时的科学技术水平尚不能发现缺陷的存在的”。该条第2款第3项表明,只要在ChatGPT类生成式人工智能产品投入流通时,科学技术水平尚不能发现缺陷的存在,提供者就不用承担赔偿责任。与之类似,在《民法典》以及《信息网络传播权保护条例》中均存在“通知”后“移除”排除侵权责任的规则。[36]根据法秩序统一性原理,在规范保护目的相同的场合下,刑法绝对从属于前置法。[37]既然前置法都免除了产品提供者的民事赔偿责任,那么,也不能按照《刑法》第146条生产、销售不符合安全标准的产品罪和第140条生产、销售伪劣产品罪追究其刑事责任。
  然而,倘若完全免除产品提供者的责任,不赋予其适度的安全管理义务,则可能会使ChatGPT类生成式人工智能产品的使用处于混乱、无序状态,间接造成利用ChatGPT类生成式人工智能产品实施违法犯罪行为的泛滥。鉴于产品投入流通后,提供者仍然可以通过程序更新、系统升级等手段填补漏洞,并且由于ChatGPT类生成式人工智能产品属于高端智能科学技术,只有提供者掌握其程序算法,因此,在产品投入流通之后赋予提供者更多义务,实属必要。例如,《生成式人工智能服务管理暂行办法》第14条便规定:“提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。”另外,第21条同时规定:“构成犯罪的,依法追究刑事责任。”由此可见,对于ChatGPT类生成式人工智能产品的提供者,刑法既要体现包容,也需要将其纳入刑法规制范围。有限度地追究生成式人工智能产品提供者的刑事责任,有利于平衡二者之间的关系。
  其四,有限度追究ChatGPT类生成式人工智能产品提供者的刑事责任,源于智能产品与普通产品之间的差异性。ChatGPT类生成式人工智能产品的价值包含产品的使用及后续服务。根据《产品质量法》第2条
保存检索条件
X
添加标签:

给这组订阅条件设置标签名称,可以更加方便您管理和查看。

保存条件:
微信“扫一扫”
法信App“扫一扫”
操作提示
对不起,您尚未登录,不能进行此操作!
关联法条X