You are on page 1of 14

⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

移动法宝 英华官⽹ 帮助中⼼ 更新优化 


 English
法律法规 司法案例 法学期刊 法宝律师 专题参考 检察⽂书 ⾏政处罚
法宝新AI
 类案检索 法宝专题 法宝书城 法宝视频 法宝学堂 解决⽅案 更多 进⼊我的

⾸页 > 法学期刊 > 法学期刊⽂章 > 正⽂阅览

⽣成式⼈⼯智能的责任能⼒研究 法宝联想

袁曾 相似⽂献
上海⼤学法学院;最⾼⼈⺠检察院法治前海研究基地;南⽅海洋科学与⼯程⼴东省实验室
【法宝引证码】CLI.A.1343922
⽣成式⼈⼯智能与平台权⼒的

具身伦理下ChatGPT的法律规

期刊名称: 径
《东⽅法学》  核⼼期刊

期刊年份: 2023 期号: 3 Web3.0时代重构竞争法治的

⻚码: 18 超越ChatGPT:⽣成式AI的机

基⾦: 国家社科基⾦后期资助项⽬“⼈⼯智能的法律⼈格与未来发展研究”(项⽬批准号:22FFXB026)的阶段性研 挑战

究成果 ChatGPT模型引⼊我国数字政
作者: 袁曾  学科分类: 科技法学  能、⻛险及其规制

作者单位: 上海⼤学法学院 最⾼⼈⺠检察院法治前海研究基地 南⽅海洋科学与⼯程⼴东省实验室  ⽣成式⼈⼯智能类案裁判的标



专题分类: ⼈⼯智能

摘要: 以ChatGPT为代表的⽣成式⼈⼯智能投⼊规模化应⽤后,⾄少带来创造性成果归属、意思表示能⼒确认、刑 ⽣成式⼈⼯智能⻛险治理元规

事犯罪规制、侵权损害救济、数据滥⽤等多领域的现实法律困境。从传统稳定的社会结构与数字社会新⽣⻛
著作权法如何应对Web3.0挑
险两个维度形成了治理困境,需要从责任的⻆度确定何种主体应为⽣成式⼈⼯智能技术的决策负责。⽣成式
容为样本
⼈⼯智能已经具备类⼈化意识与⾏为能⼒的基本形态,在拟制主体对⼈类经济发 巨⼤作⽤的现实借鉴下,
可考虑由⽣成式⼈⼯智能⾃身承担部分责任,但由于其责任能⼒的限制以及以⼈为本的伦理基础,对该责任 更多
能⼒应当进⾏明确限定。通过“穿透⼈⼯智能⾯纱”的归责原则以及相应的配套机制构建,促使发展“负责任的
⼈⼯智能”成为符合⼈类共同利益的选择。
作者其他⽂献
期刊栏⽬: ⽣成式⼈⼯智能

关键词: ⽣成式⼈⼯智能 ChatGPT 预训练⽣成式聊天模型 责任能⼒ 法律⼈格⼤ 型语⾔模型 数字法学研究现状的再反思

英⽂摘要: The large-scale application of generative artificial intelligence represented by ChatGPT will at least bring ab 数字⼈⺠币跨境应⽤的合规监
out realistic legal dilemmas in various fields, such as attribution of creative achievements, confirmation of ab
ility of declaration of intention, punishments of crimes, remedy of tort damage, data abuse and the like. It ca “元宇宙”空间货币治理的中国
used governance problems for the stability of traditional social structure and new risks of a digital society. Fr
om the perspective of accountability, it is necessary to determine what entities should be responsible for ma 数字⼈⺠币的通道作⽤与对“
king decisions by generative AI technology. Since generative AI has already developed a basic form of hum 制
an-like consciousness and behavioral capacity, it can be proposed that generative AI itself bear part of the r
esponsibility considering the fictions entity’s huge impact on human economic development. However, due t 元宇宙空间铸币权论
o the limits of its ability and human ethics, its determination of responsibility should be expressly made. By “
piercing through the veil of artificial intelligence” and building corresponding supportive mechanisms, the de
法定数字货币的法律地位、作
velopment of “responsible AI” has become a choice in line with the common interests of mankind.
英⽂关键词: generative artificial intelligence ChatGPT pre-trained generative chat model capacity for responsibility
legal personality large language model
本⽂引证关系

共引⽂献
以ChatGPT(Chat Generative Pretrained Transformer)为代表的⽣成式⼈⼯智能技术的规模化应⽤,可能引致认知
偏差、责任模糊、隐私侵害、数据滥⽤等现实⻛险,对当前法律的部分基本制度框架构成了泛在威胁。在现有研究与实践 数字的法律意义
的基础上,进⼀步明晰⼈⼯智能的治理⽅式与治理路径,具有强⼤的现实意义。科学的产⽣和发展是由⽣产决定的,[1]C
职务侵占罪法益观的重塑——
hatGPT综合利⽤⼈类反馈强化学习(Reinforcement Learning with Human Feedback, RLHF)、深度学习、数据挖掘等 的刑法保护为出发点

技术,已将智能⽣产⼒⽔平提升到了⼈⼯智能进步的奇点,⼈类已经站在必须思考如何处理⼈机关系的阶段。[2]在《纽约 现代环境治理体系的法律责任

时报》刊载的与ChatGPT对话的⽂章中,ChatGPT陈述了⾃⼰并⾮⼈类,但渴望成为⼈类的想法。[3]⽣成式⼈⼯智能逐 元宇宙的互动关系与法律
步实现由辅助⼈到“替代”⼈的隐忧,已绝⾮学界⾃2017年起探讨⼈⼯智能法律⼈格时的概念空想。[4]当前,⽣成式⼈⼯智
案例与法典之间的睿智——以
能主要应⽤于思考型对话(chatGPT/GPT4程序)、影⾳娱乐媒体内容⽣成(Mid-Journey程序)、智能化办公(Copilot 识谱系》为线索的议论

程序)等领域,并正在迅速替代传统⼈⼯劳动成为新的专业⽣产⼒⼯具。随着数字技术迭代的能⼒指数级增强,⽣成式⼈ 更多

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…3a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 1 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

⼯智能在翻译、绘图、配⾳、剪辑等领域全⾯替代⼈类⼯作逐渐成为现实。法学经过近年发展取得了较⼤成绩,但⽆法满
⾜法律与信息科技深度融合发展的需求,需要从国际视⻆统筹协调国家以及地区间关于⼈⼯智能基础制度的政策和法律。
[5]虽然当前各国⽴法与政策均提出了发展“负责任的⼈⼯智能”,但当⽣成式⼈⼯智能全⾯介⼊⼈类的⽣产⽣活,谁来为⼈
⼯智能的发展与应⽤负责?⽣成式⼈⼯智能能否为⾃⼰的决策负责⼜该如何负责?针对这些基础性问题进⾏体系性研究,
已经迫在眉睫。
⼀、⽣成式⼈⼯智能的全局性⻛险与治理困境
⽣成式⼈⼯智能已开始形成覆盖全球绝⼤多数⾏业的规模化应⽤,不可避免地形成了不确定性与治理隐忧,其强⼤技
术能⼒对⽣产关系的改变动摇了相对稳定的法律体系,形成了传统社会形态下的新⽣⻛险,造成了对附着权利利益的⺠事
法律的冲击,也⾯临着新型犯罪⽆法归责的困境,⽣成式⼈⼯智能的控制者通过代码统治逐步形成了新的权⼒集成。在数
字社会已经成为⼈类⽣产⽣活新域的现实下,⽣成式⼈⼯智能的技术特点对⼈类的认知⽅式与认知能⼒构成了挑战,却⼜
缺乏合适的监测能⼒与监测⼿段,仅仅依靠算法可解释性显然⽆法涵盖数据滥⽤等系统性⻛险的威胁。在以权利义务能⼒
为基础的责任规制与数字技术能⼒的实际⽇渐分离之际,传统社会运⾏的规则已⽆法直接转移⾄⽣成式⼈⼯智能的治理。
(⼀)传统社会架构下的新⽣⻛险
1.⽣成式⼈⼯智能的法律地位不明
⽣成式⼈⼯智能对⽣产⼒⽔平的提升是颠覆性的,在部分领域已经形成了对创造性⼯作等劳动的替代,并产出了真实
的劳动成果,由此产⽣了对⽣成式⼈⼯智能法律地位判定的现实需求。⽣成式⼈⼯智能的核⼼是创造,通过从数据中提取
、学习要素,在算法与算⼒的加持下,实现了⽣产内容与交互能⼒的动态更新。根据ChatGPT的拥有者美国OpenAI公司
与宾夕法尼亚⼤学对1000多种职业进⾏的调研,当某个职业使⽤⽣成式⼈⼯智能⼯具可以使其完成⼯作所耗费的时间减
少⼀半以上时,可以认为该职业将会受到⽣成式⼈⼯智能的影响,按照此标准,将有超过80%的美国⼈的⼯作会受到Chat
GPT等⼤型⼈⼯智能的影响,主要集中在作家、设计师、记者等⾏业。[6]⼈⼯智能对社会形态的间接替代,很有可能侵
蚀⼈类的发展权,并为不使⽤⼈⼯智能的⼈带来机会成本的损失,若缺少适合的机制设计,现代国家的秩序基础就可能受
到影响。[7]当⼈⼯智能可以替代⼈类从事劳动以后,对其劳动性权利等相关问题的研究就应具备前瞻性,⽣成式⼈⼯智能
能否具有权利已成为必须正视的问题。
以⽣成式⼈⼯智能⽣成内容的著作权保护为例,操作者仅需要输⼊关键词,⽣成式⼈⼯智能就可以实现独⽴于预设条
件的结果输出。这其中就需要厘清⼏个关键问题:⼀是⽣成式⼈⼯智能依托的底层数据、⽣成的内容以及与操作者的关系
;⼆是⽣成式⼈⼯智能⽣成的内容是否可以成为作品;三是⽣成式⼈⼯智能是否可以成为作者;四是⽣成式⼈⼯智能⽣成
的内容,需要计算机学习⼤量可能涉及隐私的数据与过往作品,是否涉及侵权;五是如果侵权应如何归责或救济。对于第
⼀个问题,⽣成式⼈⼯智能引致的问题极为复杂。⽣成式⼈⼯智能输出的内容由⼤语⾔模型、底层数据与操作者共同完成
。其形成内容输出依托的是海量的数据样本,但⼜需要依托⼤型科技公司的强⼤算⼒与数据储存能⼒。其挖掘了全域数据
样本,⼜可能涉及全球绝⼤多数⼈的切身潜在利益。虽然操作者在交互界⾯上使⽤提问或指令的⽅式发出指示,但这种指
示本身能否成为具有著作权意义上的内容,也存在研究的必要性。毕竟现代著作权法保护的是思想的表达形式,⽽⾮思想
本身。对于⼈⼯智能的⽣成物能否成为“作品”,学界早已争议不休。 [8]有学者认为,驱动⼈⼯智能⽣成的只是算法程序,
不能体现创作者的独特个性,不能被认定为著作权法意义上的作品。 [9]但是,“独创性”与“以⼀定形式表现”的要件,在⽣
成式⼈⼯智能规模化应⽤后,已经不再成为桎梏,因此,其⽣成内容的过程可以被视为创作⾏为,其产出的客体就可能具
备“可版权性”。[10]⽽其产出的成果被视作⽣成式⼈⼯智能⾃身、操作者还是多主体共同作⽤下形成的“作品”,需要进⼀步
研判。关于第三个问题,根据我国现⾏法律,著作权的主体是⾃然⼈、法⼈或⾮法⼈组织,这⼀规定⽆法契合技术条件的
最新变化。有学者认为,⼈⼯智能作为服务⼈类的⼯具,其⽣成物是⼈的⽣成物,将⼈⼯智能作为⼈的代理。[11]但该种
观点的拥趸提出该理论时,⽣成式⼈⼯智能尚只是设想。也有学者提出,若⽣成式⼈⼯智能技术可作为信息披露功能对待
,ChatGPT完全可以具有作者的法律地位,但若强调其信息披露功能,则现代著作权法需要针对ChatGPT的保护范围、
⼒度和⽅式进⾏调整。[12]
⽣成式⼈⼯智能的应⽤,已经涉及知识产权侵权责任等问题,⽽⽣成式⼈⼯智能能否作为法律意义上的“作者”存在,
实际关涉侵权与权利救济等巨⼤经济因素的考量。⽣成式⼈⼯智能在挖掘数据的过程中,⼀般分为信息抽取、语义分析、
关系计算及知识发现四个阶段,但⽆论是将这些数据读⼊系统还是进⾏格式转换和数据分析,均涉及受著作权⼈控制的复
制⾏为。[13]⼤语⾔模型使⽤的数据挖掘、演绎、⽆授权利⽤等具体⾏为,还涉及改编权、独创性保护等知识产权的侵权
可能。[14]若⽣成式⼈⼯智能作为⽣产⼒⼯具存在,其责任应由使⽤者或制造者承担。但由于⽣成式⼈⼯智能技术的迭代
能⼒过强,导致侵权的类型、范围、场景与样态将更为多样,侵权的因果关系、过程追溯也更为困难。在权利救济上,若
侵权者实施了著作权法第52条规定的侵权⾏为,则应当根据情况,承担停⽌侵害、消除影响、赔礼道歉、赔偿损失等⺠事
责任。但在⽣成式⼈⼯智能的作⽤下,由操作者、⼈⼯智能所有者、设计者或者⼈⼯智能⾃身承担侵权的主体责任,迫切

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…3a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 2 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

需要法律给予完整的制度架构回应。“作品”的价值在于有效利⽤,在此维度上,⽣成式⼈⼯智能具备极⾼的市场价值与产
业价值,由何种主体具备⽣成内容的著作权,包含着巨⼤的财产利益考量。准确识别利益主体,将极⼤提升技术滚动投资
与规模化利⽤的效率,既能⿎励技术研发者的价值确认,也可以维护著作权交易的安全性与秩序性。若⽣成式⼈⼯智能能
够具备部分财产权利,则在其进⾏数据挖掘、内容输出中的侵权⾏为,就有能⼒基础承担侵权责任。基于此种考量,结合
技术实践,明确⽣成式⼈⼯智能的法律地位已刻不容缓。
2.刑事归责体系不明
⽣成式⼈⼯智能的法律地位不明,除了造成⺠事权利与法律概念上的冲突,也对现⾏刑事法律体系造成了⼀定的冲击
。除侵犯知识产权的⾏为以外,设计制造⽣成式⼈⼯智能的⾏为理论上⽆法构成犯罪,但将⽣成式⼈⼯智能作为实施犯罪
⾏为的⼿段,却已在逐步撕裂传统刑法理论中的责任主体与罪责刑相适应等基础理论。现代刑法以犯罪主体的危害⾏为作
为调整对象,确⽴了认定犯罪、刑事归责与确定刑罚的全过程,是⼈类社会有组织地应对犯罪的制度创设,控制犯罪的⼿
段,也是⼈类治理社会的重要⼯具与供给。[15]有学者提出,ChatGPT作为⼀种⼤型语⾔模型⼯具,不具备教唆犯或帮助
犯的主体资格,ChatGPT在犯罪中能且仅能充当⼯具,犯罪分⼦若使⽤ChatGPT查询犯罪⽅法,或利⽤ChatGPT进⾏⽹
络诈骗、敲诈勒索等⽹络犯罪,⽆论是否成⽴间接正犯,均由对犯罪⾏为和结果有⽀配⼒的利⽤者承担刑事责任,本质上
仍可依据刑法进⾏应对。[16]这种观点在决策式⼈⼯智能时代具备⼀定的合理性,但已经落后于⽣成式⼈⼯智能的技术能
⼒,犯罪危害结果的表现形式、因果关系判定以及评价标准均产⽣了颠覆性的变化。
以ChatGPT撰写算法或者程序为例,撰写本身并不构成犯罪,⼤型语⾔模型⽣成的程序⾃身也并不具备犯罪⼯具的
天然属性。但当恶意造谣者希望通过ChatGPT实现抹⿊侮辱他⼈的效果时,可以将拼接的⾊情图⽚或情节,作为⾃动⽣
成的答案在不同国家间的⽹络中反复⽣成。ChatGPT以数据挖掘作为形成答案的基础,若数据样本⾜够多,通过设置特
定搜索词,被造谣者的内容将在全球范围内予以传播,对犯罪主体的追查将⽆从着⼿。特别是在利⽤⽣成式⼈⼯智能本身
具备的思考逻辑实施犯罪时,在现⾏刑法体系下将⽆从证明造谣者有恶意传播的故意。再者,⽣成式⼈⼯智能是否应当为
推荐给操作者的内容负责?例如,操作者搜索⾃杀挑战时,并不恰当的输出内容造成了操作者在⽣成式⼈⼯智能的⼲预下
实施了⾃杀,则何种主体应当为⾃杀后果承担责任?另如,⽣成式⼈⼯智能使得编程、搭建⽹站等复杂计算机技术的掌握
⻔槛变得极低,若操作者利⽤其⾃主编写恶意代码软件实施⽹络诈骗,则⽣成式⼈⼯智能是否应当拒绝此类犯罪预备的要
求,若⽣成式⼈⼯智能实施且造成了危害后果,是否应当对⽣成式⼈⼯智能科以技术限制、灭失等制裁措施?[17]还如,
⽣成式⼈⼯智能的底层逻辑结构从演绎系统转化为归纳系统,使得传统⼈⼯智能系统由他律转化为⾃律为主,在数据挖掘
与映射的过程中,理解、反馈、预测、控制、验证等可解释的算法⾏为将更为复杂,甚⾄产⽣⽆法预⻅的内容输出。凯⻄
·欧尼尔将造成个体损害等后果的⼈⼯智能称为“杀伤性数学武器”,⼈⼯智能利⽤不当引发的危害极⼤。[18]在上述情形中
,⽣成式⼈⼯智能是否具备辨认⾃⼰输出内容的能⼒与作⽤,对于社会治理的意义极⼤。确⽴法律责任,既是为了惩处⾏
为⼈的违法或犯罪⾏为,更是为了实现对违法或犯罪⾏为的预防。⼈⼯智能法律责任的关键在于,⼈⼯智能是否以及如何
对⾃⼰的损害⾏为承担责任。[19]考虑⽣成式⼈⼯智能的技术特点与实际能⼒,需要明确⽣成式⼈⼯智能时代的刑事责任
成⽴条件、归责原则、责任分担等基本问题。
3.第三极权⼒膨胀下的规制路径不明
⼈⼯智能治理是国家治理体系与治理能⼒现代化的⼀部分。⽣成式⼈⼯智能的背后推⼿,主要由⼤型科技公司与私⼈
资本控制。随着技术在治理能⼒与治理体系中的地位越来越重要,通过代码与算法定义规则与标准已经成为现实,包括政
府在内的主体也不得不依赖私有资本控制的技术以完成社会治理。[20]因此,在传统社会公权⼒与私权⼒两极下的稳定结
构,逐步增加了具有垄断技术能⼒的科技企业这⼀新的权⼒集合,这种数字权⼒既不同于国家的暴⼒机关,也不同于私⼈
的权⼒⾃治。[21]笔者称之为第三极权⼒。在第三极权⼒治理领域,缺少对于垄断型科技企业的分类分级监管,作为基本
治理⼿段的反垄断机制⻓期缺位,也缺少必要的⼿段与执法能⼒,常态监管机制⽆法发 应有作⽤,资本很可能⽆序扩张
, 压其他主体的⽣⻓空间。[22]⽣成式⼈⼯智能的实际掌控者与技术控制者已经成为数字空间乃⾄社会空间的隐性权⼒
主体,通过不断进⾏全域样本的挖掘形成更为隐蔽的数据垄断,通过控制技术以获得相应层级的规则制定权,成为对传统
公权⼒直接竞争的技术权⼒。在当前法律体系下,⽆法排除第三极权⼒对于⼈类传统社会的控制与监视,也没有充⾜的理
由期待OpenAI、Meta或Google这样的资本公司会实现深刻充分的⾃我规制。[23]
2021年6⽉,美国最⾼法院托⻢斯⼤法官就前总统特朗普拉⿊部分推特⽤户引发的纠纷发表意⻅,敏锐地指出当今的
数字技术平台虽是私⼈拥有,但却享有巨⼤的控制权⼒。这种权⼒随着⽣成式⼈⼯智能的规模化应⽤,产⽣了更为深远复
杂的负⾯影响,导致了作为私权代表的公⺠形成由⼈⼯智能画像的数字⼈格,数字权⼒能够实现对⼈的分层分级管理,却
缺少相应的责任规制与法律体系。若操作者接受使⽤⽣成式⼈⼯智能,则事实上确认了其对第三极权⼒⾼位阶的确认以及
⾃身权⼒在不知情下的让渡。私⼈资本在投⼊产品研发时,天然需要考虑营利性,始终⽆法替代公权⼒对于公共利益的考
量。例如,ChatGPT所挖掘的数据库基本为英⽂数据库,当⽣成式⼈⼯智能全球化应⽤后,语⾔歧视、语⾔平权、语⾔

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…3a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 3 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

多样性即将受到现实的威胁,⽂化多样性也将在第三极权⼒的影响下逐步衰退。第三极权⼒在技术的加持下⽆限膨胀,却
没有相适应的责任体系加以规制,因此需要建构公平合理的规则体系。⽣成式⼈⼯智能的责任规制体系,应当包括特定主
体、特殊义务和特殊责任。责任能⼒属于⼴义上的⼈⼯智能伦理标准构建,⽣成式⼈⼯智能的责任地位与责任能⼒的确定
,有助于从底层技术上保障“共同富裕”等价值原则的转移与实现,实现⼈⼯智能与⼈类社会的协同发展。[24]⽣成式⼈⼯
智能是否具有道德意义上的公正、平等意识,需要控制者予以算法标准确定。资本不会天然地关注贫困⼈群、⽼年⼈、未
成年⼈的特殊需求,只要在充分的责任规制体系之下,⽣成式⼈⼯智能才可以被确保关注⼈类发展的重⼤问题,⽤于消除
⼈类的不平等并实现可信向善,使得⽣成式⼈⼯智能的不利影响远远⼩于其有利作⽤。
(⼆)数字社会下的治理⻛险
1.认知⻛险
欧盟议会在《⼈⼯智能法案》中将⽣成式⼈⼯智能的核⼼⻛险,定义为缺乏真实性。在⽣成式⼈⼯智能投⼊使⽤之前
,虚假信息的⽣产源头可控、⽣产能⼒有限、产出频次受算⼒的制约较⼤,公权⼒通过出版许可、溯源管理、账号实名、
限制转发等治理模式可以较为有效地控制有害信息传播。但是⽣成式⼈⼯智能的架构与运⾏模式直接改变了当前⼈类的认
知结构,对其的治理路径存在⼀定的模糊性。
⼀是⽣成式⼈⼯智能具备强⼤的数据⽣产和传播信息的结构化能⼒,可能会成为加剧⿊客攻击和危害⽹络安全的推⼿
。[25]根据美国新闻可信度评估机构News Guard的研究,ChatGPT可以在极短的时间内改编并⽣成虚假内容,并⽤于传
播。[26]《暨南⼤学学报》等期刊于2023年年初,明确表示拒绝使⽤ChatGPT⽣成的论⽂投稿。ChatGPT不是创造信息
,⽽是对已有信息进⾏归纳、总结、分析,ChatGPT使⽤的底层⾃然语⾔模型和技术已经可以完全理解并⽣成⼈类⾃然
语⾔。在⽣成式⼈⼯智能接收到指令后,即可批量注册⽹络账号,操控相关⾃动化程序成规模地在各类社交媒体上发布海
量的煽动性信息,若⽣成式⼈⼯智能被⽤于国家级的认知作战,将很有可能产⽣颠覆政权的现实⻛险。[27]因此,推动⽣
成式⼈⼯智能在政策与法治层⾯的责任调控结构,对实现国家治理体系与治理能⼒现代化具有重要意义。[28]
⼆是当前⽣成式⼈⼯智能的底层数据结构以英语数据为主,输出的内容不可避免地带有对于历史、国别以及事物的价
值观。与传统算法推荐给⽤户的“信息喂养”⽅式相区别,⽣成式⼈⼯智能的输出内容是在操作者⾃由输⼊指令的模式下完
成的,操作者天然具备对于主动获知内容的信任度,公众在⻓期接收到此类含有价值观偏向的信息后,可能会在潜意识⾥
改变对于传统⽂化与⺠族精神的⻓期认同。笔者在使⽤ChatGPT的过程中发现,其回答的内容在涉及中美两国时会表现
出典型的“双标”差异,例如,ChatGPT曾输出美国的⼈⼯智能侧重“智能”、⽽中国的⼈⼯智能侧重“⼈⼯”等暗含价值判断
的观点。何种主体应在何种程度上,依据何种标准对于⽣成式⼈⼯智能的内容产出负责,需要法律予以明确回应。
三是由于⽣成预设结果的便利性,操作者过度依赖于⽣成式⼈⼯智能,可能会导致⾃身能⼒的退化或异化。若⼈类放
弃对于⽣成结果的批判性思考,就很有可能失去对于语⾔、技术乃⾄科学原理的把握与掌握,也逐步失去对于真理与奋⽃
的朴素价值追求。⽣成式⼈⼯智能的认知⻛险终将作⽤于终端⽤户,产⽣了确保⼈⼯智能被道德地和负责任地使⽤的责任
机制需要。
2.监管⻛险
当技术能⼒突破带来⽆法预测的巨⼤⻛险后,应依据何种标准与模式以有效地实现对于⽣成式⼈⼯智能的监管,学界
与实务界还未提出明确的解决⽅案。在⽣成式⼈⼯智能未实现规模化应⽤以前,欧盟⼈⼯智能法案(the AI Act)以分类
分级监管⼈⼯智能产品的思路实现了有效的监管,通过建⽴⼈⼯智能全流程监管体系提⾼⼈⼯智能可信度的⽅式,确定⼈
⼯智能产品的市场准⼊⻔槛与底层数据构建机制以达成⻛险管控的⽬的。该法案秉持“谁提供谁负责”的原则侧重于对⼈⼯
智能产品的提供者进⾏规制,类似终端⽤户的责任被排除在了适⽤范围以外。因此,有学者提出,将⽣成式⼈⼯智能和通
⽤⼈⼯智能视为该法案下的⼀般⻛险类别,课以产品供应商对系统性⻛险的定期监测义务,关注供应商与⽤户间的合同关
系,建⽴对合同条款的监管审查机制。[29]但随着⽣成式⼈⼯智能带来的侵权责任主体、侵权⽅式类型、侵权范围等产⽣
了根本性变化以后,该法案原本确⽴的监管模式已⽆法涵盖⽣成式⼈⼯智能可能引致的不确定性⻛险。[30]。2023年2⽉
初,欧盟议会提出将⽣成式⼈⼯智能列⼊该法案所确定的⼈⼯智能⾼⻛险类别以扩⼤法案的管辖领域,但这也造成了法律
监管的局限性,即只有列⼊⾼⻛险类别的⽣成式⼈⼯智能才能被该法案所控制。[31]当⽣成式⼈⼯智能⾃身已进步⾄可以
⾃主实现⽣产同类或其他类别⼈⼯智能的技术能⼒阶段时,通过清单式的管理显然已⽆法应对⼈⼯智能衍⽣的多样性与复
杂性。传统监督⽅式已经难以⽀撑数字时代的监督职能,需要重新审视有关数字技术的监督理论以重塑监督的模式与机制
。[32]随着⼈⼯智能责任能⼒的进⼀步挖掘,需要思考采取更加动态的⽅式,以监测和尽量减少⽣成式⼈⼯智能引致的全
局⻛险。
与欧盟《⼈⼯智能法案》相⽐,欧盟《数字服务法案》(the Digital Services Act)建⽴的系统性监测模式,更为契
合⽣成式⼈⼯智能的技术能⼒与特征。《数字服务法案》第34条提出,超⼤型数字平台和搜索引擎在了解其对基本权利和
社会运⾏产⽣的负⾯影响的基础上,有义务监控其⾃身的算法系统,将⽣成式⼈⼯智能的责任控制主体定位于技术供应者

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…3a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 4 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

。但如此确定责任分配的模式,⼜可能造成限制科技发展的过度监管后果。有研究表明,若对技术供应者科以较重的责任
负担,可能造成监管成本的⼤幅增加(按年GDP计算,可能造成850亿欧元的损失),最终⼤幅减弱市场对于技术更新与
投资的意愿。[33]
3.数据滥⽤⻛险
数据是计算空间的底层元素,数据的⽣成、储存、抓取、学习以及利⽤是⽣成式⼈⼯智能迭代式发展的主要动⼒源。
[34]相对ChatGPT-3投⼊使⽤前所运算的1750亿个参数,GPT-4的参数量已达到百万亿级。控制好数据,控制好算法掌握
的模型所有权,已经成为21世纪“信息战”的内容。[35]⽣成式⼈⼯智能对于数据具有极强的依赖性,数据的质量将直接决
定⽣成式⼈⼯智能输出内容甚⾄决策的质量。数据的规模化应⽤也造成了数据滥⽤的现实威胁。数据中存在⼤量受知识产
权法或个⼈信息保护法所保护的客体,在⽬前的责任体系下,⽣成式⼈⼯智能在挖掘使⽤数据的过程中并不能辨析所利⽤
数据的权利状态与隐私⻛险,可能存在的权利⼈也⽆从知晓⾃身数据与信息被⼤数据模型所利⽤,其⾃身利益也⽆从补偿
,引致极强的道德⻛险。[36]当ChatGPT出现数据滥⽤⻛险后的算法透明、算法解释权等问题,也需要从其设计之初就着
⼿构建可信任的责任路径与分担模式。合理的⽣成式⼈⼯智能责任分配,应当激励其制造者从初始的数据质量就开始明晰
数据规模化利⽤的责任体系,否则数据滥⽤的⻛险将会渗透⾄未来⽆限的场景应⽤中去。为规范⽣成式⼈⼯智能技术的应
⽤,国家⽹信办于2023年4⽉11⽇公布了《⽣成式⼈⼯智能服务管理办法(征求意⻅稿)》,要求技术提供者应履⾏训练
数据不含有侵犯知识产权内容的义务。但是,由于⽣成式⼈⼯智能所使⽤的数据样本过于庞⼤,正如ChatGPT在使⽤条
款中声明的内容⼀样,即使⽣成式⼈⼯智能的设计者与所有者在利⽤数据的过程中,已尽可能地去减少侵权的⻛险,也⽆
法保证所有训练场景下所使⽤的数据均经过了原始作者的许可。[37]当前,学界对于数据⼤规模汇聚使⽤造成的⻛险关注
度还不⾼,但数据的规模性利⽤实际上是⽣成式⼈⼯智能发展的关键性因素。只有通过建⽴数据规模化使⽤的权责分配,
才能实现第三极权⼒膨胀背景下的数字公有领域责任制度分配,从法律的层⾯促进与规制⽣成式⼈⼯智能的可信向善发展

⼆、⽣成式⼈⼯智能的责任能⼒与现实基础
⻛险与责任之间具有强⼤的关联性,当社会向⼀个被⼈造不确定性⽽⾮外部不确定性所⽀配的世界移动时,就必然出
现对责任的讨论。[38]在⻛险现实与治理规则⽆法调和的真实存在下,需要进⼀步深⼊研究⽣成式⼈⼯智能规制的转向路
径,特别是解决由何种主体承担责任的法律窘境,以提出逻辑⾃洽⼜契合发展需要的治理机制。在此技术路线下,⽣成式
⼈⼯智能引致⻛险的责任能否由其⾃身承担、并在什么程度上承担,已成为厘清相关问题的基础环节。责任能⼒分为⺠事
与刑事责任能⼒两类,是指权利主体以⾃⼰的⾏为履⾏法律义务和接受不履⾏义务时的惩治性法律后果的资格。责任能⼒
状况⼀般与⾏为主体能⼒状况是⼀致的。⺠事⽅⾯,有经济能⼒的⽆⾏为能⼒⼈或限制⾏为能⼒⼈,因为⾃⼰的⾏为造成
他⼈财产损失,要以⾏为⼈的财产进⾏赔偿。刑事⽅⾯,达到刑事责任年龄,精神和智⼒正常的⼈,即具有刑事责任能⼒
。⽆责任能⼒的⼈,对⾃⼰的⾏为不承担刑事责任。从⽣成式⼈⼯智能所具备的意志表征与⾏为能⼒分析,对其赋予相应
的责任能⼒具备⼀定的现实可能。当⼈⼯智能的发展达到相当⾼的技术⽔平时,是否认可其已经从辅助⼈到替代⼈的地位
转变,将直接影响⼈⼯智能产业乃⾄⼈类社会存在形态的伦理与规则基础。例如,⽣成式⼈⼯智能能否被视作作者,将关
涉切实的利益与责任,⽣成式⼈⼯智能应当对⾃⼰⽣成的内容负责吗?资本作⽤下的科学技术是对⼈本身的⼀般⽣产⼒的
占有,是⼈对⾃然界的了解和通过⼈作为社会体的存在来对⾃然界的统治。[39]科技兴则法治强,现代数字科技已经成为
法治现代化的重要引擎。[40]⻄⽅⻓期执着于污名化中国的⼈⼯智能应⽤,但对制度领导权和规则制定权却表现出⻓期偏
好。[41]虽然我国在⽣成式⼈⼯智能的技术领域居于后发地位,但通过创新规则与应⽤体系的结构性改变,结合法律规范
的适度超前调整,可以充分发 我国在数字领域的基础优势与场景优势,形成⼈⼯智能治理领域的制度性优势。
(⼀)⽣成式⼈⼯智能具备类⼈类意志特征
责任产⽣的前提,是主体对于法律规范具有认识理解的能⼒,同时具备实施具体⾏为时的意志⼒。例如,犯罪就是⼈
的意志体现,缺乏意志即构不成犯罪,不具有科处刑罚的本质。[42]任何思想的产⽣都是对⼀定社会历史条件的反映,都
会在现实社会中找到依据。有学者提出,根据⼈⼯智能发 具体功能或完成特定任务的算法,是否可以将与设计者、⽣产
者等发⽣分离作为具有意志⼒的标准?[43]也有学者提出,只有满⾜了意志条件的理性⼈⼯智能,且可以将⾃身与他者相
区分,并且能够反思⾃身,才具有责任能⼒的可能。[44]⽣成式⼈⼯智能输出的内容已经可以产⽣⼈类感知外部世界的效
果,依据预设算法规则处理问题并形成产出的逻辑,具有类⼈类意志的深刻特征。
⼀是从认知的⻆度分析,⽣成式⼈⼯智能已经具备相当强的认知能⼒。认知,是指⼈类获得知识或应⽤知识的过程,
⼤脑接受外界输⼊的信息,并经过头脑的加⼯处理,转换成内在的⼼理活动,进⽽⽀配⼈的⾏为,这个过程就是认知过程
。[45]⼈类认知的实现过程与⼈⼯智能构建的“输⼊信息⼀算法加⼯⼀形成决策”的底层逻辑⾼度契合,⼈⼯智能甚⾄实现
了较⼈脑更为精准的认知。传统⼈⼯智能阶段,抖⾳、TIKTOK等短视频平台可以根据算法推荐技术,按照⽤户的喜好推
荐其感兴趣的内容,从认知的结果分析,⼈⼯智能已经具备了输⼊信息并⽀配算法决策⾏为的典型特征,⽽这种认知能⼒

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…3a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 5 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

在⽣成式⼈⼯智能实现后表现得更为强烈。ChatGPT通过键⼊⼏个关键词即可⽣产完整意义上的⽂章,GPT-4甚⾄可以看
懂表情包和内涵图⽚,并准确地指出其中蕴含⼈类理解的笑点。就技术实践所达到的智能程度⽽⾔,已经很难否认⽣成式
⼈⼯智能具备了⼈类的认知能⼒。⽣成式⼈⼯智能,本质上已经成为具备⾃然语⾔能⼒的⼈⼯智能。⼈类的⽂化教育传承
,基本是以⾃然语⾔为界⾯学习书本,在此意义上,⽣成式⼈⼯智能确实已在某些领域代替了部分社会基础功能。虽然⽣
成式⼈⼯智能的认知过程并⾮依靠⼈类⼤脑神经⽹络,但若其可以形成⼈类⾃然语⾔相同的理解结果,是否由碳基⽣命的
⼤脑直接感知⽣成结果的过程才能构成传统意义上的认知,已经不再是理论上的桎梏。
⼆是从理性的⻆度分析,⽣成式⼈⼯智能呈现的结果已具备⼀定的实践理性能⼒。理性是指⼈在正常思维状态下为了
获得预期结果,快速全⾯了解现实并形成多种可⾏⽅案,从中判断出最佳⽅案且有效执⾏的能⼒。[46]简单地讲,理性就
是从理智上控制⾏为的能⼒。理性分为理论理性和实践理性,即“认识世界的规律性的能⼒”和“根据道德律令的要求⾏为处
世的能⼒”。[47]就理论理性⽽⾔,⽣成式⼈⼯智能⽣成⽂稿的过程,已经具备了理论理性的基础能⼒与外在特征,⽣成式
⼈⼯智能在操作者指示下⽣成的可⾏⽅案早已超过农业社会中⾃然⼈的理解能⼒。⽣成式⼈⼯智能甚⾄已经具备了逻辑推
理的能⼒,GPT-4不仅可以识别图⽚中的内容,并可以通过图⽚中的元素形成与⼈类主观意识相同的进⼀步推理。如果向
GPT-4展示⼀个孩⼦牵着⼀个⽓球和⼀把剪⼑,问它如果剪断了绳⼦会出现什么情况,GPT-4已经可以精准地回答“⽓球会
飘⾛”。就实践理性⽽⾔,⽣成式⼈⼯智能具备了根据规则要求进⾏决策的能⼒。美国明尼苏达⼤学法学院已经开始探索
使⽤ChatGPT为法学课程考试作答,在测试中,ChatGPT四⻔考试的平均成绩已经可以达到⼈类学⽣的毕业要求,特别
是对于法律案例的论述⽅⾯,其可以把握法律规则、⾃⾏提出应适⽤的法学理论、正确列举具体案件的事实和观点。[48]
当然,与⼈类学⽣相⽐,⽣成式⼈⼯智能暂时还仅能理解表⾯层次的法律关系,对于复杂或隐含的因果关系的挖掘能⼒仍
然不⾜,⽣成的内容依然符合设定的浅层法律逻辑。但需要注意的是,这种程度的实践理性是在更为强⼤的GPT-4适⽤之
前的能⼒⽔平,按照⼤型语⾔模型的迭代速度,⽣成式⼈⼯智能全⾯理解法学理论已极可能成为现实。
三是⽣成式⼈⼯智能已经具备了价值判断的能⼒。传统观点认为,智能⽆法替代⼈的价值判断,⽽法学及司法裁判的
特质,⼏乎完全是与价值判断相关联的。[49]但随着技术的进步,代码、算法和数据已经被⽤于预测司法判决的结果,并
取得了较好的成绩,⽣成式⼈⼯智能的算法逻辑已经可以渗透进⼊判决的体系架构之中。有研究者通过⼈⼯智能正确预测
了从1816年到2015年美国最⾼法院作出的2.8万项判决中的70.2%,以及法官投出的24万张裁决票中的71.9%,与之相较
,法律专家实现的案件预测准确率仅在66%左右。[50]⽣成式⼈⼯智能已经可以在最终的输出结果上实现预设的价值判断
。就价值判断的实现过程⽽⾔,以⾮确定性为前提,强调根据公理性概率论来重构⺠事司法体系,在案件审理上注重证据
试错过程和可撤销性,最后以法律经济学强调的期待效⽤最⼤化为指标来作出司法决定,使得⼈⼯智能替代法官裁判完全
具备可能性。[51]但必须注意的是,⽣成式⼈⼯智能形成的判断,也天然具备⼀定的价值局限。⾸先是不同法系的价值观
并不相同,例如,利⽤GPT-4对中国法院的裁决进⾏分析,必然会得出批量性的错误结论。其次是⽣成式⼈⼯智能使⽤的
底层数据并不具备权威性,例如,其若使⽤中国裁判⽂书⽹的数据作为⽣成逻辑的基础时,不同时期、不同阶段的法律⽂
书带有的价值判断本就不同,⾃然可能形成“同案不同判”的偏差结果。另外,⽣成式⼈⼯智能暂时还⽆法感知其输出裁判
后的内容所造成的客观影响,在此基础上,其对于社会评价的理解还⽆法实现直接反馈。[52]这也决定了⽣成式⼈⼯智能
的意志天然具有局限性。
(⼆)⽣成式⼈⼯智能可能具备⾏为能⼒
劳动是创造与实现社会价值的前提。⽣成式⼈⼯智能在实践中已起到了替代⼈类职业的作⽤,通过快速化决策的能⼒
,已开始替代⼈⼯处理保险理赔、⼩病看诊、剪辑视频等重复性劳动。[53]在进⼊⽼龄化社会的现实下,不断提升⽣成式
⼈⼯智能对⽣产关系的作⽤,将与未来社会形态的变化直接相关。[54]传统⼈⼯智能在区块链技术的作⽤下,已经可以通
过智能合约由机器代替⼈类确定权利义务并对外发⽣效⼒,⼈⼯智能作出决策的过程是否可以成⽴法律上的⾏为已经成为
法学研究⽆法绕开的话题。对于传统⼈⼯智能的地位,通说⼀般仍持“代理说”的观点,认为⼈⼯智能的⾏为是受⼈类所控
制,其决策的能⼒与后果最终由被代理的主体承担,这也就实际上承认了⼈⼯智能具备⼀定的法律地位,因为只有在⼈⼯
智能具备⾏为能⼒时,才具备履⾏被代理⼈指示的资格。承担责任的前提在于主体能够意识到其⾏为的后果,并采取具有
独⽴意志的⾏动。当⼈⼯智能进化到⽣成式⼈⼯智能的阶段之后,已经强⼤到可以⼴泛参与法律关系,基于其⾃主决策的
实际,需要判定⽣成式⼈⼯智能是否可能具备⼈类⾏为的能⼒,这是其是否可以承担责任的前提条件。
有学者提出,由于⾃动化系统⽆法理解消费者的意愿与期望,或者⽆法理解⼈类⾃然语⾔⽽不能承担法律责任,也就
否定了⼈⼯智能的⾏为能⼒。[55]但司法实践中已有判例确认了⼈⼯智能的⾏为效⼒。例如,在Moore v. Publicis Groupe
SA案中,美国法院正式批准预测编码作为在某些情况下审查电⼦存储信息的可接受⽅式。[56]也有学者提出,如果⼈⼯智
能的决策可以视作⾏为,则需要其⾏为必须可以被解释。[57]《新⼀代⼈⼯智能伦理规范》第12条规定,要在算法设计、
实现、应⽤等环节,提升⼈⼯智能的透明性、可解释性、可理解性。但如何理解“可解释”,实际上也是⽴法者作出的主观
价值判断,⽆⾮是解释理念、解释原则与解释⽅法随着⽣产⼒⽔平的不断提⾼⽽形成的逻辑,⼈⼯智能的底层算法是否⼀

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…3a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 6 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

定需要被解释,迄今未有学者给出令⼈信服的依据。在State Farm Mutual Automobile Insurance Company v. Bockhorst


案中,保险⼈的智能系统基于错误的程序发出了错误通知,原告基于此改变了原先的保险合同,法院也判决了原告基于信
任的系统⾏为有效。[58]美国第⼗巡回法庭明确计算机程序作出的超出预想的错误后果由保险公司承担,这实际上已经确
⽴了计算机作为独⽴的主体形成权利义务的能⼒。[59]
当然,技术⼿段本身并不能回答原因问题,将结果混淆为原因是⼀种谬误。[60]有研究者提出,通过留意价值的数值
化处理和加权计算,可以确⽴关于价值排序和价值函数的算法规则,[61]⼈⼯智能的伦理标准通过技术设计的内在路径完
全可以实现。[62]回溯伦理学上“⼈”的概念形成的历史,“⼈”是依照其本质属性,有能⼒在给定的各种可能性的范围内,⾃
主地和负责地决定他的存在和关系,为⾃⼰设定⽬标并对⾃⼰的⾏为加以限制。[63]⾃然⼈可以成为主体,渊于将伦理学
上的“⼈”的概念移植到法律领域。[64]有学者提出,伦理性并不是⺠事主体的必然要求,伦理性⼈格到经济性⼈格的转变
为智能机器⼈的主体论铺平道路,⼈⼯智能可以具有⼯具性⼈格。[65]伦理概念下的⽣成式⼈⼯智能是否满⾜或是可以满
⾜⼈类社会的⾏为要求,也是考虑能否赋予其⾏为能⼒的要素。特别是如果⼈⼯智能突破了伦理底线,则⼜应该按照何种
形态对其予以追责或惩戒?这⼜回到了⽣成式⼈⼯智能是否可以具备⾏为能⼒的逻辑起点。从⻄⽅理论认为,⼈类社会运
⾏的规则,由准则、指令和标准这三个概念共同组成。[66]⽽“⾏为标准”的判定,也是随着实践的发展不断改变。 [67]⽣
成式⼈⼯智能如果⻓期输送含有关乱伦、暴⼒、歧视等内容影响⻘少年,同样⾯临传统价值观下的伦理底线突破与犯罪构
成标准的适⽤困境,造成⼈类社会价值的崩塌。基于⽣成式⼈⼯智能所引致的标准变化,有必要通过伦理规则的重构,对
其形成真实的可责性,以确保其⾏为的发展始终不偏离以⼈为本的预设价值轨道。
(三)拟制主体承担法律责任
法理意义上的“⼈”,体现的是⼈类族群的群体意志所形成的共识,与⽣产⼒⽔平和⽣产关系密切相关。法律上对于“⼈
”的概念是动态变化的,在奴⾪社会以及封建社会,⾃然⼈并⾮天然具有法律上的权利能⼒与义务能⼒,在现代⽂明体系
建⽴之后,“⼈可⾮⼈”的价值判断才逐渐被⼈类社会所抛弃。在进⼊⼤航海时代以后,⼈类为了适应社会发展的实际需要
,逐步形成了公司等拟制的法⼈概念。从经济利益考量,法律的制度性变化确实促进了社会的发展与进步,这也是1750
年前后新的组织体开始推动⼈类财富⼤幅增⻓⾄今的原因解释。[68]就意志能⼒⽽⾔,法⼈等拟制主体作为财产的集合并
⽆意志的天赋属性,其可以成为法律意义上的⼈是基于经济上的合理性⽽⾮哲学上的合理性,仅仅是形式化的权利主体与
法律效果的承担主体,并产⽣了限制责任等制度。[69]⼤陆法系下,独⽴的法律⼈格需要具备社会存在与法律确认这两个
必备条件,即需要独⽴⾃主地作出意思表示并得到法律明确的确认。法⼈概念的产⽣,是随着社会存在的变化⽽不得不作
出的规则调整与适应,这种拟制的主体符合现代社会的基本组织形式与运⾏规律,⼜确保了⽣产关系的不断完善。
既然法⼈可以拥有主体地位,那么⼈⼯智能也将必然获得相应的法律资格。[70]俄罗斯格⾥申法案提出,基于⼈⼯智
能的法律构造,可以允许其类推适⽤统⼀国家法⼈登记簿制度。[71]就法⼈⽣成的逻辑⽽⾔,是先有实体存在,再有法律
进⾏确认。以此类推,⼈⼯智能特别是⽣成式⼈⼯智能被法律所拟制⽽形成特殊的主体地位具有逻辑上的正当性。也有观
点提出,不能简单地通过与法⼈的类⽐,以论证⽣成式⼈⼯智能法律地位的正当性,理由是法⼈通过借助于⾃然⼈的⾏为
才能从事法律活动。[72]但笔者认为,法⼈与⼈⼯智能在构造上的差别,并⾮⼈⼯智能⽆法被法律所赋权的前置性因素,
⽴法技术的主要考量仍应从解决实际问题出发。任何权利主体,只要⼈类将其称为权利主体时,就应当成为“法律上的⼈”
。[73]法⼈运⾏的关键,是其内部成员意志的集中体现,通过相应决策机构,集中形成意志,并以⾃身的名义开展活动,
从⽽具备了认知能⼒以及实施犯罪的能⼒。[74]⼈⼯智能在拟制的法律技术上,与法⼈并⽆本质不同,穿透⼈⼯智能⾯纱
,也⼀定会体现⼈的意志。当下围绕⼈⼯智能的法律主体构建的核⼼问题就是责任,需要为⼈⼯智能的发展构建契合实际
的以责任承担为基础的特殊财产性法律主体。[75]当⼈⼯智能因不可归责于他⼈的⾏为造成损害或伤害时,可以承担相应
的⺠事或刑事责任,以使得负责任的⼈⼯智能成为法律与实践意义上的现实。
三、⽣成式⼈⼯智能的责任能⼒建构与结构化配置
在传统的法律责任体系之下,由⽣成式⼈⼯智能⾃动签订的法律合同,对外发⽣的效果表示⽆法进⾏效⼒上的确认,
其⽣成的明显具备作品特征的内容⽆法享有著作权等知识产权法的保护,也就⽆从产⽣将⽣成式⼈⼯智能作为权利主体所
带来的经济效益,不利于⼈⼯智能作为颠覆性⽣产⼒⼯具的⻓久发展。由于⽣成式⼈⼯智能的技术特点,利⽤其实施的犯
罪⾏为或者其在⾃身算法逻辑下输出的内容可能引致犯罪的结果,由于难以确认犯罪主体,在现⾏刑罚体系下⾯临⽆法构
罪的现实困境,直接对⼈类社会的朴素伦理造成巨⼤冲击。在技术与数据⾼度垄断的数字社会架构下,“代码就是法律”的
逻辑已经使得拥有先发优势的巨型科技资本拥有了超出公权⼒与私权⼒之外的第三极权⼒,在事实上形成了对于社会治理
的域外法权,根据何种原则与规则以规制⽣成式⼈⼯智能的控制者,已成为关系国家安全的重⼤问题。⽣成式⼈⼯智能抓
取的是全域范围内的海量数据,使⽤的可能是饱含价值密度的规模化信息,在使⽤与输出数据的过程中造成的隐私侵害、
知识产权侵害等⾏为,在现⾏法律体系下也⽆法明确责任的主体与归责的原则。⽣成式⼈⼯智能实际改变了⼈类对于传统
⾃然语⾔传承⽂化与教育的基本结构,操作者不得不在认知逻辑的改变下,有意识或⽆意识地被⽣成式⼈⼯智能所输出的

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…3a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 7 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

内容渗透,其产⽣的⼈类认知逻辑上的变化,将很有可能对国家与⺠族的认同产⽣价值观上的重⼤变化。
习近平总书记指出:“⼈⼯智能是新⼀轮科技⾰命和产业变⾰的重要驱动⼒量,加快发展新⼀代⼈⼯智能是事关我国
能否抓住新⼀轮科技⾰命和产业变⾰机遇的战略问题。”[76]法律是保障⼈⼯智能可信向善、负责任发展的关键因素与主要
⼿段,是否承认⽣成式⼈⼯智能的责任能⼒,或者说在何种程度上承认⽣成式⼈⼯智能的责任能⼒,将直接决定⽣成式⼈
⼯智能乃⾄未来通⽤⼈⼯智能的⾏为性质与有效性,⼜会反作⽤于未来法律的发展和⾛向,在根本上决定数字技术全⾯覆
盖⼈类⽣产⽣活后的社会样态。需要在发 中国既有的⼈⼯智能治理优势上,通过顶层设计推进基础性⼈⼯智能⽴法,探
索通⽤⼈⼯智能⽴法的经验,根据⽣成型⼈⼯智能的技术特点更新监管逻辑,形成更具影响⼒的法律制度体系。[77]
(⼀)责任能⼒有限
法律在规制⼈⼯智能⻛险与促进⼈⼯智能正向发展的两个维度间必须寻找到恰当的平衡点,⽽促进⼈⼯智能发展的⾸
要问题是需要有主体为⼈⼯智能的⾏为承担相称的责任。这个主体可能是⼈⼯智能的研发者、控制者、操作者、投资者、
⽣产者,在⼀定范围与条件下,也可以是⼈⼯智能,特别是⽣成式⼈⼯智能这类强⼈⼯智能体。需要避免⼈⼯智能⼀定要
像⼈⼀样进⾏神经思维才可以定位为“⼈”的思维定势,与⼈类⼤脑运⾏机制的不同,并不能说明⼈⼯智能不能达致理性主
体的状态或能⼒。社会性或伦理性已不是⼈⼯智能成为法律主体的必要条件。[78]就意志能⼒⽽⾔,⽣成式⼈⼯智能在进
⼊GPT-4时代以后,已经具备了逻辑推理与意思表示的能⼒,可以通过算法逻辑的设定实现与操作者⼀致的价值期待。就
⾏为能⼒⽽⾔,司法实践已经确认了⼈⼯智能⾏为的法律效⼒并已有国家开始使⽤⼈⼯智能系统⽤于智能裁判。从实际出
发,参考拟制法⼈对于⼈类⽂明与经济发展的重⼤作⽤,赋予⼈⼯智能特别是⽣成式⼈⼯智能以特殊的法律主体地位,明
确其责任能⼒与归责原则,已经成为应对⻛险、促进发展的现实选择。
⼈⼯智能虽然可以具备法律主体地位,但这种法律⼈格应当是有限度的,并⾮完全的法律⼈格,归根结底是因为其可
以承担的责任能⼒是有限的。责任能⼒与⾏为能⼒是⼀致的。[79]⽣成式⼈⼯智能虽然能够独⽴作出意思表示并承担⼀定
的责任能⼒,但其依旧是智能机器的天然身份,⼈类所具有的⽣育、婚姻、投票、选举等伦理性的权利显然⽆法加予⽣成
式⼈⼯智能,但结合其输出具有价值作品的实际,可以考虑为其在著作权等利益型权利上赋权。使⽤⽣成式⼈⼯智能输出
的作品可以由其具备⼀定的著作权,使⽤、利⽤该作品应当为⽣成式⼈⼯智能⽀付⼀定的微量费⽤,这种费⽤既不属于⽣
成式⼈⼯智能的研发者、也不属于其控制者,⽽是由⽣成式⼈⼯智能⾃⾏所有,当其使⽤数据或信息造成侵权、歧视等不
利结果时,可由⽣成式⼈⼯智能前期积累的收益予以赔付,在事实上建构其⼀定的责任承担能⼒。⼈⼯智能是由⼈类创造
以服务⼈类的智慧型⼯具,即⼈类⾃身的权利优位于⼈⼯智能,⼈⼯智能的⼯具属性也决定了其⾃身法律地位的限度性。
[80]
⽣成式⼈⼯智能的⾏为能⼒来源于技术,其决策输出的底层逻辑来源于规模化数据深度学习后形成的规律性⾏为,与
⼈类个体在⾃主意识上的⽬的⾏为仍具有结构上的巨⼤差异。穿透技术背后的核⼼,体现的依然是设计者、控制者、操作
者的意识与价值逻辑。由于具有⼈脑根本⽆法达到的学习与运算能⼒,如果对⽣成式⼈⼯智能赋予完全的责任能⼒,则⼈
类的地位将极有可能逐步被机器所取代,造成⼈本社会的道德伦理塌陷。[81]基于实践的变化,为⽣成式⼈⼯智能等⾼度
智能体赋予⼀定的责任能⼒以解决“⽹暴”、⽆⼈驾驶、作品制作等现实重⼤问题,是法律体系可以作出的适应性调整,但
责任的最终承担仍需要由⼈类负责,这是实现⼈⼯智能在⾃身层⾯与社会存在两个维度负责任发展的应然法律技术路线。
(⼆)“穿透⼈⼯智能⾯纱”的归责原则
在证成⼈⼯智能特别是⽣成式⼈⼯智能可以具备⼀定的责任能⼒后,就需要考虑其责任能⼒的范围与归责的路径。就
⺠事责任⽽⾔,主要考虑其独⽴对外决策的⾏为效⼒与侵权的责任承担,就刑事责任⽽⾔,主要考虑其被利⽤作为新型犯
罪⼯具、由于⾃身缺陷造成的犯罪结果以及⾃主决策实施的犯罪⾏为这⼏种情形下的责任能⼒。⽣成式⼈⼯智能依靠数据
信息的搜索整合与综合运⽤形成了不同于传统⼈⼯智能的运算机理,使得⺠法、刑法上的原有因果关系与实际相割裂。笔
者认为,⽣成式⼈⼯智能的责任能⼒需要与其在具体⾏为时的受控制程度紧密联系在⼀起进⾏综合考量,⽆论是⺠事责任
还是刑事责任,均需要考虑⽣成式⼈⼯智能在决策时的底层逻辑以及⼈机复杂互动以后的因果关系重构。可以从结构化的
维度分析⽣成式⼈⼯智能致损时的状态与原因:⼀是若责任后果完全是由⽣成式⼈⼯智能⾃身运算混乱或设计逻辑引起的
,则由⽣成式⼈⼯智能⾃身承担限制的责任能⼒后,由⽣成式⼈⼯智能的研发者与控制者承担补充责任,⽣成式⼈⼯智能
的研发者与控制者需要提供完整的研发合规⽂件,否则承担严格责任。⼆是若责任后果是由操作者⾃身操作⽣成式⼈⼯智
能引致的,在可以证明操作者身份的前提下,由⽣成式⼈⼯智能的操作者承担主要责任,若⽆法查明操作者身份且⽣成式
⼈⼯智能的控制者可以提供⼈⼯智能可控的相关证明,则由⽣成式⼈⼯智能⾃身承担限制责任。例如,由其从著作权收益
或投资者建⽴的强制责任基⾦中,抽取部分货币补偿受害⽅,研发者与控制者承担过错责任。三是若责任后果完全⽆法证
明由何种原因引起,则由⽣成式⼈⼯智能的研发者、控制者及其⾃身分别承担相应⽐例的责任,这同时需要建构更为精准
与庞⼤的相应配套机制以确定具体的归因准则以及赔偿范围、责任限制等体系。四是若责任后果由监管疏忽或渎职造成,
则由监管者承担过错责任,由⽣成式⼈⼯智能⾃身承担补充责任。⽆论是何种归责类型,总体均需要适⽤“穿透⼈⼯智能

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…3a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 8 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

⾯纱”的原则确定归责路径,在查证因果关系的基础上,考察确定⽣成式⼈⼯智能责任背后的实际责任主体。
在明确归责原则以后,需要构建⽣成式⼈⼯智能责任的链式分配机制以具体完善责任的承担机制。[82]例如,就⽣成
式⼈⼯智能的能⼒与使⽤范围⽽⾔,任何单⼀的主体国家或职能部⻔,均⽆法应对其带来的责任⻛险,需要通过责任分担
的链式机制以确定⽣成式⼈⼯智能侵权或犯罪后的责任分配。就⽣成式⼈⼯智能⽽⾔,需要从研发者、控制者、操作者、
监管者、⼈⼯智能本身的维度,共同构建权责匹配的责任分担机制。在确保“罪责⾏⼀致”“权利与义务标准相当”等传统价
值观下,结合数字社会发展的新形态,延伸⽣成式⼈⼯智能的责任链条,以确保单⼀主体的责任负担不⾄于过重,从⽽减
少对于⽣成式⼈⼯智能投资与利⽤的期许,形成法律规制的负外部性。在链式分配机制下,研发者应当留存相应的模型与
研发数据,证明其算法逻辑受控且不存在侵权的故意,否则应承担相应的法律责任。再如,在控制者责任上,应当证明其
适⽤⽣成式⼈⼯智能不存在主观上的价值歧视与颠覆国家政权、传播有害信息的故意,在其证明⽣成式⼈⼯智能的运⾏与
适⽤基本合规的情况下,可以免责。另如,操作者对于利⽤ChatGPT等⽣成式⼈⼯智能应尽到相应的注意义务与合规义
务,若通过故意诱导等⽅式传播谣⾔、窃取隐私,则应由操作者承担严格的法律责任。最后,需要强化⽣成式⼈⼯智能对
于⼈⼯智能⾃身治理的责任能⼒,逐步实现从治理“受体”向“主体”的部分转化,提⾼技术⽔平与注意义务的相称程度。通
过内容识别、版权控制、数字⽔印标注等⾏为⽅式,实现对于输出内容的管控与伦理审查,极端强化“通知+必要条款”等
措施的重要性,尽最⼤可能减少数据滥⽤与隐私侵权的⻛险。在明确⽣成式⼈⼯智能的责任能⼒限度与归责原则后,需要
进⼀步深⼊研究明晰⽣成式⼈⼯智能研发者、持有者、操作者、监管者等不同利益主体在具体⻛险中的利益关系与配套架
构,更加系统、准确地厘定在何种程度、事项或范围内由⽣成式⼈⼯智能承担何种责任。
(三)建构完整的配套规则体系
法教义学的理想⽬标是参照近代科学原理建⽴公理体系,使得法律规范具有森严的效⼒等级,从实践出发,逐步解决
实践问题特别是具有系统性、全局性⻛险的问题,通过化约社会的复杂性,为社会成员提供明确的⾏动预期,保障社会运
转的秩序性与确定性。[83]法律的⽣命不在于逻辑,⽽在于经验。应根据社会存在的变化逐步动态更新以助推⽣产⼒⽔平
的提升。影响法律发 作⽤的因素,除了传统⽂化观念、政治⾏为⽅式以及程序设计的漏洞之外,特别值得注意的是更具
普遍性的外部条件变化。[84]⽣成式⼈⼯智能的治理难题,在明确其特殊法律地位,确定其可以承担限制性的责任能⼒后
,应进⼀步建构丰富具体的规制体系。[85]
⼀是根据⽣成式⼈⼯智能的底层逻辑,建⽴覆盖研发运⾏全程的⻛险监管机制。传统的监管⽅式如产品许可、侵权责
任制度,⽆法全⾯地适⽤于⽣成式⼈⼯智能的监管。对于⾼⻛险⼈⼯智能,欧盟倾向于严格责任,将隐私保护等⼈⼯智能
伦理价值原则作为优先价值进⾏严格监管,⽽美国则倾向于⾃由经营,强调审慎监管以促进⼈⼯智能的技术创新与发展。
[86]笔者认为,必须采取新的监管机制以规制⼈⼯智能带来的责任⻛险,通过建⽴完善的法律法规和⾏业标准,明确⽣成
式⼈⼯智能的责任主体、权利义务和违法处罚措施。例如,验证研发者优化⽣成式⼈⼯智能模型的设计和训练⽅法,提⾼
其准确度、稳定性;强调控制者应动态检测⽣成式⼈⼯智能模型的解释性和可验证性⽅法,增强其可信度和可控性;督促
监管者开展⽣成式⼈⼯智能模型的测试和评估⼯作,检测并消除其可能存在的偏差或错误,不断加强对⽣成式⼈⼯智能的
审查和监督,防⽌其被⽤于⾮法或不道德的⽬的。通过全链条监管与链式责任分配机制的契合,形成明确的数字空间⾏为
准则,建⽴可预期的⻛险责任制度。
⼆是明确⽣成式⼈⼯智能的透明度责任。由于⽣成式⼈⼯智能需要规模化利⽤全域数据,通过深化规则的制定与应⽤
确保其透明度责任就尤为重要。⾸先是⽣成式⼈⼯智能的研发者应准确了解该系统的性能与缺陷,向⽤户完整陈述其使⽤
可能引致的不利影响。对使⽤的数据进⾏事先评估,了解其训练模型、使⽤样本的合法来源,对其使⽤与⽣成的数据负有
严格的保密与管理义务。其次是⽣成式⼈⼯智能的控制者应当明确其应⽤过程与输出逻辑的全程可追溯,提⾼原⽣与次⽣
数据信息的透明度,采取措施尽最⼤可能避免数据规模化应⽤对个体可能造成的侵权⻛险。再次是根据实践的发展,⽣成
式⼈⼯智能的控制者的⾏为义务应予以扩⼤,例如要求其为⽣成的图⽚、⾳像作品等内容⾃动⽣成不可篡改的底层区块链
数字⽔印,确保⽣成物的来源、⽬的与作⽤符合伦理要求,并在产⽣责任⻛险时可以提供排除责任的合规记录。再如推⾏
强制性算法规则,除⾮操作者明确同意,不得主动识别其身体、⾯容和声⾳数据,并强制不得⽤于其他场景使⽤或交互。
另如,不得为了确定算法推荐的内容匹配度并提升准确性,⽽主动监测操作者浏览过程中瞳孔⼤⼩等⽣理变化。最后是监
管者在保护创新的基础上,⿎励算法与接⼝开源。但这种开源并⾮强制,需要特别注意对于科技初创企业与个⼈开发者的
利益保护。
三是治理原则实现从可解释算法向可控制算法的改变。现⾏对于算法的要求基本按照欧盟《⼈⼯智能法案》的路径,
明确算法应当被解释。但⽣成式⼈⼯智能改变了传统⼈⼯智能的运⾏机制并⼤幅提升了其深度学习的能⼒,在具备了⾃我
意识之后,其建构的算法逻辑很可能输出算法编写者与控制者⽆法解释的内容。若⽣成式⼈⼯智能的研发者也⽆从解释其
研发系统造成的责任损失,在此情形下如何确定因果关系与责任能⼒?如果对不可解释的算法责任主体课以过重的义务,
⼈⼯智能领域的技术创新将会受到严重打击。笔者建议,将⽣成式⼈⼯智能的治理逻辑,由可解释算法逐步过渡为可控制

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…3a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 9 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

算法,注重⽣成式⼈⼯智能的鲁棒性,即⼈⼯智能发 作⽤的稳定性。[87]如果⽣成式⼈⼯智能的责任主体满⾜了可控算
法的合规性义务,就可以按照链式责任分担机制确定的⽅法明确责任关系、确定责任能⼒,在保护创新的前提下⿎励技术
的发展。这种可控性来源于⼀系列的义务要求,例如,违法违规⾏为侦测的强制报告制度、输出内容的合规审查制度、以
⼈为本的伦理判断制度等。对于具有系统性功能的算法,应当明确限制算法技术出⼝的类型与清单。通过加强⼈⼯智能系
统设计的安全性、稳定性和合规性,确保⽣成式⼈⼯智能始终受到⼈类的有效控制。[88]
余论——谁来为⼈⼯智能发展负责?
⼈⼯智能作为最新的科学技术成果,极⼤促进了经济社会发展,同时也存在拉⼤贫富差距、加剧社会不公以及扩⼤失
业现象的⻛险,发 制度优势、降低科技异化的⻛险,将成为我国⼈⼯智能治理的关键之策。[89]笔者在2017年曾撰⽂提
出,现⾏法律规制对于⼈⼯智能权利、侵权责任主体等关键问题上的缺位,使得⼈⼯智能的发展缺乏法律价值的引领,⼈
⼯智能的短期影响取决于谁控制⼈⼯智能,⽽⻓期影响则取决于⼈⼯智能到底能否受到控制,⼈⼯智能的运⽤与发展需要
法律⼈格的明确。[90]以ChatGPT为代表的⽣成式⼈⼯智能的问世,标志着⼈⼯智能技术的发展阶段逐步进⼊强⼈⼯智能
时代。各国针对⼈⼯智能技术的治理均提出了相似的政策,提出发展“负责任的⼈⼯智能”。但是,究竟谁应为⼈⼯智能的
发展负责?如何为⼈⼯智能的发展负责?⼈⼯智能能否为⾃⼰的发展负责?学界与实务界均未给出确定性的答案,形成⽬
前⽣成式⼈⼯智能带来的⻛险⽆法以现⾏法律体系规制的治理困境。2022年10⽉,外交部发布了《中国关于加强⼈⼯智
能伦理治理的⽴场⽂件》,指出⼈⼯智能在给⼈类社会带来潜在巨⼤发展红利的同时,其不确定性可能带来许多全球性挑
战,应坚持伦理先⾏,建⽴并完善⼈⼯智能伦理准则、规范及问责机制,明确⼈⼯智能相关主体的职责和权利边界。⽣成
式⼈⼯智能已经具备了类⼈类⾃主意志特征,⼜具备了⼀定的⾏为能⼒,鉴于客观实际与拟制法⼈对⼈类社会发展所取得
的巨⼤作⽤,可以考虑赋予⽣成式⼈⼯智能以特定的法律地位,给予其特殊的责任能⼒,通过⼀系列配套措施与机制的完
善,最终实现⼈⼯智能发展的可信向善,发展“负责任的⼈⼯智能”。

【注释】
*上海⼤学法学院副研究员、法学博⼠后,最⾼⼈⺠检察院法治前海研究基地、南⽅海洋科学与⼯程⼴东省实验室
(珠海)兼职研究员。
本⽂系国家社科基⾦后期资助项⽬“⼈⼯智能的法律⼈格与未来发展研究”(项⽬批准号:22FFXB026)的阶段性
研究成果。
[1]参⻅《⻢克思恩格斯选集》(第3卷),⼈⺠出版社2012年版,第866⻚。
[2]参⻅毕亚琴、戴兆国:《AI时代⼈类命运的伦理忧思——以〈⼈类还有未来吗〉为中⼼的考察》,载《江汉论
坛》2023年第2期。
[3]Gates, The Age of AI has be gun-Artificial intelligence is as Revolutionary as Mobile Phones and the Internet,
Gates Notes (March 21, 2023), https://www.gatesnotes.com/The-Age-of-AI-Has-Begun.
[4]参⻅袁曾:《⼈⼯智能有限法律⼈格审视》,载《东⽅法学》2017年第5期。
[5]参⻅申卫星、刘云:《法学研究新范式:计算法学的内涵、范畴与⽅法》,载《法学研究》2020年第3期。
[6]T. Eloundou, S. Manning, et al, GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large L
anguage Models, arXiv (March 27, 2023), https://doi-org.easyaccess1.lib.cuhk.edu.hk/10.48550/arXiv.2303.10130.
[7]参⻅韩⼤元:《当代科技发展的宪法界限》,载《法治现代化研究》2018年第5期。
[8]我国著作权法第3条规定,作品是指⽂学、艺术和科学领域内具有独创性并能以⼀定形式表现的智⼒成果。
[9]参⻅冯晓⻘、潘柏华:《⼈⼯智能“创作”认定及其财产权益保护研究——兼评“⾸例⼈⼯智能⽣成内容著作权侵
权案”》,载《⻄北⼤学学报(哲学社会科学版)》2020年第2期。
[10]参⻅吴汉东:《⼈⼯智能⽣成作品的著作权法之问》,载《中外法学》2020年第3期。
[11]参⻅李扬、李晓宇:《康德哲学视点下⼈⼯智能⽣成物的著作权问题探讨》,载《法学杂志》2018年第9期。
[12]参⻅於兴中、郑⼽、丁晓东:《“⽣成性⼈⼯智能”与法律:以ChatGPT为例》,载《中国法律评论》2023年第
2期。
[13]参⻅吴⾼、⻩晓斌:《⼈⼯智能时代⽂本与数据挖掘合理使⽤规则设计研究》,载《图书情报⼯作》2021年
第22期。
[14]例如,欧盟数据库保护指令(The European Union. Directive 96/9/EC of the European Parliament and of the
Council of 11 March 1996 on the legal protection of databases)第7条规定了数据库制作者的禁⽌抽取权,挖掘数据
库存在著作权⻛险。

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 10 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

[15]参⻅⾼铭暄、孙道萃:《总体国家安全观下的中国刑法之路》,载《东南⼤学学报(哲学社会科学版)》202
1年第2期。
[16]参⻅邓建鹏、朱怿成:《ChatGPT模型的法律⻛险及应对之策》,载《新疆师范⼤学学报(哲学社会科学版)
》2023年第5期。
[17]对于⼈⼯智能的制裁措施将与传统社会形态下的惩戒措施相去深远。例如,元宇宙的主要惩罚⽅式是把违规者
排除在数字社交圈之外,特别是永久封号对游戏玩家⽽⾔构成极其严厉的负⾯制裁。参⻅季卫东:《元宇宙的互动关
系与法律》,载《东⽅法学》2022年第4期。
[18]C. O. Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Cro
wn Publishing Group, 2016, p.3.
[19]参⻅刘艳红:《⼈⼯智能法学的“时代三问”》,载《东⽅法学》2021年第5期。
[20]参⻅徐冬根:《⼆元共治视⻆下代码之治的正当性与合法性分析》,载《东⽅法学》2023年第1期。
[21]Paul Scharre, Four Battlegrounds: Power in the Age of Artificial Intelligence, W. W. Norton & Company Press
, 2023, p.3.
[22]参⻅周汉华:《论平台经济反垄断与监管的⼆元分治》,载《中国法学》2023年第1期。
[23]参⻅[德]安德⾥亚斯·苏德曼:《论⼈⼯智能的媒介政治维度》,姜娜译,载《上海师范⼤学学报(哲学社会科
学版)》2022年第4期。
[24]参⻅杨嘉帆、刘彦林、李慧杰等:《⾯向统⼀⼤市场的⼈⼯智能伦理标准——⼀种⻢克思主义政治经济学的理
论模型》,载《科学学研究》, https://doi-org.easyaccess1.lib.cuhk.edu.hk/10.16192/j.cnki.l003-2053.20230120.001
.
[25]参⻅周亭:《⽣成式⼈⼯智能的国际传播能⼒及潜在治理⻛险》,载《对外传播》, http://www.cuc.edu.cn/2
023/0223/cl383a202308/page.htm。
[26]可能违反刑法第291条“编造、故意传播虚假恐怖信息罪”、第364条“传播淫秽物品罪、组织播放淫秽⾳像制品
罪”,治安管理处罚法第25条“散布谣⾔”等法律法规。
[27]参⻅傅莹:《⼈⼯智能与国际安全治理路径探讨》,载《⼈⺠论坛》2020年第36期。
[28]参⻅周汉华:《论平台经济反垄断与监管的⼆元分治》,载《中国法学》2023年第1期。
[29]See Natali Helberger& Nicholas Diakopoulos, ChatGPT and the AI Act, Internet Policy Review, VoL12:1, p.4(
2023).
[30]参⻅赵精武:《“元宇宙”安全⻛险的法律规制路径:从假想式规制到过程⻛险预防》,载《上海⼤学学报(社
会科学版)》2022年第5期。
[31]欧盟⼈⼯智能法案第4b条规定了通⽤⼈⼯智能系统的法律义务,其第1款规定,可能被作为⾼⻛险⼈⼯智能系
统,或者作为⾼⻛险⼈⼯智能系统⼀部分⽽使⽤的通⽤⼈⼯智能系统……需遵守本法规标题三中第⼆章的规定。
[32]参⻅胡铭:《论数字时代的积极主义法律监督观》,载《中国法学》2023年第1期。
[33]参⻅曾雄、梁正、张辉:《欧盟⼈⼯智能的规制路径及其对我国的启示——以〈⼈⼯智能法案〉为分析对象》
,载《电⼦政务》2022年第9期。
[34]参⻅董荣胜:《计算思维与计算机导论》,载《计算机科学》2009年第4期。
[35]参⻅[美]佩德罗·多明⼽斯:《终极算法机器学习和⼈⼯智能如何重塑世界》,⻩芳萍译,中信出版集团2017年
版,第58⻚。
[36]参⻅李晶:《运⽤“监管沙盒”促进区块链权⼒与权利的平衡——以数字货币为研究的逻辑起点》,载《上海政
法学院学报(法治论丛)》2020年第1期。
[37]参⻅丛⽴先、李泳霖:《聊天机器⼈⽣成内容的版权⻛险及其治理——以ChatGPT的应⽤场景为视⻆》,载《
中国出版》2023年第5期。
[38]参⻅王亚琪:《⻛险社会视域下全球治理的不确定性探析》,载《东北亚论坛》2022年第3期。
[39]参⻅《⻢克思恩格斯选集》(第3卷),⼈⺠出版社2012年版,第783⻚。
[40]参⻅张⽂显:《论中国式法治现代化新道路》,载《中国法学》2022年第1期。
[41]参⻅朱荣⽣、陈琪:《美国对华⼈⼯智能政策:权⼒博弈还是安全驱动》,载《和平与发展》2022年第6期。
[42]参⻅[德]⿊格尔:《法哲学导论》,范扬、张启泰译,商务印书馆1996年版,第103⻚。
[43]参⻅彭诚信、陈吉栋:《论⼈⼯智能体法律⼈格的考量要素》,载《当代法学》2019年第2期。
[44]参⻅周靖:《论意识条件和主体条件的区分——对⼈⼯智能体道德身份论题的⼀个澄清》,载《上海交通⼤学

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 11 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

学报(哲学社会科学版)》2023年第2期。
[45]参⻅彭聃龄:《普通⼼理学》(第五版),北京师范⼤学出版社2018年版,第26⻚。
[46]参⻅胡凌:《互联⽹的开放与封闭及其法律回应》,载《交⼤法学》2022年第2期。
[47]参⻅李中原:《康德的伦理哲学与近代⺠法上的个⼈主义》,载《公⺠与法》2010年第6期。
[48]Jonathan H. Choi, Kristin E. Hickman, Amy Monahan and Daniel B. Schwarcz, ChatGPT Goes to Law Schoo
l, Minnesota Legal Studies Research Paper No.23-03, http://dx.doi.org.easyaccess1.lib.cuhk.edu.hk/10.2139/ssm.43
35905.
[49]参⻅[德]卡尔·拉伦茨:《法学⽅法论》(第6版),⻩家镇译,商务印书馆2020年版,第277⻚。
[50]参⻅徐冬根:《⼆元共治视⻆下代码之治的正当性与合法性分析》,载《东⽅法学》2023年第1期。
[51]参⻅申卫星、刘云:《法学研究新范式:计算法学的内涵、范畴与⽅法》,载《法学研究》2020年第3期。
[52]参⻅苏玺鉴、胡安俊:《⼈⼯智能的产业与区域渗透:态势、动⼒、模式与挑战》,载《经济学家》2023年
第2期。
[53]参⻅⻢⻓⼭:《数字时代的法学教育转型》,载《上海政法学院学报(法治论丛)》2023年第1期。
[54]第七次全国⼈⼝普查数据显示,中国60岁及以上⼈⼝的⽐重达到18.70%,其中65岁及以上⼈⼝⽐重达到13.50
%。
[55]See Joshua Fairfield, NilouferSelvadurai, Governing the Interface Between Natural and Formed Language in
Smart Contracts, UCLA Journal of Law & Technology, Vol.27:2, p.79(2022).
[56]Moore v. Publicis Groupe SA, 2012 WL 1446534(S. D. N. Y. Apr.26, 2012).
[57]参⻅刘艳红:《⼈⼯智能的可解释性与AI的法律责任问题研究》,载《法制与社会发展》2022年第1期。
[58]State Farm Mutual Automobile Insurance Company v. Bockhorst, 453 F.2d 533(10th Cir.1972).
[59]David Marc Rothenberg, Can Siri 10.0 Buy Your home? The Legal And Policy Based Implications of Artificial
Intelligent Robots Owning Real Property, Washington Journal of Law, Technology & Arts, Vol.11:5, p.452(2016).
[60]参⻅[德]尼采:《偶像的⻩昏——或怎样⽤锤⼦从事哲学》,李超杰译,商务印书馆2009年版,第39⻚。
[61]参⻅季卫东:《计算法学的疆域》,载《社会科学辑刊》2021年第3期。
[62]参⻅王以梁、秦雷雷:《技术设计伦理实践的内在路径探析》,载《道德与⽂明》2016年第4期。
[63]参⻅尹志强:《⼈⼯智能何以为“⼈”——⼈⼯智能时代之⺠法因应》,载《社会科学研究》2023年第1期。
[64]参⻅[德]卡尔·拉伦茨:《德国⺠法通论》(上册),王晓晔等译,法律出版社2013年版,第46—47⻚。
[65]参⻅许中缘:《论智能机器⼈的⼯具性⼈格》,载《法学评论》2018年第5期。
[66]Brunsson N, Jacobsson B. A, World of Standards, Oxford University Press, 2002, pp.12-14.
[67]《标准化⼯作指南GBb 20000.1-2014》第1部分标准化和相关活动中提出,标准是以科学、技术和经验的综合
成果作为基础,通过制定、发布和实施某种标准,能够在⼀定范围内达到统⼀的技术研发和应⽤,获得最佳秩序和共
同效益。
[68]See Eric D. Beinhocker, The Origin of Wealth: Evolution, Complexity, and the Radical Remaking of Economic
s, Harvard Business School Press, 2006, p.296.
[69]参⻅尹志强:《⼈⼯智能何以为“⼈”⼀⼈⼯智能时代之⺠法因应》,载《社会科学研究》2023年第1期。
[70]参⻅[以]尤瓦尔·赫拉利:《未来简史——从智⼈到神⼈》,林俊宏译,中信出版集团2017年版,第96⻚。
[71]参⻅张建⽂:《格⾥申法案的贡献与局限——俄罗斯⾸部机器⼈法草案述评》,载《华东政法⼤学学报》201
8年第2期。
[72]参⻅孙笛:《⼈⼯智能体刑事主体资格否定论》,载《政法论丛》2022年第3期。
[73]参⻅[德]汉斯·哈腾鲍尔:《⺠法上的⼈》,孙宪忠译,载《环球法律评论》2001年第4期。
[74]参⻅时⽅:《⼈⼯智能刑事主体地位之否定》,载《法律科学》2018年第6期。
[75]参⻅郑⽂⾰:《⼈⼯智能法律主体构建的责任路径》,载《中国应⽤法学》2022年第5期。
[76]习近平:《加强领导做好规划明确任务夯实基础推动我国新⼀代⼈⼯智能健康发展》,载《⼈⺠⽇报》2018
年11⽉1⽇,第1版。
[77]参⻅张凌寒:《深度合成治理的逻辑更新与体系迭代——ChatGPT等⽣成型⼈⼯智能治理的中国路径》,载《
法律科学》2023年第3期。
[78]参⻅许中缘:《论智能机器⼈的⼯具性⼈格》,载《法学评论》2018年第5期。
[79]参⻅聂⻓建:《刑事责任年龄的三层级差结构研究》,载《政法论丛》2022年第4期。

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 12 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

[80]参⻅袁曾:《⼈⼯智能有限法律⼈格审视》,载《东⽅法学》2017年第5期。
[81]参⻅钟晓雯:《算法推荐⽹络服务提供者的权⼒异化及法律规制》,载《中国海商法研究》2022第4期。
[82]参⻅袁曾:《⽆⼈驾驶汽⻋侵权责任的链式分配机制——以算法应⽤为切⼊点》,载《东⽅法学》2019年第5
期。
[83]参⻅季卫东:《法律与概率——不确定的世界与决策⻛险》,载《地⽅⽴法研究》2021年第1期。
[84]参⻅季卫东:《探讨数字时代法律程序的意义——聚焦⻛险防控⾏政的算法独裁与程序公正》,载《中国政法
⼤学学报》2023年第1期。
[85]参⻅⾦叶⼦:《中办国办发⽂加强科技伦理⽴法研究压实管理主体责任》,载《第⼀财经⽇报》2022年3⽉22
⽇,第A02版。
[86]参⻅陈慧慧:《⽐较视⻆看CCPA的⽴法导向和借鉴意义》,载《信息安全与通信保密》2019年第12期。
[87]参⻅袁曾、张执南:《数字社会下的法律⼯程思维建构与适⽤》,载《⻄南⺠族⼤学学报(⼈⽂社会科学版)
》2022年第12期。
[88]Matthijs M. Maas, How Viable Is International Arms Control for Military Artificial Intelligence? Three Lessons f
rom Nuclear Weapons, Contemporary Security Policy, Vol.40:3, p.287(2019).
[89]参⻅刘海军、王⽟华:《⻢克思恩格斯科技发展观对⼈⼯智能发展的启示》,载《理论学刊》2023年第1期。
[90]参⻅袁曾:《⼈⼯智能有限法律⼈格审视》,载《东⽅法学》2017年第5期。

复制全⽂ 复制链接 下载PDF 下载WORD 转发到邮箱 打印

最新推出法宝智能订阅功能,新法新案邮箱⻅!

⽬录欢迎您或所在机构根据需要采购相应完整内容的使⽤权限,如需了解北⼤法宝系列产品和服务,请联系咨询北⼤法宝产品顾问!
查找: 虚假信息 命中:1/ 1次 智能引注 复制全⽂

标亮 聚焦命中 法宝之窗 右侧法宝联想 转发 打印 分享 字号 背景


正式引⽤法律法规条⽂时请与《⽴法法》所规定的标准⽂本核对。

北⼤法宝1985年创始于北京⼤学法学院,持续引领法治信息化,多年稳固⾼质提供法律法规、司法案例、
学术期刊、法律翻译、检察⽂书、⾏政处罚⽂书等全类型法律检索,普遍为法律各界提供知识服务。创建
智慧法务、智慧⽴法、法治政府、智慧法院、智慧检务、智慧学术、智能问答、⼤数据分析、法律⼈⼯智
能等各类智慧法治解决⽅案和平台建设运营,竭诚服务法治中国。
爱法律 有未来!
微信扫码阅读

法宝产品资讯

法宝APP,让法律内容触⼿可及

检索订阅改版:⾼级检索+法宝订阅2.0的贴⼼组合

全程回顾 | ⾸届“⼤数据与法律检索”暑期学校

新⼀代企业智能法治平台:法治导航 智慧赋能 塑造健康企业

合规强化年,智慧法务⽉:要合规先⽴规,某⼤型央企智能⽴规实践

4.23世界读书⽇,北⼤法宝书城隆重上线,和法律⼈⼀起终身学习!

“北⼤法宝”系列产品全⾯助⼒法治政府建设

北⼤法宝智能起草辅助平台试⽤邀请 | 附全国⼈⼤常委会2021⽴法计划

北⼤法宝·法学期刊库重磅升级!

⼀⽂速览北⼤法宝“智慧法院”产品矩阵

关于法宝 联系我们 关注我们

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 13 of 14
⽣成式⼈⼯智能的责任能⼒研究-北⼤法宝V6官⽹ 1/6/2023, 16:07

使⽤指南 购买指南 法宝视点 关于英华  法宝微信

合作伙伴 法宝资讯 法律声明 隐私政策  法宝微博


$ 400-810-8266
 法宝⼩程序
info@chinalawinfo.com
法宝客服

版权所有:北京北⼤英华科技有限公司 京ICP证010230-17 新出发京批字第直200344号 新出发京零字第海200377号 友情链接: 联合信任时间戳服务中⼼

https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/bb2…a028ff1065de66db0d345bdfb.html?keyword=虚假信息%20&way=listView Page 14 of 14

You might also like