Professional Documents
Culture Documents
深度合成治理的逻辑更新与体系迭代 ChatGPT等生成型人工智能治理的中国路径 北大法宝V6官网
深度合成治理的逻辑更新与体系迭代 ChatGPT等生成型人工智能治理的中国路径 北大法宝V6官网
深度合成治理的逻辑更新与体系迭代——ChatGPT等⽣成型⼈⼯智能治理的中国路径 法宝联想
张凌寒 相似⽂献
中国政法⼤学数据法治研究院
【法宝引证码】CLI.A.1343254
⼈⼯智能算法歧视刑法规制路
⽣成式⼈⼯智能与平台权⼒的
期刊名称: 《法律科学》
核⼼期刊 具身伦理下ChatGPT的法律规
作者单位: 中国政法⼤学数据法治研究院
Web3.0时代 构竞争法治的
英⽂关键词: deep synthetic generative artificial intelligence ChatGPT fating and classification standard technology ⽹络安全审查办法(2021)
governance
中华⼈⺠共和国个⼈信息保护
中华⼈⺠共和国数据安全法
⼀、引⾔ 中华⼈⺠共和国⺠法典
深度合成技术和应⽤的迅猛发展似乎更加证明了“未来已来”。从可以做出换脸视频的Deepfake开源软件,到2021年
⽹络信息内容⽣态治理规定
美国Meta公司将“元宇宙”描绘为数字技术构建、数字身份参与的虚拟空间,再到美国Open AI公司开发的ChatGPT两个⽉
更多
内积累⼀亿⽤户创造历史记录,[1]深度合成技术⽀持下的AIGC(AI Generated Content,指利⽤⼈⼯智能技术来⽣成内
容)商业开发在很多领域落地,⼀幅由⼈⼯智能深度合成技术构建的虚实结合的⽣存图景正徐徐展开。⼀切仿佛科幻,但 相关法规
却已经逐渐成为现实。
国务院关于印发新⼀代⼈⼯智
深度合成技术,是指利⽤以深度学习、虚拟现实为代表的⽣成合成制作⽂本、图像、⾳频、视频、虚拟场景等信息的
的通知
技术。深度合成技术的代表性研究成果,如2014年提出的⽣成对抗⽹络(GANs)、2020年提出的⽣成式预训练模型(G
国家互联⽹信息办公室、⽂化
PT -3),⼤幅提升了多媒体数据合成的逼真程度,推动了“⼈⼯智能⽣成内容”和“元宇宙”等⼀系列新型智能应⽤形态。[2] 国家⼴播电视总局关于印发《
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d7…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 1 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
肖像、企业名誉等⼈格和财产权益损害,甚⾄对社会秩序、国家政治稳定和安全造成巨⼤威胁。如在俄乌冲突中,深度合 中华⼈⺠共和国⺠法典
捏造视频篡改发⾔内容,造成市场恐慌,引发⾦融市场动荡。[5]个⼈也可能被伪造虚假视频并被⽤来向其亲友诈骗,或者 中华⼈⺠共和国个⼈信息保护
被伪造不雅视频,侵害其名誉权。在上述现实危害之外,深度合成还引发了社会对⼈类未来的担忧。在深度合成技术应⽤ 中华⼈⺠共和国个⼈信息保护
发展历程中,2021年Meta公司推出的元宇宙概念和2022年底OpenAI推出的ChatGPT激起了公众对于⼈类本质、认知模 ⽹络安全审查办法(2021)
式、⽣存⽅式和AI主体性的哲学思考,法学界则开始讨论深度合成技术构建的元宇宙空间的数字货币、数字身份、社会⽣
互联⽹信息服务算法推荐管理
产与刑法治理等问题。[6]
最⾼⼈⺠法院关于规范和加强
在世界各国对深度合成的技术治理中,我国⽴法与监管⾛在了前列。早在我国2022年3⽉开始实施的《互联⽹信息服 法应⽤的意⻅
务算法推荐管理规定》(以下简称《算法推荐管理规定》)中,就有对⽣成合成类算法监管的规定(其他四类被纳⼊管理 互联⽹信息服务深度合成管理
的算法为排序精选类、检索过滤类、个性化推送类、调度决策类);2023年1⽉1⽇开始实施的《互联⽹信息服务深度合
成管理规定》(以下简称《深度合成管理规定》),标志着深度合成因其 要性和⾼⻛险程度成为我国算法治理中率先专
本⽂引证关系
⻔⽴法的算法服务类型。⽬前,美国只有少数⼏个州发布了关于深度合成技术的法规,⽽且这些法规旨在规制影响选举的
深度合成以及⾊情作品或虚假信息的深度合成。[7]欧盟通过对《数字服务法》的修订,要求平台进⾏深度合成标注。[8] 引证⽂献
由此可⻅,世界范围内深度合成的治理聚焦的是虚假信息内容;即使是针对⼈⼯智能深度合成的专⻔治理,也以传统⼈⼯
著作权法如何应对Web3.0挑
智能为主,⽽⾮以⼤型⽣成性⼈⼯智能模型(LGAIMs)[9]为主要治理对象。
容为样本
深度合成技术有其特有的技术特征,因⽽针对其的治理也应当遵循其⾃身逻辑。本⽂论述围绕我国深度合成治理的监
⽣成式⼈⼯智能类案裁判的标
管理念和未来⾛向展开,讨论其治理迭代路径,监管⼯具、责任链条,以及分级分类和技术、产业、应⽤分层的多维治理 界
制度构建。
⽣成式⼈⼯智能的责任能⼒研
⼆、深度合成的概念与治理挑战
深度合成在我国法律法规中已经采⽤,具体代指⽣成合成类⼈⼯智能的技术概念。如《深度合成管理规定》第23条专 共引⽂献
⻔界定了“深度合成”概念。⽬前深度合成概念能够较好地囊括⽣成合成类⼈⼯智能的诸多新兴技术,准确描述其技术本质
元宇宙空间⾮法获取虚拟财产
和功能,且⽐宽泛的⼈⼯智能概念更具针对性。本部分结合深度合成技术的发展,梳理深度合成概念与⼈⼯智能、⽣成型
刑法分析
⼈⼯智能、ChatGPT、元宇宙等概念的关系,并讨论其作为学术研究通⽤概念的优势。深度合成的迅猛发展,不仅推进
元宇宙⾦融规制理论
了⼤数据、算法等技术的迭代发展,⽽且可能会影响未来⼈类的认知和⽣存⽅式。深度合成也给围绕数据、个⼈信息和算
“元宇宙”时代:科技⾰命与未
法规制的制度设计和技术治理带来了前所未有的挑战。
元宇宙⽣活场景中的利益识别
(⼀)深度合成的概念
元宇宙时代“智慧⽣态⼈”的法
实践中,庞杂的技术概念已经成为制约社会科学研究者理解、研究相关技术法律问题的瓶颈。如⼈⼯智能、算法、⼤
更多
数据、深度合成、⼤规模预训练模型、⽣成型⼈⼯智能等概念,令⼈眼花缭乱。⽽元宇宙、ChatGPT、⽣成型⼈⼯智能
等概念,也与“深度合成”等概念存在着近似和混淆。精准选定和界定概念是科学研究展开的前提。本⽂选择“深度合成”作
同被引⽂献
为研究的关键概念。
第⼀,深度合成是技术概念,⽽⾮商业应⽤概念。本⽂的讨论区分应⽤概念与技术概念。⼀般来说,应⽤概念更容易 数智治理的法治悖论
被媒体更⼴泛传播并为社会熟知,但技术概念的传播⼀般限于学术界。如感康、泰诺和康泰克这些感冒药的药品名被⼤众 理解技术规制的⼀般模式:以
例
熟知,但药品中的⼄酰氨基酚等拗⼝的药品成分概念,则难以被公众记忆。同样,淘宝、抖⾳、元宇宙、ChatGPT等应
⽹络存储空间服务提供者的注
⽤概念因其商业应⽤可直接与⼈互动⽽⼴为⼈知,但淘宝背后的排序算法、抖⾳背后的个性化推荐算法、⽀持元宇宙的⽣
成合成技术、⽀持ChatGPT的⼤规模预训练模型等概念则不易为⼀般公众所知。学术讨论应尽 使⽤技术概念⽽⾮应⽤ ⾳乐产业“全⾯数字化”与中国
年
概念,否则某些概念可能会因商业应⽤的衰落⽽沦落为短暂的社会讨论现象。
智能合约的法律性质分析
第⼆,深度合成并⾮⼈⼯智能概念那样抽象模糊,⽽是有明确功能的概念。⾃1956年“⼈⼯智能”的概念被⾸次提出以
更多
来,⼈⼯智能的技术研发经历了两次起伏。斯坦福的研究报告显示,“⼈⼯智能”的技术概念本身就是跟随技术进步⽽不断
⾰新的,每当⼀种新的模拟与延展⼈类智能的⼈⼯智能技术融⼊社会⽣活之中,它便会脱离“⼈⼯智能”的含义范围;然后
,会有全新的、尚未有明确道德规范的技术出现,并融⼊“⼈⼯智能”的含义范围内;这样,除旧纳新的变动过程随着技术
创新⽽持续发⽣,这种现象被称为“⼈⼯智能效益”(AI Effect)或“奇怪悖论”(Odd Paradox)。[10]简⽽⾔之,⼈们倾向
于把尚未形成产业应⽤的新兴技术称为⼈⼯智能,⽽对已经存在于⽣产、⽣活中的诸如⾃动驾驶、智能医疗、智能投顾等
⼈⼯智能技术,则称呼其具体名称。深度合成是⼈⼯智能的具体领域,它以⼈⼯智能深度学习为⽅法,合成逼真内容为⽬
标。因此本⽂不采⽤⼈⼯智能概念作为讨论对象,⽽采⽤可明确具体功能的深度合成概念。
第三,深度合成有较强的功能概括性,并⾮某种具体的新兴技术⼿段。⼈⼯智能发展到2010年,基于深度学习技术
获得了显著成效,同时社会的数字化转型也使得社会数据资源显著增⻓,⼈⼯智能的发展才开始进⼊全⾯爆发期。深度合
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 2 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
成的特点可从两个⻆度理解,第⼀为有关技术的“深度”,第⼆为有关结果的“合成”。“深度”即是指深度学习,⽆论是卷积神
经⽹络、⾃然语⾔处理,还是预训练⼤模型、⼤型⽣成性⼈⼯智能模型(LGAIMs),⽬前都处在深度学习阶段,即⽤算
法从海 数据中学习,以提⾼算法的智能性和准确性。算法已经越来越复杂,如果说常⽤算法在技术层⾯只是⼀个基础模
型,[11]那么以ChatGPT为代表的“⼤型语⾔模型”(LLMs)[12]或“⼤型⽣成⼈⼯智能模型”(LGAIMs),[13]则代表着深
度合成领域的 ⼤技术进步;后两者与前者的区别在于⼤型语⾔模型和⼤型⽣成⼈⼯智能模型通常⽤⼏⼗亿甚⾄⼏千亿的
参数进⾏训练,需要海 的训练数据和计算能⼒。“合成”即基于海 数据⽣成合并结果,可达到从⽆到有、以假乱真的效
果。逼真的合成效果打乱了⼈类认知的两个底层逻辑:其⼀是认为⼈和机器有着本质区别;其⼆是俗语所说“⽿听为虚,
眼⻅为实”“有图有真相”。深度合成以“真”为技术⽬标,如可⽐拟专家回答问题的ChatGPT就在⼀定程度上模糊了⼈和机器
智能的界限。深度合成技术完成的绘画、作曲和作诗⽔准与⼀般⼈完成的作品的⽔准不相上下;深度合成⽣成的照⽚、视
频,使得未发⽣的事情有了逼真的具体场景。可⻅,深度合成概念,能够较为准确地描述“深度”“合成”技术的功能。
第四,深度合成已经成为法律概念,具有了在法学界成为学术概念进⾏讨论的制度基础。如2023年1⽉1⽇⽣效的《
深度合成管理规定》由国家互联⽹信息办公室、⼯业和信息化部以及公安部共同发布,规定明确界定“深度合成技术,是
指利⽤深度学习、虚拟现实等⽣成合成类算法制作⽂本、图像、⾳频、视频、虚拟场景等⽹络信息的技术”;规定采取了
开放的列举⽅法,⼤致囊括了深度合成的前沿应⽤情形,如:⽣成或者编辑⽂本,⽣成或者编辑语⾳和⾳乐,图像和视频
的⽣成编辑(⽣物特征和⾮⽣物特征),甚⾄包括了三维 建、数字仿⽣等⽣成或者编辑数字任务、虚拟场景的技术。[1
4]按照《深度合成管理规定》的定义,AI语⾳、NFT⽣成艺术、虚拟演唱会、全息⼈像投影、虚拟⼈数字⼈、AR购物等元
宇宙的 要组成部分都属于深度合成技术的具体应⽤。这种功能式的列举可容纳未来的技术发展,包括⽬前的⽣成合成类
算法、⽣成型⼈⼯智能、AIGC(⼈⼯智能技术⽣成内容)应⽤等。虽然⽬前法规中列举的深度合成应⽤未必能够当然涵
盖预训练⼤模型技术,但由于预训练⼤模型技术同深度合成技术的功能和原理⼤致相通,因⽽我们可以通过法解释,将预
训练⼤模型技术纳⼊《深度合成管理规定》的调整范围。
(⼆)深度合成的应⽤场景
深度合成的应⽤场景多样,囊括了⽣成合成⽂本、图⽚、⾳频、视频等技术,也可以被⽤来营建数字环境虚拟场景(
如元宇宙),打造与物理世界、⼈类⽣物特征类似的数字孪⽣世界,⽣成数字⼈。深度合成技术基于海 数据和深度学习
“⽣成合成”内容,其内容的形态可以是图像、⾳频、视频、⽂本,因此深度合成技术可以被⽤来进⾏⼈脸与场景的图像改
变、声⾳和⾳乐的创制⽣成、动作与表情的操控,以及通过与⼈对答的⽅式⽣成⽂本,或直接⾃⾏创作⽂本,可以被⽤在
教育、影视、传媒等领域。根据⽣成的内容不同,深度合成⼀般被⽤于包括但不限于以下场景:
第⼀,⽂本与图像⽣成。早在2014年,就有从事机器新闻写作的⼈⼯智能,如美联社采⽤的⾃动写作平台Wordsmith
,其本质上是⼀种⾃然语⾔⽣成引擎,涉及数据库知识发现(KDD)以及⾃然语⾔处理(NLG)两个领域,其写作流程
包括获取数据,分析数据,提炼观点、结构和格式,出版。[15]这种⽂本⽣成可包括知识⽣成后以⽂本的形式输出。当下
引起⼈们⼴泛关注的ChatGPT也是⾃然语⾔处理(NLP)系统,但ChatGPT与之前技术的不同之处在于其采⽤了海 数
据训练的⼤规模⼈⼯智能模型。这些模型采⽤的数据 ⼤得惊⼈,如其前身GPT -3是在45兆字节的⽂本数据上训练的,
这使得其⽣成的⽂本更加具有创造性。更 要的是这些模型通常设置了随机元素,意味着它们可以以不同的输出应对同⼀
个输⼊请求,使得ChatGPT看起来更加栩栩如⽣。
第⼆,视频与⾳频⽣成。深度合成的语⾳合成项⽬可以使失去声⾳的⼈ 新说话,英特尔与戴尔科技、劳斯莱斯和运
动神经元疾病(MND)协会合作的“我永远是我”数字故事书项⽬,允许任何被诊断患有预计会影响其说话能⼒的疾病的⼈
录制他们的声⾳,以便未来在辅助性语⾳设备上使⽤。[16]这⼀功能还被⽤来伪造视频⾳频进⾏违法犯罪活动。2021年10
⽉,安徽合肥警⽅曾查获⼀起⾮法利⽤深度合成技术伪造⼿机⽤户⼈脸动态视频破解身份核验并为⿊灰产业提供注册虚拟
⼿机卡等技术⽀撑的案件。[17]近年来,类似事件开始更多地进⼊公众视 。深度合成中的⽣成型⼈⼯智能必将深⼊影响
所有的社会部⻔,从商业、医学到教育研究,从编码到娱乐和艺术。今天,数以百万计的⽤户依靠它们来⽣成可达到⼈类
⽔平的⽂本(如ChatGPT、Luminous)、图像(如Stable Diffusion、DALLE 2)、视频(如Synthesia)或⾳频(如Musi
cLM),⽽更多的替代品已经在开发中。[18]由于预训练⼈⼯智能⼤模型的规模效应,ChatGPT和类似软件能够预测⼀切
句⼦中的下⼀个词,从⽽展现出令⼈难以置信的连接词语的能⼒。 ChatGPT等⽣成型⼈⼯智能引起⼴泛关注的原因还在
于其更改了知识传递的⽅式,极⼤地降低了专业知识的获取⻔槛,使得专业知识⽣成不再需要⼈类数⼗年的专业训练就可
以得到。如创建⾃定义销售序列的Regie.ai使⽤⽣成式AI和最佳实践在⼏分钟内就可以编写原始序列,并且序列编写能⼤
幅度节约时间且⾼效;[19]该技术可直接与领先的销售参与平台集成,减少了将消息传递到市场并初显成效所需的时间。
第三,数字空间的建构。⼀是虚实融合的数字空间。数字孪⽣就是基于⼈⼯智能深度合成现实世界实体的虚拟复制品
,这项技术已经在制造业和⼯业部⻔被⼴泛采⽤。未来深度合成有可能与物联⽹共同设计改善智能城市的应⽤能⼒,即创
制与现实城市完全相同的数字空间,⽤于智能医疗、交通和环境管理。⼆是完全虚拟的数字空间。2021年脸书宣布更名
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 3 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
为“Meta”(元宇宙),紧接着Meta在2021年9⽉宣布旗下元宇宙平台Horizon Worlds正式⾯向美国与加拿⼤地区18岁以上
的成年⼈开放,该平台允许⽤户构建⾃⼰的虚拟世界,并提供了系列的模板和⼯具。
第四,数字⼈的⽣成与操控。虚拟数字⼈的合成须集成多项深度合成技术,以实现⼈物形象⽣成,语⾳⽣成,动画⽣
成,⾳视频合成显示和交互。这⼀技术是深度合成的拟⼈化应⽤,其商业落地路径较清晰。国内头部数字⼈企业已经推出
了冬奥⼿语数字⼈、央视数字主持⼈等应⽤。未来智能管家、伴侣、偶像、专家、教师的⽣成和运维均需要多个领域深度
合成的技术⽀持。
综上所述,深度合成的应⽤场景⼴泛并且可能会改变未来⼈类社会的⽣存⽅式:⼀⽅⾯⽣成型⼈⼯智能模糊了信息真
实和虚假的边界,深刻地改变了⼈类获取信息与知识的⽅式,另⼀⽅⾯深度合成技术将成为⽹络虚拟空间与现实物理世界
虚实结合、融为⼀体的关键应⽤技术,甚⾄改变⼈类未来的⽣产⽅式和⽣活⽅式。
(三)深度合成的治理挑战
深度合成的技术与应⽤,不仅不能化解算法治理⼀直致⼒解决的算法⿊箱、算法歧视等传统问题,⽽且由于其技术特
点,会给⼈类社会带来更多的治理挑战。
第⼀,深度合成改变了信息⽣成⽅式,模糊了虚实界限,极⼤地降低了专业知识与特定技能的获取⻔槛,使既往⽹络
安全治理的⾏政与技术资源难以为继,其滥⽤可能造成的⻛险范围更⼴泛、⻛险级别更⾼。与任何先进的机器学习系统⼀
样,深度合成技术会带来潜在的安全问题。(1)深度合成信息内容安全问题相较过去更为严峻。⽹络信息内容的⽣产经
历了此前Web1.0、Web2.0时代的PGC(专业⽣产内容)和UGC(⽤户⽣产内容),代表⼈⼯智能⽣成内容的AIGC是新
⼀轮内容⽣产⽅式变⾰,AIGC内容在Web3.0时代也将出现指数级增⻓。在此之前,虚假信息⽣产有限,国家通过源头管
理、账户账号管理、传播平台治理即可以控制有害信息传播。在深度合成技术应⽤于内容⽣产后,内容⽣产成本进⼀步降
低,⽣产主体难以追踪,信息内容真假难辨,⽣成类似⼈类⽂本的技术能⼒提⾼了冒充和盗窃身份案件的发⽣概率。传统
的新闻信息服务许可、⽤户账号管理和平台算法过滤、⼈⼯审核标注等⼿段,可能都会⾯临严 的治理挑战。(2)深度
合成会极⼤地降低专业知识与特定技能的获取⻔槛,显著扩⼤⽹络安全⻛险的范围,提⾼安全⻛险的等级。例如,代码的
编写和⽹络攻击本身具有专业⻔槛,⽹络安全攻击在⼤众眼中仍是专业技术。 ChatGPT类的⽣成型⼈⼯智能具备了⽆代
码编程能⼒,降低了攻击代码编写的技术⻔槛,可能会导致更多的⽹络安全攻击发⽣。未来,⿊客发动⽹络安全攻击将如
同顽童投掷⽯⼦⼀样容易,这也意味着 要数据、关键信息基础设施等可能⾯临着⽹络安全防范资源的严 不⾜的 ⼤挑
战。
第⼆,深度合成的发展对现有数据、算法、算⼒分⽽治之的治理体系提出了严峻挑战,⽹络安全、个⼈信息、数据保
护、数据跨境流动的制度都需要做出相应调整,⽽⽬前各国均缺乏针对⼈⼯智能的数据、算法、算⼒的综合治理体系。(
1)数据安全⽅⾯,深度合成的预训练⼤模型促进了合成数据产业的发展,深度合成技术可以模拟真实⽤户数据并规避⾼
昂的隐私合规成本。深度合成技术也有可能通过预训练⼤模型的强⼤推理能⼒学习找到真实数据。⽽针对合成数据的治理
各国⽬前尚⽆具体的规制性制度。(2)个⼈信息保护⽅⾯,深度合成的训练数据主要来源于互联⽹,其中可能包括个⼈
隐私数据,⽽此前GPT -2就发⽣过隐私泄露的问题。[20]⽤户⽣成合成内容需要上传照⽚、视频或与直接明⽂的对话。⽣
成合成类算法应⽤既往就产⽣过换脸换声的欺诈、⼈格权侵权、隐私泄露等案件。在新⼀代以ChatGPT为代表的⽣成合
成类应⽤中,⽤户对话的过程就是被收集信息的过程,尤其是⽤户在与机器对话的过程中更可能袒露隐私。这些个⼈信息
可被⽤于⽤户画像和训练模型,个⼈信息的收集、使⽤和传输都⾯临着安全挑战。(3)数据跨境安全⽅⾯,⽤户与⽣成
型⼈⼯智能模型的海 交互数据如果是跨境产⽣的,则会引发数据跨境安全问题。⽣成型⼈⼯智能需要海 算⼒,⽽⾯向
⼀国提供⽣成型⼈⼯智能的服务器可能位于世界各地,这与现有的数据本地化存储、保障本⼟数据安全的数据处理⽅案存
在冲突。
第三,深度合成会强化技术垄断和技术竞争,不仅使得数据共享共⽤愈加难以实现,⽽且会加深国家、地区、⼈群间
的数字鸿沟。(1)⾼企的算⼒与资源需求可能造成技术垄断。深度合成的发展对为其提供基础计算⼯具和环境的数据中
⼼算⼒以及服务器硬件设备提出了新的要求。⽣成型⼈⼯智能需要的算⼒投⼊过于巨⼤,以致⼩型开发者根本⽆法承受,
这将进⼀步造成技术的垄断和算⼒的集中。(2)数据资源的不公平分配使⽤进⼀步加深数字鸿沟。预训练⼤模型需要海
的数据,ChatGPT类的⽣成型⼤模型需要⼏乎整个互联⽹的数据进⾏训练。[21]这⼀⽅⾯意味着⼤ 的数据资源被免费
攫取,如主流媒体的⽂本数据,数⼗亿张受版权保护的图像被⽣成型⼈⼯智能公司下载⽤于训练模型;[22]另⼀⽅⾯,数
据资源的分布并不均衡,如英语语⾔产⽣的数据远多于其他语种产⽣的数据,⽽这些数据⽆法给预训练⼤模型提供机器学
习的⾜够养料,因⽽⼩语种的⽣成型⼈⼯智能输出质 相对较低。(3)⽣成类⼈⼯智能将成为新的流 ⼊⼝,基础模型
依赖互联⽹上公开的训练数据,持续训练需要不断与⽤户互动输⼊数据,国家、地区、语⾔的既有优势将被持续强化,地
区间数字鸿沟将进⼀步加⼤。
三、深度合成的治理逻辑与更新趋势
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 4 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
(⼀)调整对象:从算法服务到⼈⼯智能
尽管我国在深度合成的治理⽅⾯⾛在了世界前列,但⽬前的治理逻辑是将深度合成技术纳⼊⽣成合成类算法予以规制
,治理对象聚焦于深度合成服务。但在深度合成成为⼈⼯智能的 要领域,甚⾄逐渐⾛向通⽤⼈⼯智能的趋势下,仅将其
以算法信息服务之⼀作为调整对象难以适应该领域技术的应⽤发展。在当前我国的治理逻辑中深度合成主要被定位为算法
,聚焦信息安全。在我国制度语境中,深度合成服务是指利⽤⽣成合成类算法提供信息服务,属于我国《算法推荐管理规
定》中规定的⽣成合成类、排序精选类、检索过滤类、个性化推送类、调度决策类算法五类推荐服务中的⼀种。通过对近
年来我国颁布的法律法规的脉络进⾏梳理可知,深度合成的监管对象聚焦的是信息内容。如2020年的《⽹络⾳视频信息
服务管理规定》明确提出对基于深度学习、虚拟现实等技术,具有媒体属性或社会动员能⼒的⾳视频信息服务展开安全评
估,对⾮真实⾳视频信息进⾏标识;2020年《⽹络信息内容⽣态治理规定》要求不得利⽤深度学习、虚拟现实等新技术
新应⽤从事法律、⾏政法规禁⽌的活动;2021年开始实施的《⺠法典》⼈格权编明确规定,不论是否出于营利⽬的,均
不得利⽤信息技术⼿段伪造他⼈肖像、声⾳;2022年《算法推荐管理规定》明确要求不得⽣成合成虚假新闻信息。可⻅
,从算法服务治理⽣⻓出的深度合成治理法律,其主要聚焦于信息安全监管。
相⽐欧美国家,这⼀治理架构虽然已经在治理对象、治理链条和治理⼯具上有明显的制度引领和先发优势,但实践中
也难以充分应对⽣成型⼈⼯智能的迅猛发展产⽣的问题。因为深度合成的技术迭代已经使得其⽇渐超出了前述⽴法时所设
计的⽣成合成类算法框架所能调控的范围。⼀是我国算法治理的调整对象本身就有⼀定的局限性。如《算法推荐管理规定
》明确其调整的“应⽤算法推荐技术,是指利⽤⽣成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算
法技术向⽤户提供信息”。尽管规定使⽤了“算法推荐技术”⼀词,但实际上五种功能分类是从服务⻆度进⾏的划分。⽽检索
类与个性化推送类算法原理相同,但被归为不同的服务分类。可⻅,“算法推荐”⼀词的选⽤也和牵头起草部⻔国家⽹信办
以信息内容管理为主要职能有关。⼆是算法监管对象局限于提供互联⽹信息服务的算法,并不包括诸如公共部⻔使⽤的决
策类算法。⽬前的相关规章在空⽩领域搭建起了算法制度框架,但主要针对私主体的算法服务,其他涉及公⺠权益的公共
部⻔的算法⾃动化决策的相关治理任务,则是由《个⼈信息保护法》等法律法规承担,但规定较为原则。三是从⽴法本意
上来看,算法监管未必能够涵盖深度合成治理。我国近两年的⽴法中是如何设定深度合成与算法的关系的呢?⼀说认为我
国出台《深度合成管理规定》,是将深度合成作为算法服务种类中⾼⻛险、⾼敏感度的算法进⾏监管,因此率先单独⽴法
;另⼀说则认为,算法推荐与深度合成是并列关系。[23]在算法监管本身调整对象就有较⼤局限的情况下,深度合成作为
未来技术发展 要领域的⼈⼯智能技术和应⽤,难以被算法规范有效涵盖。
在深度合成迅速发展的背景下,仅以算法服务为对象、以信息安全为⽬的显然⽆法应对深度合成技术、产业、应⽤的
发展。与此同时,⼈⼯智能本身就被集成在众多的产品和服务之中,在法律规范中使⽤过于宽泛的⼈⼯智能定义必将给⼈
⼯智能开发者、部署者、产品⽣产者(集成者)等设计⾃动化功能的产品和服务带来巨⼤的合规成本,⽽使⽤清晰明确的
有关深度合成的定义则有利于增强监管的确定性。
(⼆)维度拓展:从平台问责到产业治理
我国《深度合成管理规定》已经将治理的触⻆向技术⽀持者和⽤户延伸,但平台问责仍然是深度合成治理的主要抓⼿
。《深度合成管理规定》第2条规定:“在中华⼈⺠共和国境内应⽤深度合成技术提供互联⽹信息服务(以下简称深度合成
服务),以及为深度合成服务提供技术⽀持的活动,适⽤本规定。”可⻅,《深度合成管理规定》的调整对象“深度合成”既
指深度合成服务,也指深度合成技术。在现有的深度合成治理框架中,我国将深度合成服务提供者作为治理的枢纽。⼀⽅
⾯,深度合成服务提供者应尽到⾃身的安全管理义务,如进⾏深度合成内容标识,建⽴鉴伪与辟谣机制,完成算法备案等
;另⼀⽅⾯,深度合成服务提供者要履⾏对上游技术⽀持者和下游服务使⽤者的管理责任,提示技术⽀持者和使⽤者承担
信息安全义务,对使⽤者输⼊数据和合成结果进⾏审核,并提示使⽤者应对深度合成做显著标识。如规章要求深度合成服
务提供者和技术⽀持者提供⼈脸、⼈声等⽣物识别信息编辑功能的,应当提示使⽤者(⽤户)并取得其单独同意。
深度合成的治理框架已经对上游的技术⽀持者提出了相关要求,虽具有⼀定创新性,但囿于部⻔职能,规定存在⼀定
局限。相对于牵头起草部⻔⽹信部⻔的信息内容监管职能,既有规定对技术⽀持者提出要求是新举措,因为深度合成的技
术⽀持者如何使⽤训练数据、如何设计算法机制机理、如何开发应⽤可搭载的模型模板⼯具,都会直接对深度合成服务的
功能应⽤结果产⽣影响。但如果站在数字社会⽣产的⻆度考 深度合成治理,则可发现,既有治理过于关注深度合成的内
容输出治理⽽相对忽略了其他⻆度的治理,因⽽影响了治理全局的功能。如深度合成中的预训练⼤模型以⼤ 的参数、训
练数据和计算进⾏操作,⽬前虽然没有达到接近通⽤⼈⼯智能的⽔平,但仍然⽐传统的深度学习更具通⽤性。[24]通⽤⼈
⼯智能类似于类脑智慧,其强⼤的学习能⼒和完备性可以通⽤于现今⼈⼯智能许多关联松散的⼦领域(如视觉、听觉、⽂
本等),其主导的⼈⼯智能第三次浪潮,可能进⼀步形成⼈⼯智能⼦领域之间共同的基础或框架。换句话说,深度合成中
的预训练⼤模型,可能被部署⽤来解决它们并未被专⻔训练过的任务,输出的多样性和任务⼴度也会远超⼀般模型。因此
,从纵向⻆度考虑,深度合成的治理应当在数字产业化和产业数字化的进程中进⼀步深化。
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 5 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
(三)体系构建:从多元分级到多维统筹
依据⻛险进⾏分类分级管理是技术治理中普遍采⽤的原则,有助于具体制度根据不同场景设置精细规则。⽬前我国的
技术治理体系中,就设⽴了数据、算法、主体、场景四⼤类分级分类的标准。但⽬前深度合成总体应如何做分级分类的定
位尚不明晰。⼀是算法分级分类中,尚⽆明确的具有可操作性的标准;⼆是我国四⼤类分级分类标准由不同部⻔依据职能
主导,职责互相交叉,边界不尽清晰;三是深度合成本身具有⼀定通⽤性,应⽤范围⼴,难以被简单归⼊某⼀具体分级分
类。
第⼀,⽬前我国存在多种分级分类制度。(1)在数据维度,《数据安全法》将数据分为核⼼数据、 要数据、⼀般
数据,确⽴了由国家建⽴数据分类分级制度、由主管部⻔制定 要数据⽬录并加强保护的制度框架,并注 ⽹络安全制度
与数据安全保护制度的衔接;[25]《⺠法典》区分了⼀般个⼈信息和私密个⼈信息;[26]《个⼈信息保护法》建⽴了信息
分级制度,将个⼈信息分为⼀般信息和敏感信息;[27]在算法维度,《算法推荐管理规定》第23条提出:“⽹信部⻔会同电
信、公安、市场监管等有关部⻔建⽴算法分级分类安全管理制度,根据算法推荐服务的舆论属性或者社会动员能⼒、内容
类别、⽤户规模、算法推荐技术处理的数据 要程度、对⽤户⾏为的⼲预程度等对算法推荐服务提供者实施分级分类管理
”。但⽬前为⽌,⼀般认为深度合成可能被⽤于“⽆中⽣有”或篡改信息内容因⽽具有较⾼的舆论属性或者社会动员能⼒,属
于⾼敏感⾼⻛险的算法服务技术。(2)在主体维度,我国《个⼈信息保护法》借鉴欧盟⽴法,第58条对提供 要互联⽹
平台服务、⽤户数 巨⼤、业务类型复杂的“守⻔⼈”进⾏了规范,要求其建⽴健全个⼈信息保护合规制度体系。在规范性
⽂件层⾯,我国市场监管总局起草的《互联⽹平台分类分级指南(征求意⻅稿)》将平台分为⽹络销售、⽣活服务等六⼤
类,分级上⼜分为中⼩平台、⼤型平台和超⼤型平台三级,考虑了⽤户规模、业务种类以及限制能⼒。(3)在场景维度
,当数据、平台和算法相同的情况下,仅仅由于技术的可能使⽤场景的不同,⽽产⽣不同级别的⻛险,需要配置不同的监
管制度。如未成年⼈使⽤平台的相关功能,相应配备的个⼈信息保护规则和算法相关合规要求不尽相同;《 要数据识别
指南》将⽀撑关键基础设施所在⾏业的数据,反映关键信息基础设施⽹络安全保护情况的数据,反映 点⽬标、 点场所
物理安全情况的数据等视为 要数据, 要数据⼀般应有更严格的法律保护制度。[28]除此之外,在⼀些⾏业场景下,数
据产⽣与处理的规则也应相应区分。如⼈⼯智能医疗领域、⾦融业务领域都可能涉及诸多敏感个⼈信息需要围绕场景进⾏
整体性制度设计;《个⼈⾦融信息保护技术规范》《证券期货业数据分类分级指引》等对⾦融领域的数据分级给出了具体
指导。我国各部委也相继颁布了基于⾏业应⽤、业务场景的数据安全分级分类⽅法。[29]
第⼆,四类分级分类标准,职责互相交叉,边界不尽清晰。以算法分级分类为例,⼀是我国以部⻔职能作为分类标准
,“具有舆论属性或者社会动员能⼒”的算法均需履⾏事前安全评估、备案等程序,算法种类繁多,基本涵盖了现有的算法
服务;⼆是《算法推荐管理规定》中的算法分级分类安全管理制度,结合数据维度(如数据 要程度)和主体维度(如⽤
户规模)进⾏制度设计,但不同分级分类标准如何厘清各⾃职能和边界,以及各标准之间如何衔接,需要进⼀步出台规范
予以调整。
第三,由于对深度合成的技术和应⽤尚⽆法充分认识,相关⽴法难以在现有分级分类框架中被精准定位。调整深度合
成的规范不仅在我国⽬前初步构建的多系统分级分类法律体系中难以找到确切的位置,⽽且欧盟⽴法对深度合成技术的⻛
险判断也并不清晰,⽬前有学者提出了将深度合成全部归为⾼⻛险系统[30]予以规范的主张。但这⼀主张显然并不利于相
关技术与产业的发展。
因此,深度合成的治理框架需进⾏迭代升级,包括将治理对象从算法服务扩展为⼈⼯智能,治理维度从平台问责扩展
⾄产业治理,建⽴由有⼒牵头部⻔统筹协调的体系化监管体制机制,并对我国⽬前多个分级分类制度进⾏系统整合。
四、深度合成治理的体系迭代与未来发展
我国的深度合成治理应在现有算法治理基础上做出制度延伸,将其作为⼈⼯智能专⻔领域予以治理,形成“算法治理
—深度合成治理—⼈⼯智能治理”的迭代路径,为我国未来通⽤⼈⼯智能⽴法做准备。⾯对深度合成中的⽣成型⼈⼯智能
等具有⼀定通⽤性质的新型⼈⼯智能技术,应及时调整治理⽅案,抢抓规则制定权,防范国际规则博弈中欧盟等有意识的
制度输出,推动我国在该领域的本⼟化制度建设和制度引领。
(⼀)深度合成治理的体系迭代
深度合成治理应在现有算法治理的基础上做出制度延伸与体系迭代。 ChatGPT等⽣成型⼈⼯智能的爆发,是推动深
度合成成为⼈⼯智能治理专⻔领域的有利契机。将深度合成纳⼊专⻔化的⼈⼯智能治理领域予以治理,既可以为我国⼈⼯
智能基础性⽴法做出有益探索,⼜可避免欧盟、美国现有⽴法中⼈⼯智能范围定义过宽的弊端,发挥我国⼈⼯智能⽴法的
制度引领作⽤。
第⼀,深度合成治理需要在算法治理基础上做出延伸和迭代。尽管我国深度合成的治理已经在算法治理基础上进⾏了
创新,但治理体系仍需进⼀步优化。我国的算法治理体系将算法定位为“互联⽹信息服务算法”和“算法推荐服务”,[31]尽管
在算法监管制度中已经创新性地提出了针对特征库、⽤户标签、算法机制机理等技术规范措施,但其 点聚焦于算法安全
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 6 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
价值导向下的信息服务规范和⽤户权益保护。《深度合成管理规定》在征求意⻅的讨论后将服务和技术列为并 的调整对
象,将“数据和技术管理规范”专章单列,并将监管对象延伸⾄深度合成技术⽀持者,都是对技术发展的因应性制度调整。
我国深度合成治理超越了算法治理制度,相较欧盟、美国等制度更具有引领性。国外研究也认为《深度合成管理规定》调
整的范围全⾯,将⼤⼤改变14亿⼈的⼈⼯智能⽣成内容的制作⽅式;在具体制度的评价中,研究者也认同我国现有监管为
深度合成的每个阶段制定了规则,从创作到标注再到传播,为未来控制有机⽣成内容也留下了空间,在2023年可能影响
到其他国家深度合成法规的发展。[32]但是,算法监管的⼀些具体措施显然很难适⽤于深度合成项下的⽣成型⼈⼯智能等
技术。如算法机制机理的备案说明、特征库和标签制度等,应结合深度合成的新技术发展与应⽤场景做出相应调整和改进
。
第⼆,深度合成治理应成为⼈⼯智能治理的专⻔领域,并在此基础上推进我国⼈⼯智能基础性⽴法。我国现有的算法
规制体系在实践中承担起了⼈⼯智能治理的任务。从2017年国务院《新⼀代⼈⼯智能发展规划》到2022年的《最⾼⼈⺠
法院关于规范和加强⼈⼯智能司法应⽤的意⻅》,我国⼈⼯智能治理各级⽂件中均提出了“安全可控”的治理⽬标,具体制
度均提到了建⽴公开透明的制度体系、建⽴相应问责机制、技术和应⽤全流程监管等。⽽这些具体制度的落地则是由算法
透明度,[33]算法问责,算法设计、输出与结果监管,[34]以及算法推荐服务结果公平等规定保障实现的。[35]国外的研究
⼀般也认为中国针对算法设计的系统法规,包括对算法系统的设计、使⽤和数据种类的要求和标准,是中国⼈⼯智能的治
理制度。[36]
应以ChatGPT为代表的⽣成型⼈⼯智能发展为契机,推动深度合成治理成为⼈⼯智能治理的专⻔领域。(1)保障急
⽤先⾏⼀向是我国⽴法的⼀条 要经验。短期内,继续采⽤垂直和领域性⼈⼯智能监管能够有效将可能的⻛险控制在最⼩
范围,延伸深度合成现有制度是治理效率最⾼的⽅式。不过从⻓远来看,加强深度合成治理专⻔⽴法是必然趋势。在拟出
台全盘⼈⼯智能治理⽅案的欧洲,也在讨论对⼈⼯智能⽴法的部分定义和监管类型进⾏修订,以增强对“⼤型⽣成式AI模
型”部署者和⽤户进⾏直接监管。[37](2)深度合成的治理等待全盘⼈⼯智能治理的⽴法出台,会⾯临针对性、可⽤性不
强的制度困境。⽣成型⼈⼯智能具有⼀定通⽤性,是否延续传统对⼈⼯智能的分级分类⽅式进⾏治理?⽬前欧盟就⾯临着
这个问题。2022年5⽉《⼈⼯智能法案》第4a-4c的修正案成了监管⽣成型⼈⼯智能的核⼼条款。任何可⽤于任何⾼⻛险
应⽤的“通⽤⼈⼯智能系统”,如就业、医疗、信⽤评分、⾏政、执法都必须初步遵守《⼈⼯智能法》对⾼⻛险系统规定的
全部义务。[38]⼀个全盘的⼈⼯智能治理⽅案极可能受到技术发展的冲击。因此也有欧洲学者建议欧盟应将其所设想的全
盘⼈⼯智能法案监管转向具体的监管职责和内容治理。[39](3)在对深度合成治理做出专⻔性制度探索的基础上,推进
⼈⼯智能基础性⽴法,解决⼈⼯智能领域的通⽤问题。⼀是算法、算⼒与数据的规制制度必须在⼈⼯智能治理的框架下统
筹协调。如欧盟⽴法⾯临着《⼈⼯智能法》《通⽤数据保护条例》《数字服务法》等法规协调的问题。[40]预训练⼤模型
需要海 的算⼒,如何统筹全国范围内的算⼒使⽤,也是法律层⾯⽴法才能解决的问题。⼆是法律层⾯上统筹,⽅可保证
以较⾼的法律效⼒位阶将我国现⾏的有关数据、算法和⼈⼯智能问题的探索,统⼀纳⼊未来⼈⼯智能基础性⽴法。
2023年被认为是全世界的⼈⼯智能监管新格局的开创之年。[41]虽然不同的法律辖区正在采取不同的监管路径,但欧
盟《⼈⼯智能法案》的加快推进,意味着全盘管理⼈⼯智能未来将可能成为全球⽴法模式。按照“算法治理—深度合成治
理—⼈⼯智能基础性⽴法”的思路,深度合成治理⽴法⼀⽅⾯承接算法治理,另⼀⽅⾯也可以为未来通⽤⼈⼯智能的⽴法
做出有益尝试。
(⼆)内容监管与全链条治理
深度合成的治理,⼀是需要保障⽣成内容安全的基础法益,⼆是应依据⽣成型⼈⼯智能改进监管框架实施全链条治理
,三是需要适应技术的进⼀步发展,完成深度合成监管⼯具的升级。
第⼀,深度合成的⽣成内容监管。深度合成的前期治理聚焦⽣成合成的虚假信息是全球共识,欧盟、美国均有相关⽴
法尝试与监管举措。[42]我国的深度合成治理中有关信息内容安全的监管措施应严格执⾏,继续要求AIGC技术与服务提供
者在相关的⼈⼯智能⾃动⽣成内容中履⾏添加可识别⽔印或有效警示信息的义务,在源头上实现⼈⼯智能⾃动⽣成内容的
可识别性。不过,AIGC(⼈⼯智能⽣成内容)的标识要求需要进⼀步提⾼。如对ChatGPT或类似软件⽣成“以某⼈⻛格”
⽣成⽂本或图像视频等内容时,应当在⽣成内容的合理位置做出显著标识,以避免公众产⽣混淆或误认。⽣成内容型的⼈
⼯智能必然会发⽣内容安全问题,尽管⽬前ChatGPT对基于恶意⽬的的使⽤提出了⼀些限制,但是有技巧的使⽤者仍然
可以采取调整措施的请求来绕开这些限制。因此AIGC(⼈⼯智能⽣成内容)不仅仍需配备⼈⼯过滤审核机制,[43]⽽且需
要在下游督促⽹络平台采取措施减少违法信息的产出。深度合成监管中的辟谣机制和举报机制同样适⽤于ChatGPT等⽣
成型⼈⼯智能。对于已经或者准备在⽹络中传播不实信息和可能危害公共秩序的内容,平台有义务停⽌传输,并且对于频
繁发布此类信息的⽤户主体通过⿊名单或其他机制加以限制和处罚。尤其是在AIGC(⼈⼯智能⽣成内容)与机器⼈账号
结合可能带来更⼤信息内容安全⻛险时,应在我国现有账号管理机制中强化对机器⼈账号的身份识别监管和对权威账号的
特殊认定,减少机器⼈批 推送AIGC(⼈⼯智能⽣成内容)。中国已经在内容监管领域积累了较多经验并取得先机,监
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 7 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
管⼈⼯智能⽣成内容也成为制定全球规范和标准的⼀种 要⽅式。[44]
第⼆,深度合成的法律担责链条。深度合成中⽣成型⼈⼯智能技术链条的参与者包括:开发者建模并预训练⼤模型;
部署者根据应⽤需求,或单独或与开发者合作进⾏参数微调;⽤户最终与⽣成型⼈⼯智能互动,并决定⽣成型⼈⼯智能的
具体⽤途。[45]在⽣成型⼈⼯智能的技术产出链条上,技术开发者是关键,因⽽深度合成合规责任在技术链上进⾏可⾏性
的责任分配显得尤为 要。鉴此,我国的深度合成监管应围绕服务提供者设计制度:⼀是在⽣成型⼈⼯智能的治理中,应
对技术开发者提出更严格的要求,如训练数据的标注、⽂件记录和保存、保障技术透明度等。⾯对OpenAI、Stability这样
的⼤型技术开发者,在开发阶段仅有伦理要求是⽆法满⾜监管⽬标的。可以考虑通过对技术的获利者征收庇古税平衡技术
获利与⻛险⾏为。[46]监管者对深度合成的审计,可通过定期随机抽取⽅式进⾏,并依据审计结果对深度合成技术的获利
者征税。⼆是对⽣成型⼈⼯智能的部署者应结合其应⽤场景设置义务,该义务的结构安排制度必须使部署者和使⽤者能够
有合理预期,包括必要的技术调整和合规成本。[47]否则,过于强调绝对的信息内容安全,会阻碍深度合成产业的发展。
三是在⽤户层⾯进⼀步细化管理。对于使⽤AIGC(⼈⼯智能⽣成内容)为他⼈提供服务的专业⽤户,如使⽤ChatGPT撰
写法律⽂书,⽤AI绘画提供设计装饰服务,使⽤⽣成型⼈⼯智能编码或提供教育服务等经营活动,应承担⼈⼯智能⽣成内
容的标识义务。对于普通的深度合成⽤户,应进⼀步通过技术⼿段等强化其义务。如我国现有的深度合成监管中,要求上
传照⽚⽣成换脸视频的⽤户必须取得当事⼈的同意,但实践中尚缺少有效的落地机制和制约⼿段。在⽤户与⽣成型⼈⼯智
能明⽂互动的情况下,如何通过技术加强对⽤户⾏为的合法性约束,是下⼀步技术开发和制度设计应认真对待的问题。
第三,深度合成的监管⼯具升级。(1)算法歧视的传统监管⼯具,在⾯对⽣成型⼈⼯智能时会遇到挑战。既往⼈⼯
智能公平性治理中采取的通⽤性应对措施,如过滤器和模型调整,定 偏差评估和基准测试等,在ChatGPT这类预训练
模型系统治理中会遇到挑战。不过技术界仍在不断尝试,如斯坦福⼤学以⼈为本⼈⼯智能研究院基础模型研究中⼼推出⼤
型语⾔模型(LLM)的整体评估,评估包括准确性、校准、鲁棒性、公平性、偏差、毒性和效率等模型完备的各个关键要
素,旨在提⾼语⾔模型透明度,帮助公众理解⼤型语⾔模型。[48](2)深度合成的数据和隐私安全同样需要新的技术⽀
撑和保障。在深度合成营造的数字虚拟⽣存场景中,⽤户需要头盔和⼿持器等VR设备实现沉浸式互动。 VR中数据收集的
范围和规模超出了⽬前⽹络平台的能⼒,攻击者可通过⼏分钟的数据流轻松识别VR⽤户,或通过在虚拟环境中植⼊制品
诱导⽤户透漏个⼈信息。[49]这都需要⽹络安全技术、监管技术的全⾯升级以更好地加强监管。
(三)分级分类标准的有机体系化
深度合成对多元的分级分类标准提出了巨⼤挑战。⼀是深度合成应⽤覆盖范围⼴泛,既包括信息内容安全,也包括数
字⼈、数字虚拟场景、数字孪⽣等应⽤模式,继续适⽤“具有舆论属性或者社会动员能⼒”的算法分类标准,已难以适应⽣
成合成类算法的分级治理。⼆是深度合成中的⽣成型⼈⼯智能具有⼀定通⽤性。按照全盘⼈⼯智能的治理模式,如欧盟《
⼈⼯智能法案》,要求识别和分析所有最可能对健康、安全和基本权利产⽣的已知和可预⻅的⻛险,按此模式进⾏监管,
则⼀旦⽣成型⼈⼯智能被⽤于⼀个⾼⻛险⽤途,整个预训练⼤模型都会落⼊⾼⻛险的规制范围,需要进⾏性能、稳健性和
⽹络安全测试。[50]⽽⽣成型⼈⼯智能需要巨额投资,⾼昂的合规成本显然不利于企业投资和研发。三是深度合成的⽣成
型⼈⼯智能需要海 数据进⾏训练,⽽数据的汇聚和 级本身就被认定为具有较⾼⻛险。如达到⼀定 级的个⼈信息处理
如果发⽣ ⼤⽹络安全事件,在我国法律体系中被列为与 要数据安全事件同等级别的事件,《关键信息基础设施条例》
明确将⼆者并列。[51]与此类似,《⽹络安全审查办法》也将 要数据、关键信息基础设施与⼤ 个⼈信息的⻛险并列。[
52]由此可⻅,深度合成监管的分级分类标准设计,既需要统筹技术、产业和应⽤的不同分层,也需要消解数据分级分类
中的 级考 因素,有机协调做出针对性制度安排。从产业链⻆度看,技术底层的⼤模型与数据集成为真正意义上的“信
息基础设施”。 AIGC(⼈⼯智能⽣成内容)产业需要⽣成型⼈⼯智能⽀持,提供垂直化、场景化的⼯具和模型——作为幕
后产业链的上游,需要后端基建如渲染公司、底层架构如引擎公司等⽀撑;应⽤层⾯的内容⽣成应⽤属于产业链下游,需
要⾯向各⾏业的内容与场景等技术⽀撑。在数据、算法、主体等分级分类⽅法难以适⽤于⽣成型⼈⼯智能的背景下,应在
产业链条层⾯⾸先纵向划分深度合成的技术、产业和应⽤层,再对技术研发、产业落地和技术应⽤分级分类设计管理制度
。
第⼀,不宜将深度合成尤其是⽣成型⼈⼯智能⼀概纳⼊⾼⻛险治理框架,⽽应根据⽣成型⼈⼯智能的预训练⼤模型、
海 数据等特征单独设计监管制度。在深度合成领域,应回避欧盟有意识的法律输出,坚持符合中国本⼟的治理路径。欧
盟《⼈⼯智能法》《数字市场法》《数字服务法》三部协同⽴法影响巨⼤,其⽬的是为了确保公司不会滥⽤⼈⼯智能并承
担相应责任,避免可能的伤害;但每项⽴法都要求对符合特定标准的公司进⾏独⽴审计、安全评估或者第三⽅审计,给产
业发展造成了沉 负担,可谓“数字经济的幼⼉,数据监管的巨匠”。[53]我国在信息内容安全领域已经具备相较于其他国
家更多的实践经验,坚持分层治理,尤其是加强⽣成内容的专⻔化治理,可避免合规成本过⾼阻碍深度合成产业的发展。
第⼆,区分技术、产业和应⽤层⾯分级分类设计制度,在技术与产业层⾯加⼤扶持⼒度,在应⽤层⾯参考现有分级分
类标准完善监管制度。鉴于深度合成发展需要⼤ 资源、开展技术竞赛,集中⼒ 发展技术、产业将成为我国的必然选择
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 8 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
,因此需针对某些特定企业和信息基础设施加强⼈⼯智能伦理监管、⽹络安全和数据安全保障。如我国《新型数据中⼼发
展三年⾏动计划(2021-2023年)》提出新型数据中⼼应具备⾼技术、⾼算⼒、⾼能效、⾼安全等特征。在深度合成应⽤
层⾯,可参考现有的分级分类标准,依据其舆论属性或者社会动员能⼒、内容类别、⽤户规模、对⽤户⾏为的⼲预程度等
实施分级分类管理。因为在现阶段通过⼀部法律来协调对所有⼈⼯智能系统的监管,显然很难保证⽴法的⾼度适⽤性。[5
4]
第三,应建⽴敏捷治理体系,并留⾜前瞻性制度发展空间,以保障技术的⻓远发展。对于⼀个调整范围⼴泛、具有潜
在性和变⾰性的⽴法框架来说,过于宽泛和固定的⼈⼯智能⽴法并不适当。⼈⼯智能专家和⾮专业公⺠之间的认识不对称
可能促使⻛险监管严 依赖专家的判断。[55]深度合成的发展正在迅速催⽣多个产业和价值⽣产模式,合成数据、数字孪
⽣、数字⼈、元宇宙等未来的制度发展都需要治理的敏捷应对。正如专家调查了欧盟现有的治理⽅案之后得出的结论:“
⼈⼯智能将 新需要⼀个灵活和反应迅速的治理框架,以最⼤限度地提⾼其 新应对不断变化的⻛险和问题的能⼒。”[56]
⽬录 查找: 虚假信息 命中:1/ 4次 智能引注 复制全⽂
五、结语
标亮 聚焦命中 法宝之窗 右侧法宝联想 转发 打印 分享 字号 背景
深度合成已经成为世界⼈⼯智能领域竞争的新赛道,以ChatGPT、元宇宙为代表的⼀批⻛靡全球的应⽤技术为⼈类
谱写数字化⽣存的新篇章提供了⽆限可能。掌握⼈⼯智能治理的话语权、规则制定权,抢先形成新的国家竞争优势,已经
成为世界不同法域的努⼒⽬标。我国在个⼈信息保护和数据⽴法领域,可以说与欧盟、美国并⾏,在算法治理和深度合成
治理领域则成为⼀定意义上的领跑者。然⽽,领跑不代表严苛,过强的监管并不⼀定形成制度竞争优势;符合我国本⼟经
济、社会、政治、价值观,能够促进我国深度合成产业⻓远健康合法发展的治理制度,才是我国真正的制度竞争优势。欧
盟正在不遗余⼒地努⼒成为⼈⼯智能治理的全球领导者,加强继续引领围绕⼈⼯智能监管的全球标准的讨论。在这⼀背景
下,既保障急⽤先⾏,避免新兴技术带来的问题,⼜不急于推⾏过于严格的⼈⼯智能⽅案以提⾼制度的可⽤性,是我国深
度合成⼈⼯智能⽴法的努⼒⽅向。⼀⽅⾯在算法监管的经验与框架中,继续推进深度合成的治理;另⼀⽅⾯在深度合成治
理的探索中,逐步形成通⽤⼈⼯智能⽴法的经验,为未来统筹算法、算⼒、数据的⼈⼯智能治理作出更多有益尝试,是⽬
前深度合成治理路径的最佳选择。深度合成的治理,⽣⻓于算法治理,既需借助算法治理的既有制度资源与框架,⼜需要
创新性地发展其作为⼈⼯智能专⻔领域的监管⼯具、分类分级制度、责任链条分配体系。我国深度合成的治理应适应中国
本⼟亟需发展⽣成型⼈⼯智能产业的需求,同时发挥中国既有的信息内容治理优势,以形成在全球更具影响⼒的深度合成
治理法律制度体系。
(本⽂责任编辑杨建军孙尚鸿)
【注释】
作者简介:张凌寒,中国政法⼤学数据法治研究院教授,博⼠⽣导师,法学博⼠。
[1]Chris Smith, ChatGPT has the Fastest User Growth of Any App in History(Jan 2,2023), https://bgr.com/tech/ch
atgpt-has-the-fastest-user-growth-of-any-app-in-history/,(Feb 22,2023 accessed).
[2]赫然:《规范深度合成技术中国⾛在全球前列》,《⼈⺠⽇报(海外版)》2023年1⽉30⽇,第10版。
[3]Steve Mollman, Bill Gates Says A. I. like ChatGPT is ‘Every Bit as Important as the PC, as the Internet’(Jan 3,
2023), https://fortune.com/2023/02/02/microsoft-bill-gates-artificial-intelligence-chatgpt-as-important-as-pc-or-internet/
,(Feb 22,2023 accessed).
[4]Deeba Ahmed, Ukranian News Channel Hacked to Run Deepfake video of President Zelensky(Mar 17,2022),
https://www.hackread.com/ukranian-news-channel-hacked-president-zelensky-deepfake-video/,(Feb 22,2023 access
ed).
[5]曾有视频伪造Facebook⾸席执⾏官扎克伯格的演讲,旨在表明扎克伯格已经效忠于詹姆斯·邦德(James Bond
)的邪恶组织幽灵党(Spectre),声称Spectre将掌握⼤数据的未来。但实际上扎克伯格从未说过这些话,并且由于
特殊的⾳频设定,使扎克伯格听起来有些精神失常。 See Maggie Tillman, Deepfake Videos Explained: What are The
y and Should You be Worried?(Dec 24,2020), https://www.pocket-lint.com/apps/news/148360deepfake-videos-explai
ned-what-are-they-and-should-you-be-worried/,(Feb 22,2023 accessed).
[6]崔中良:《元宇宙中深度沉浸感的⽣成本质与基础》,《⾃然辩证法通讯》2023年第2期,第28-36⻚;袁曾:
《元宇宙空间铸币权论》,《东⽅法学》2022年第2期,第31-43⻚;张茂元、⻩芷璇:《元宇宙:数字时代技术与社
会的融合共⽣》,《中国⻘年研究》2023年第2期,第23-30⻚;杨东、梁伟亮:《 塑数据流 ⼊⼝:元宇宙的发展
逻辑与规制路径》,《武汉⼤学学报(哲学社会科学版)》2023年第1期,第55-66⻚。
[7]例如弗吉尼亚州在《⾮同意⾊情法》(Nonconsensual Pornography Law)修正案中对深度伪造⾊情视频进⾏
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 9 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
了规制,参⻅Adi Robertson, Virginia’ s ‘revenge porn ’ laws now officially cover deepfakes(Jul 2,2019), https://www.t
heverge.com/2019/7/1/20677800/virginia-revenge-porn-deepfakes-nonconsensual-photos-videos-ban-goes-into-effe
ct, (Feb 22,2023 accessed);纽约州曾试图⼀⼑切的杜绝深度伪造⾊情产品,参⻅Katyanna Quach, New York State i
s trying to ban 'deepfakes' and Hollywood isn't happy(Jun 12,2018), https://www.theregister.co.uk/2018/06/12/n
ew_york_state_is_trying_to_ban_deepfakes_and_hollywood_isnt_happy/,(Feb 22,2023 accessed);《2018年恶意伪
造禁令法案》(Malicious Deep Fake Prohibition Act of 2018)对扰乱政府或选举的⾏为严厉处罚,参⻅美国国会⽹站
https://www.congress.gov/bill/115th-congress/senate-bill/3805,《深度伪造责任法案》(Deep Fakes Accountability
Act)的主要⽬的是防⽌⽤深度伪造技术⼲扰竞选,参⻅Cclarke Introduces Bill to Ccombat High Tech Altered Videos(
Jun 14,2019), https://brooklyneagle.com/articles/2019/06/14/clarke-introduces-bill-to-combat-high-tech-altered-videos
/,(Feb 22,2023 accessed).
[8]Amendment 68 of Amendments adopted by the European Parliament on 20 January 2022 on the proposal for
a regulation of the European Parliament and of the Council on a Single Market For Digital Services (Digital Services
Act) and amending Directive 2000/31/EC (COM(2020)0825– C9-0418/2020–2020/0361(COD)), available at https://w
ww.europarl.europa.eu/doceo/document/TA -9-2022-0014_EN. pdf
[9]Philipp Hacker, Andreas Engel, Marco Mauer, Regulating ChatGPT and other Large Generative AI Models, W
orling Paper, 2023.
[10]Stanford University, Artificial Intelligence and Life in 2030: One Hundred Year Study on Artificial Intelligence,
Report of the 2015 Study Panel, pp.1-8.
[11]Center for Research on Foundation Models (CRFM) at the Stanford Institute for Human-Centered Artificial Int
elligence (HAI), On the opportunities and risks of foundation models, 2021.
[12]Ganguli, D., Hernandez, D., Lovitt, L., Askell, A., Bai, Y., Chen, A., Conerly, T., Dassarma, N., Drain, D. and E
lhage, N. Predictability and surprise in large generative models, ACM Conference on Fairness, Accountability, and Tr
ansparency ,2022.
[13]Hoffmann, J., Borgeaud, S., Mensch, A., Buchatskaya, E., Cai, T., Rutherford, E., Casas, D. d. L., Hendricks,
L. A., Welbl, J., Clark, A et al., Training compute-optimal large language models, 2022.
[14]《深度合成管理规定》第23条:“深度合成技术,是指利⽤深度学习、虚拟现实等⽣成合成类算法制作⽂本、
图像、⾳频、视频、虚拟场景等⽹络信息的技术,包括但不限于(⼀)篇章⽣成、⽂本⻛格转换、问答对话等⽣成或
者编辑⽂本内容的技术;(⼆)⽂本转语⾳、语⾳转换、语⾳属性编辑等⽣成或者编辑语⾳内容的技术;(三)⾳乐
⽣成、场景声编辑等⽣成或者编辑⾮语⾳内容的技术;(四)⼈脸⽣成、⼈脸替换、⼈物属性编辑、⼈脸操控、姿态
操控等⽣成或者编辑图像、视频内容中⽣物特征的技术;(五)图像⽣成、图像增强、图像修复等⽣成或者编辑图像
、视频内容中⾮⽣物特征的技术;(六)三维 建、数字仿真等⽣成或者编辑数字⼈物、虚拟场景的技术。”
[15]Rolando, Wordsmith, AI-powered Narratives in Human-Friendly Prose (Aug 20,2021), https://d3. harvard.edu
/platform-digit/submission/wordsmith-ai-powered-narratives-in-human-friendly-prose/,(Feb 22,2023 accessed).
[16]What is generative AI?(Jan 19,2023), https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-
is-generative-ai, (Feb 12,2023 accessed).
[17]《伪造⼈脸视频为⿊灰产链提供技术⽀撑安徽警⽅破获全省⾸例利⽤⼈脸识别犯罪案》,《法治⽇报》2021
年10⽉27⽇,第6版。
[18]Philipp Hacker, Andreas Engel, Theresa List, Understanding and Regulating ChatGPT, and Other Large Gen
erative AI Models (Jan 20,2023),https://verfassungsblog.de/chatgpt/.(Feb 12,2023 accessed).
[19]Nina Butler, Regie.ai Closes A-Round Funding With Additional $6 Million Investment from Khosla Ventures, T
otaling $20.8 Million, https://www.regie.ai/blog/regie-ai-closes-a-round-funding-with-additional -6million-investment-fro
m-khosla-ventures-totaling -20-8million, (Feb 22,2023 accessed).
[20]腾讯研究院:《AIGC发展趋势报告2023》,第58⻚。
[21]What is generative AI?(Jan 19,2023), https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-
is-generative-ai, (Feb 12,2023 accessed).
[22]Joseph Saveri Law Firm LLP, Class Action Filed Against Stability AI, Midjourney, and DeviantArt for DMCA Vi
olations, Right of Publicity Violations, Unlawful Competition, Breach of TOS(Jan 14,2023), https://www.prnewswire.co
m/news-releases/class-action-filed-against-stability-ai-midjourney-and-deviantart-for-dmca-violations-right-of-publicity
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…15819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 10 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…615819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 11 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
[43]ChatGPT在2022年2⽉开始就已经增加了⼈员进⾏⼈⼯审核,许多敏感问题已经拒绝提供答案。
[44]Holistic AI, The State of AI Regulations in 2023 E-Book, 2023, p.22. available at https://www.holisticai.com/p
apers/ai-regulations-in -2023.
[45]Blaschke, T. and Bajorath, J. Fine-tuning of a Generative Neural Network for Designing Multi-target Compou
nds. Journal of Computer-Aided Molecular Design, Vol.36, pp.363-371(2022).
[46]Julia Kagan, Pigovian Tax: Definition, Purpose, Calculation, and Examples (May 12,2022), https://www.invest
opedia.com/terms/p/pigoviantax.asp, (Feb 24,2023 accessed).
[47]Edwards, L. Regulating AI in Europe: Four Problems and Four Solutions, Retrieved March, vol.15(2022).
[48]Rishi Bommasani, Percy Liang, Tony Lee, Language Models are Changing AI: The Need for Holistic Evaluati
on, https://crfm.stanford.edu/2022/11/17/helm.html, (Feb 24,2023 accessed).
[49]Gonzalo Munilla Garrido, Vivek Nair, Dawn Song, Privacy in Virtual Reality, arXiv preprint arXiv: 2301.05940(
2023).
[50]欧盟《⼈⼯智能法案》第15条“Accuracy, robustness and cybersecurity”。
[51]《关键信息基础设施条例》第18条:发⽣关键信息基础设施整体中断运⾏或者主要功能故障、国家基础信息以
及其他 要数据泄露、较⼤规模个⼈信息泄露、造成较⼤经济损失、违法信息较⼤范围传播等特别 ⼤⽹络安全事件
或者发现特别 ⼤⽹络安全威胁时,保护⼯作部⻔应当在收到报告后,及时向国家⽹信部⻔、国务院公安部⻔报告。
[52]《⽹络安全审查办法》第10条:⽹络安全审查 点评估相关对象或者情形的以下国家安全⻛险因素:……(五
)核⼼数据、 要数据或者⼤ 个⼈信息被窃取、泄露、毁损以及⾮法利⽤、⾮法出境的⻛险;(六)上市存在关键
信息基础设施、核⼼数据、 要数据或者⼤ 个⼈信息被外国政府影响、控制、恶意利⽤的⻛险,以及⽹络信息安全
⻛险。
[53]⾦晶:《欧盟的规则,全球的标准?——数据跨境流动监管的“逐顶竞争”》,《中外法学》2023年第1期,第4
6-47⻚。
[54]Johann Laux, Sandra Wachter, Brent Mittelstadt, Trustworthy artificial intelligence and the European Union A
I act: On the conflation of trustworthiness and acceptability of risk, Regulation & Governance (September 26,2022),p.
30.
[55]Johann Laux, Sandra Wachter, Brent Mittelstadt, Trustworthy artificial intelligence and the European Union A
I act: On the Conflation of Trustworthiness and Acceptability of Risk, Regulation & Governance(September 26,2022),
p.34.
[56]Walter G. Johnson, Diana M. Bowman, A Survey of Instruments and Institutions Available for the Global Gov
ernance of Artificial Intelligence, IEEE Technology and Society Magazine, Vol.40, p.72(2021).
最新推出法宝智能订阅功能,新法新案邮箱⻅!
欢迎您或所在机构根据需要采购相应完整内容的使⽤权限,如需了解北⼤法宝系列产品和服务,请联系咨询北⼤法宝产品顾问!
正式引⽤法律法规条⽂时请与《⽴法法》所规定的标准⽂本核对。
北⼤法宝1985年创始于北京⼤学法学院,持续引领法治信息化,多年稳固⾼质提供法律法规、司法案例、
学术期刊、法律翻译、检察⽂书、⾏政处罚⽂书等全类型法律检索,普遍为法律各界提供知识服务。创建
智慧法务、智慧⽴法、法治政府、智慧法院、智慧检务、智慧学术、智能问答、⼤数据分析、法律⼈⼯智
能等各类智慧法治解决⽅案和平台建设运营,竭诚服务法治中国。
爱法律 有未来!
微信扫码阅读
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…15819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 12 of 13
深度合成治理的逻辑更新与体系迭代⸺ChatGPT等⽣成型⼈⼯智能治理的中国路径-北⼤法宝V6官⽹ 1/6/2023, 16:08
法宝产品资讯
法宝APP,让法律内容触⼿可及
检索订阅改版:⾼级检索+法宝订阅2.0的贴⼼组合
全程回顾 | ⾸届“⼤数据与法律检索”暑期学校
合规强化年,智慧法务⽉:要合规先⽴规,某⼤型央企智能⽴规实践
4.23世界读书⽇,北⼤法宝书城隆 上线,和法律⼈⼀起终身学习!
“北⼤法宝”系列产品全⾯助⼒法治政府建设
北⼤法宝智能起草辅助平台试⽤邀请 | 附全国⼈⼤常委会2021⽴法计划
北⼤法宝·法学期刊库 磅升级!
⼀⽂速览北⼤法宝“智慧法院”产品矩阵
法宝微信
https://www-pkulaw-com.easyaccess1.lib.cuhk.edu.hk/qikan/a9d…15819c25ca6e58c74b211bdfb.html?keyword=虚假信息%20&way=listView Page 13 of 13