道可特研究 | 从《生成式人工智能服务管理办法(征求意见稿)》看我国对AIGC的监管态势

来源: 道可特律所  时间: 2023-04-13 22:03:04  作者: 邓勇

2023年4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。该征求意见稿的出台体现了官方对近期以ChatGPT、Midjourney为代表的人工智能技术的因应态度。尽管目前还只是征求意见稿,但也可从中一窥官方对于人工智能的基本监管方向。故本文尝试从《征求意见稿》的内容试图分析我国对于人工智能生成内容(以下简称“AIGC”)有哪些监管重点。

监管重点一:安全评估与算法备案双管齐下

《征求意见稿》第六条规定“利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续”。

该条规定首先将利用AIGC向公众提供服务这一形态定义于“具有舆论属性或社会动员能力的互联网信息服务”,该规定所援引的《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》(下称“《评估规定》”)由国家网信办和公安部联合发布,从2018年11月30日起开始施行。

与常见的微博、微信、抖音等具有舆论属性或社会动员能力的典型互联网信息服务形态相比,利用AIGC向公众提供服务应该是被官方视为更符合《评估规定》第二条第(二)项所规定的“开办提供公众舆论表达渠道或者具有发动社会公众从事特定活动能力的其他互联网信息服务”这一类型,更进一步说,让公众享用AIGC属于“具有发动社会公众从事特定活动能力的其他互联网信息服务”。所以在此定义下,开展安全评估就成为提供AIGC服务的“标准动作”。

那么没有开展安全评估是不是就不能利用人工智能向公众提供服务了?答案是否定的,因为《评估规定》被网信办定性属于“政策性文件,不属于行政许可事项,不设立行政处罚措施”[1]。

那如果没有开展安全评估就利用人工智能向公众提供服务会有哪些不利后果?《评估规定》的第十二、十三条规定的很清楚,网信部门和公安机关一方面可以通过“全国互联网安全管理服务平台”向公众发布安全风险提示信息,另一方面还有权对利用人工智能向公众提供服务实施监督检查,依法处理违法行为。所以对于AIGC服务提供者而言,安全评估是个很难避开的“关隘”。

上条规定所援引的另一份《互联网信息服务算法推荐管理规定》(下称“《管理规定》”)同样是由国家网信办制定,并与工信部、公安部和市监总局联合发布的,从2022年3月1日开始施行。该《管理规定》第二条第二款明确规定“前款所称应用算法推荐技术,是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息”,所以AIGC明显落入该《管理规定》的规制范围内。

与上述《评估规定》属于政策性文件的属性截然不同的是,《管理规定》作为我国首部聚焦于算法治理的部门规章,对不符合《管理规定》的违规行为设定了明确的行政处罚措施,对于没有依照《管理规定》第二十四条之规定履行算法备案手续的服务提供者,网信管理部门和电信、公安、市监等部门有权给予警告、通报批评、责令改正、责令暂停信息更新、罚款乃至治安管理处罚甚至追究刑事责任等一系列罚则。所以对于AIGC服务提供者而言,及时依规履行算法备案是合规运营的首要措施。

监管重点二:服务提供者和技术提供者要承担主体责任

《征求意见稿》第五条规定“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务”。

该条规定明确了服务提供者需要为AIGC承担法律责任,服务提供者包括了仅提供可编程接口的技术提供者在内,也就是说人工智能技术提供者很难再以“技术中立”的借口作为自己的免责理由,这就要求技术提供者需要关注使用技术的最终成果并对此承担法律责任了。

我国《个人信息保护法》将个人信息处理定义为是对“个人信息的收集、存储、使用、加工、传输、提供、公开、删除等”环节,如果AIGC涉及到了个人信息,那么服务提供者(含技术提供者在内)就会被视为“个人信息处理者”,而我国《个人信息保护法》以及相关行政法规对于个人信息处理者规定了相当程度的法定义务,服务提供者需要为其AIGC所涉及的个人信息承担更重的法律责任了。根据最近的新闻报道,意大利的个人数据保护局在今年3月31日就宣布暂时封锁在意大利境内访问ChatGPT的途径,理由就是“ChatGP出现用户对话数据和付款服务支付信息丢失的情况,平台没有就处理用户信息情况进行告知,缺乏大量收集和存储个人信息的法律依据”[2]。

监管重点三:服务提供者要对训练数据负责

《征求意见稿》第七条规定“提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。”

众所周知,人工智能需要连接巨量的数据资源作为模型的训练素材,而这些巨量数据通常会隐藏于人工智能模型背后,很难被用户直接感知。但AIGC又是依托于这些巨量数据而来,所以为了确保AIGC能够达到真实准确且不违法的目的,就需要对人工智能的训练数据及来源提前进行干预。

该条规定对于服务提供者其实提出了两个要求:第一款是要求服务提供者需要对训练数据的合法来源负责,这里负责的对象是数据来源;第二款是要求服务提供者只能使用内容本身不违法的数据作为训练素材,这里负责的对象是数据本身。对于服务提供者来讲,可能对于AIGC的合法性更容易通过调整算法来达成,但对于训练数据的来源合法和数据内容合法的双重要求很可能会与训练数据的巨量要求形成此消彼长的对冲态势,这对服务提供者提出了更为严苛的要求。这一条款内容在最终定稿中是否会有变化还有待进一步观察。

监管重点四:人工智能生成内容需要标识

《征求意见稿》第十六条“提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。”

AIGC真伪难辨已是一个不争的事实,所以要求对AIGC进行标识化管理的呼声也日渐高涨。而由国家网信办联合工信部、公安部发布,从2023年1月10日开始施行的《互联网信息服务深度合成管理规定》第十七条已经规定了“深度合成服务提供者提供以下深度合成服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况:……”。

但比较奇怪的是,《征求意见稿》第十六条规定的标识对象仅有“图片、视频”两种内容,而《互联网信息服务深度合成管理规定》第十七条规定的标识内容除了图片、视频外还有文本、人声、语音、拟真场景等各种生成形态。所以AIGC的标识对象范围在定稿中是否还会有所扩充同样有待观察。

监管重点五:提供者需要优化模型杜绝再犯

《征求意见稿》第十五条“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。”

该条规定属于本次征求意见稿的一个亮点(个人认为),采取内容过滤等补救措施是针对违法违规内容的一个惯常做法,但上条规定在此基础上增加了一个防止再次生成违规内容的更新规则,也就是说在事后补救的常规措施以外,预防再犯被作为AIGC的有效措施进行了明确规定,而且这一规定还有“3个月”的时间限制。相对于人类经常陷入“说你又不听、听又不懂、懂又不做、做又做错、错又不认、认又不改、改又不服、不服也不说”[3]的循环怪圈而言,人工智能在人类的调校下应该更能体现知错就改只是底线要求,改过不再犯才是AIGC的优势所在吧。

监管重点六:人工智能技术不得“作恶”

《征求意见稿》第十九条规定“提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。”

其实不仅是上条规定,《征求意见稿》的第四、七、十、十二、十三、十八条的规定内容都在反复强调人工智能技术及其产品不得被用于违法违规以及不道德的用途。如此规定其实来源于AIGC在现实中已经凸显的海量问题,诸如知识产权侵权问题、个人信息安全问题、数据泄露风险问题、深度合成虚假问题以及不正当竞争加剧问题等等。“眼见为实”的传统认知已经在人工智能技术的飞速发展下面临巨大挑战,所以在法律规制文件中强调道德可能也只是一种无奈之举。

综上,人工智能的快速崛起在向人类提供美好前景的同时也带来了超乎寻常的风险和问题,至少在如何规制人工智能的问题上人类还处于早期摸索阶段,也不可能向人工智能求教如何解决,如何平衡发展和风险决定了今后监管的基本走向。

注释:

[1] http://www.cac.gov.cn/2019-03/20/c_1124259405.htm;
[2] http://www.cac.gov.cn/2019-03/20/c_1124259405.htm;
[3] https://www.bilibili.com/video/av14231399/?vd_source=7161eb50f504d8b667aa27586d6dbd17;电影《江湖》台词


本文来源丨知产前沿

作者简介

道可特北京办公室高级合伙人邓勇

邓勇
道可特北京办公室高级合伙人

业务领域:知识产权、反不正当竞争、数据合规、信息安全、电子商务

道可特北京办公室高级合伙人邓勇

邮箱:dengyong@dtlawyers.com.cn

可能感兴趣

专业团队
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z
检索
行业研究
更多
  • 《2018中国不良资产蓝皮书》
    绿法联盟研究院基于对整体不良资产行业进行深入的考察、研究的基础上,与北京市道可特律师事务所共同编制了《2018中国不良资产蓝皮书》,希望能够对行业带来指导,也能体现不良资产行业本身的创新,具有一定的学术性和公益性。
  • 《央企(A股)上市公司法律健康指数报告》
    《央企(A股)上市公司法律健康指数报告》是目前市场上首份以法律健康为导向和评判标准的、研究央企(A股)上市公司发展健康度的指数报告,是第一份由第三方机构推出的带有公益性和学术性的央企(A股)上市公司指数报告,是研究、评价央企(A股)上市公司的一个全新视角与一项创新性举措。报告对央企(A股)上市公司的健康度做了全视角、多层次的分析和解读;报告以动态发展的数据库为支撑,在绿法(国际)联盟(GLGA)的协调下与相关监管部门、治理机构、重要行业组织、经营主体形成互动机制,围绕央企(A股)上市公司开展长期跟踪研究,努力推出对认识央企(A股)上市公司、推进央企(A股)上市公司发展具有重要影响的学术成果。
  • 《全国保险行业法律健康指数报告(2015-2017)》
    《全国保险行业法律健康指数报告(2015-2017)》是由绿法(国际)联盟(GLGA)作为编制单位,北京市道可特律师事务所作为专业支持单位,并在外部专家团队的指导下,共同打造的资本市场行业法律健康指数报告系列研究课题之一。2017年,绿法(国际)联盟(GLGA)成功发布了其资本市场行业法律健康指数报告系列研究课题的首份研究成果,即《私募基金行业法律健康指数报告》。《保险行业法律健康指数报告》是该研究课题的第二份研究成果。
同道计划
更多
  • 【同道计划一】
    道可特希望联合全国志同道合的律师朋友们,一起建设事业平台,一起实现事业梦想,特推出“同道计划”。“同道计划一”旨在全国范围内招募道可特分所的合作伙伴、事业合伙人、执行主任。
  • 【同道计划二】
    “同道计划二”旨在全国乃至全球范围内招募道可特总部和北京办公室的合伙人和律师,共同成为行业、自己、市场、客户想要的样子。
  • 【同道计划三】
    “同道计划三”旨在全国乃至全球范围内招募道可特全国分所合作伙伴。道可特全国乃至全球发展蓝图,需要更多伙伴一起绘制,让我们共同打造一家让人尊敬的律所。
品牌活动
更多
  • [03/22]道可特2024创新季启动仪式
    当“新质生产力”成为两会C位词,各行业、各地区纷纷发力,竭力做好创新这篇大文章。法律行业不外如是。随着时代发展和法律行业的变革,创新已成为律所提升竞争力的关键。敢于求变,勇做破局者;勇于求新,争做开创者也是道可特一直坚持的发展内核。
  • [12/27]地方型律所的发展路径选择和竞争力打造专题研讨会暨道可特济南办公室成立五周年庆典
    2018年,道可特落子泉城,设立道可特济南办公室。作为道可特第二家分所,济南办公室定位于品牌市场旗舰店和道可特全国法律市场开发试点,是道可特在专业化、规模化、品牌化发展道路上迈出的重要一步。依托总部一体化管理平台,立足区域优势,历时五载春秋更迭,济南办公室实现了自身跨越式的发展,也见证了区域法律行业的发展与变化:行业竞争加剧、业务半径有限、人才引力不足,品牌规划不明晰……如何破茧、突围正在成为区域律所亟待解决的难题。2023年12月27日,在道可特济南办公室成立五周年之际,我们将举办“地方型律所的发展路径选择和竞争力打造专题研讨会暨道可特济南办公室成立五周年庆典”。届时,各界行业翘楚、知名媒体机构代表等嘉宾将悉数出席。
  • [12/23]聚焦企业合规服务经济高质量发展专题论坛暨道可特天津办公室成立五周年庆典
    2018年,道可特第一家分所落子海河之滨;同年,是为“企业合规元年”。2023年,道可特天津办公室成立既满五周年;同年,是为“企业合规深化年”。五载时光,道可特天津办公室已在津城熠熠生辉,合规热潮也已波及到经济社会的方方面面,成为企业走向国际市场、高标准对接国际经贸规则的必由之路,成为推动企业高质量发展、行稳致远的法治密码。聚焦企业合规服务经济高质量发展成为大势所趋!