新闻
《生成式人工智能服务管理办法》公布 部分条款米乐 M6引发热议
米乐M6 M6米乐米乐M6 M6米乐4月11日,《生成式人工智能服务管理办法(征求意见稿)》(以下简称《意见稿》)出台并公开征求意见。尽管国内大模型研究和商业应用仍处于发展初期,但监管立法来得很快,对比全球政府的监管行动,中国无疑走在了前面。这份《意见稿》对生成式AI技术、生成内容、主体责任、数据源和数据处理等方面都做出了规定。人工智能的立法不仅需要对新业态进行管理,更应当体现支持技术创新的理念,《意见稿》即体现了这种立法精神,体现了提前研判、提前介入、提前监管的思路,有助于企业及早构建合规解决方案,提前布局必要的合规机制和工具,有效减少风险。
同时,也有学者认为,生成式人工智能产品确实可能会出现人格权、知识产权等问题,在解决这些争议问题的具体条款上,业界存在一定的争议。目前人工智能产业刚刚起步,业界还不清楚究竟会出现哪些问题,又需要设置哪些规则。在这种情况下,过于保守或超前的立法都可能会阻碍技术的发展,限制技术的创新。
对于《意见稿》第九条“真实身份信息”条款,有学者提出了自己的观点。《意见稿》提到:“提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。根据《网络安全法》第二十四条的规定,“网络运营者为用户办理网络接入、域名注册服务,办理固定电话、移动电话等入网手续,或者为用户提供信息发布、即时通讯等服务,在与用户签订协议或者确认提供服务时,应当要求用户提供真实身份信息。用户不提供真实身份信息的,网络运营者不得为其提供相关服务。”生成式人工智能服务本身并不是一种“信息发布”,对话是人与机器之间的输入和输出,并不向公众传播。生成式人工智能服务也不是“即时通讯”,因为这种对话只是人与机器、模型的对话,而不是人与人的对话。
北京大学法学院薛军教授表示:“生成式人工智能服务,在特定情况下更类似于搜索服务,本质是一种智能检索,应当允许用户以游客的身份使用。比如,必应搜索引擎迁入了ChatGPT问答模型,普通游客都可以浏览使用。这样,也可以更好保护用户的隐私,方便网民使用。”
从《意见稿》中不难看出,新规将生成式人工智能作为一种产品,适用民法上侵权责任中的产品责任,来解决生成式人工智能可能造成的损害问题。《意见稿》第5条规定生成式人工智能产品提供者承担该产品生成内容生产者的责任,从文本表述来看这种责任定位包含了产品生产者和内容提供者责任,有过于严苛之嫌。从AIGC技术特征上来看,其并非内容提供者,而是利用大语言模型和公共、开放数据根据用户输入生成搜索信息,更类似于一种搜索引擎服务即信息定位服务,而非信息内容提供者。而如果将其理解为产品简单套用传统产品责任中严格责任原则,也值得进一步商榷。
中国人民大学未来法治研究院副院长王莹表示:“《管理办法(征求意见稿)》第5条规定生成式人工智能产品提供者承担该产品生成内容生产者的责任,从文本表述来看这种责任定位包含了产品生产者和内容提供者责任,似乎有过于严苛之嫌。”从AIGC技术特征上来看,其并非传统网络法中的内容提供者,而是利用大语言模型和公共、开放数据根据用户输入搜索、生成合成信息,作为一种生成合成类算法应用,并非传统网络法中的信息内容提供者,其根据用户的指令生成的信息向用户展示,也不能理解为传统的信息发布、传播。而将其理解为产品简单套用传统产品责任中的严格责任原则,也值得进一步商榷。
王莹认为,目前生成式人工智能仅生成文本、图像、声音等信息内容,并不会像传统的产品瑕疵那样直接导致生命健康安全问题,其作为一个人工智能产品最多涉及到人格权侵权、著作权侵权。生成式人工智能引发侵权问题,可能来自于人工智能本身的漏洞或技术现有水平,人工智能的学习训练到生成的过程并不是完全可解释和可控的。2022年9月通过的欧盟《人工智能民事责任指令》规定只有高风险的AI应用才承担AI严格责任。最新的欧盟《人工智能法案》的立法讨论也未将Chat-GPT简单界定为高风险AI应用,该技术是否属于高风险AI应用,或者将其作为通用人工智能跨越高风险、低风险的分类视为一种新的类别加以监管,仍然是一个开放性的问题。
在训练数据方面,《意见稿》提到:服务提供者能够保证数据的真实性、准确性、客观性、多样性。大模型离不开数据的训练,如果对于训练数据作出过于严苛的规定,将严重阻碍大模型的发展速度。数据训练的规模会决定人工智能生成内容的质量,数据的数量和质量比算法和模型更重要,美国可以做出ChatGPT,很大程度上在于美国对于全世界数据的收集和掌握。从欧盟、美国、韩国、日本等国家针对预训练数据合法性的要求来看,为了支持大模型的发展,他们允许使用各种出版物对生成式人工智能训练数据进行分析。因此,如果由于真实性、客观性等问题无法使用相关训练数据,将对人工智能技术发展带来很大的负面影响。
新技术发展和监管合规是相辅相成的关系,新技术的发展离不开监管在机制体制建设上的完善,以及适时的产业政策引导。同时,监管政策也正在积极适应新技术的革新。生成式人工智能自面世以来,监管机构对数据处理主体、数据处理过程以及伴随的国家安全和信息安全的认识也在逐步清晰。未来随着更多生成式人工智能应用落地并普及,一些潜在的风险将更多被认识和暴露,监管侧的监管措施也会更“对症”,《意见稿》只是第一步。
1. 凡本网注明“来源:消费日报网” 的所有作品,版权均属于消费日报网。如转载,须注明“来源:消费日报网”。违反上述声明者,本网将追究其相关法律责任。
2. 凡本网注明 “来源:XXX(非消费日报网)” 的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其线. 任何单位或个人认为消费日报网的内容可能涉嫌侵其合法权益,应及时向消费日报网书面反馈,并提供相关证明材料和理由,本网站在收到上述文件并审核后,会采取相应措施。
4. 消费日报网对于任何包含、经由链接、下载或其它途径所获得的有关本网站的任何内容、信息或广告,不声明或保证其正确性或可靠性。用户自行承担使用本网站的风险。
5. 基于技术和不可预见的原因而导致的服务中断,或者因用户的非法操作而造成的损失,消费日报网不负责任。M6 米乐