Chinese | English  
法学院
  学院新闻
当前位置: 首页 > 学院新闻 > 正文

《生成式人工智能服务管理办法(征求意见稿)》研讨会会议综述

发布时间: 2023-04-25     来源:    点击量:


 

(通讯员:米钰洁 陈娅诺)2023年4月18日,《生成式人工智能服务管理办法(征求意见稿)》研讨会在天津大学法学院会议室成功举办。来自天津大学法学院、南开大学法学院的专家学者以及和平区人民检察院的检察官共同出席会议。会议由天津大学法学院副教授王燃主持。会议伊始,天津大学法学院院长孙佑海指出今天的会议集中在管理办法的必要性、可行性、具体内容修改三方面,各位与会人员可以围绕以上要点充分发表意见。会后,天津大学法学院师生也通过线上方式发表了意见。现将意见和建议综述如下。

 

和平区人民检察院昝凌霄检察官:

 

 

 

生成式人工智能自问世起就引发了很多的争议,国家有关部门制定《生成式人工智能服务管理办法》是对社会热点的一次迅速回应。从检察机关的角度而言,如果对新的技术产品规制不严,极容易放任其对社会的安定造成风险,这也会对司法机关办案造成不便。因此,在相关的人工智能产品出台后,对其进行管理是相当必要的。

 

对办法征求意见稿具体条文的意见。第一,管理办法整体只强调了提供者的责任,几乎没有提到使用者的责任,建议增加。第二,第四条第一项、第四项提到不得生成虚假信息,在现有技术条件下过于严苛,比如基于算法、模型、规则生成的东西,必然是会有一些错误,比如由于提供者的数据量限制,存在一些人工智能不知道答案的问题,它会根据模型编造答案,建议第一项删除虚假信息一词,第四项删除真实准确的要求,修改为采取措施防止利用生成式人工智能生成虚假信息。第三,第五条关于提供者承担生产者责任,所谓生产者责任并不明确且过于严苛,建议明确提供者具体承担哪些义务。第四,第九条关于用户须提供真实身份信息,应该像百度等搜索引擎,对于仅使用类搜索功能的人工智能服务,应当允许用户以游客身份使用。第五,第十四条关于生命周期,说法不明确,建议明确是何物的生命周期。第六,第十五条,没有明确从何时起算三个月。第七,第十九条规定提供者发现使用者违法使用仅暂停或终止服务,建议增加移送线索至相关部门的规定。

 

和平区人民检察院诸葛达检察官:

 

 

 

对第四条的建议:第四条第(一)项及第(四)项中均提及了“不得生成虚假信息”,第四项还规定“利用生成式人工智能生成的内容应当真实准确”。个人认为考虑到“生成式人工智能”的具体生成原理,在“虚假信息”缺乏定义的情况下,可能会影响最终生成服务的提供。而且要求尚不成熟的生成式人工智能领域适用“真实准确”这样的词语,以生成式人工智能目前的发展速度,达到“真实准确”尚有难度。此外,在数理、推理等生成式人工智能弱项领域,结果出现错误的情况也会更为明显。因此,建议将第四条第(一)项“虚假信息”删除,将第四项删除。

 

对第七条的建议:第七条第二款第四项规定“能够保证数据的真实性、准确性、客观性、多样性”。大语言模型必定包含了足够大量的训练语料,要确保全部数据都真实、准确、客观,没有任何错误、纰漏、主观判断,不具有可行性,任何一个提供者都无法做到以上四个特性,这只会频繁加重提供者的义务,导致收集数据更加艰难。因此,建议将第七条第二款第四项部分修改为“能够保证数据的合法性、多样性”为宜。

 

对于第十条的建议:本条要求提供者应当 “采取适当措施防范用户过分依赖或沉迷生成内容”,但“过分依赖或沉迷”意义不明,可能会造成误解。首先,人工智能服务应用于大量辅助工作,在没有区分娱乐性和辅助性服务的情况下,直接要求设置措施防止“依赖或沉迷”,无论是从使用次数或时间上去限制,都会严重影响辅助工作的人工智能服务的使用,不利于体现利用人工智能服务提升工作效率的优势。建议:将本条修改为“第十条 ……,针对娱乐型人工智能服务的,提供者采取适当措施防范用户沉迷生成内容。”或直接删除这后半句。

 

对第十一条的建议:本条要求提供者 “不得非法留存能够推断出用户身份的输入信息”,其中“非法留存”缺乏明确定义。本办法缺少对如何“合法留存”进行说明。是否用户同意或要求即可留存?或是否有“合法留存”的办法?这将导致本条的“非法留存”缺乏“非法”的依据。此外,生成式人工智能通常需要联系用户提交的信息来推断、改进生成内容,一旦不能留存用户身份信息,将会对整体用户体验产生明显的影响,无法根据用户提供的信息生成内容等情况。建议:将本句修改为“未经用户明确同意,不得留存能够推断出用户身份的输入信息;……”

 

 对于第十九条的建议:本条规定了提供者发现用户实施相关不当行为时,“应当暂停或终止服务”。这句存在歧义的情况,可能会包含“用户违规,而提供者本身暂停或终止服务”的意思。建议:将本条修改为“第十九条 ……,应当暂停或者终止向其提供服务。”

 

南开大学法学院王彬教授:

 

 

 

首先,《生成式人工智能服务管理办法(征求意见稿)》中的禁止性规范与义务性规范过多,而促进性或激励性规范过少。对于新兴人工智能技术以及产业,其发展尚不成熟,在技术运行中会产生各种意外后果,法律应以促进产业发展为主,而不能以规制监管为主。其次,从规章的整体结构来看,文件欠缺了伦理和社会责任方面的规定

 

对办法征求意见稿具体条文的意见。第一,第二条中的公众”不够严谨,可改为自然人、法人或其他组织。“面向中国境内”这一说法,可改为中华人民共和国境内的生成式人工智能使用者使用该服务的,亦适用本办法。因为,跨境技术可规避该条款约束。第二,第四条第二项,应改为“在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,应坚持平等和反歧视原则”因为生成式人工智能具有数据依赖性,难以避免歧视的生成。第三,第四条第四项应改为“利用生成式人工智能生成的内容应当真实准确,应在必要时建立不实信息纠正机制。”因为生成式人工智能只关注信息的相关性,不具备对数据等信息进行真实性审查的能力。第四,第七条中的数据来源改为“数据采集、使用和存储的合法性负责”。

 

天津大学法学院孙佑海教授:

 

 

 

首先,制定管理办法很有必要性。尽管国家已经制定了《网络安全法》《数据安全法》《个人信息保护法》,但是面对新问题,立法领域还是存在空缺,对于新技术行为,需要用新的制度措施来规制。制定生成式人工智能管理办法是大势所趋。

 

其次,从法规的总体内容看,所规定的内容实际情况相符。但仍然存在一定问题需要调整:第一,“提供者”的概念在第五条出现,提出位置有些后置,应当在第二条就作出规范。由于在第四条中已经出现动词“提供”,如果提供者的概念在第五条才出现,立法技术就不合理了。第二,整个管理办法没有提到主管部门,需要进行补充。第三,规范用语方面稍有欠缺,比如在一个条文多次出现“应当”如何、“不得”等。第四,第五条“承担该产品生成内容生产者的责任”前面可以加入“应当”。法条中提到的“生产者责任”“法定责任”“个人信息保护义务”这样的排列不符合法理,“责任”应当放在违反义务的法律后果中。第五,管理办法发布主体的问题,需要符合《立法法》的规定。第二十条“网信部门和有关主管部门”可以责令改正、罚款等属于行政处罚,已经超出的规章的规定的范畴。对于生成式人工智能的管理规定,应当由国务院制定。

 

总体来看,制定这个办法是必要的,制定时机也恰当。生成式人工智能的开发利用对我国影响很大,目前我国已经出现相关技术的运用,而外国占据了技术和推广行为的主导。因此,需要依照法律进行监管。

天津大学法学院熊文钊教授:

 

 

 

第一,从《生成式人工智能服务管理办法(征求意见稿)》的宗旨来看,虽然文件的第一条中提到了促进生成式人工智能的健康发展和规范应用,但从具体条文来看,落实促进健康发展的条文内容非常少,仅在第三条中有所提及,且仍然过于笼统和概括。可以增加涉及政策扶持、行政指导或者在政策指引方面的条款。

 

第二,对于生成式人工智能这一新兴领域,在规范时可以从抽象角度入手,做一般性的规定,从“应当”和“禁止”正反两个方面列举原则性的规范。因为这种新的技术领域目前仍属于快速发展阶段,未来也可能覆盖未知的领域,如果采用列举式的规范方式,很可能造成疏漏,规范的效果也会大打折扣。因此,应当从一个更具前瞻性的角度去对其进行监管服务。

 

第三,从文件的适用对象来讲,文件宗旨包括两方面,一方面促进健康发展,另一方面规范应用。这使得技术提供者和技术使用者都成为文件规范的对象,因此应当在文件中增加一条宗旨条款,即规范应用的对象既包括提供者又包括使用者。在具体条文中,也应当明确指向的对象是提供者还是使用者,抑或是二者皆有。

 

第四,应当运用程序的方式来对生成式人工智能进行监管和控制。比如,对生成式人工智能进行备案、登记或者报告等方面的制度设计;在追究责任方面,增加类似举报和受理的程序制度安排。程序能够为监管部门提供一个有标准的判断空间,比如通过专家论证和听证来对技术上的具体问题进行综合判断。程序是监管的重要方式,要加强程序的控制,再通过程序的机制来规制技术。文件通篇对监管程序和追责制度的设计都有欠缺,如此无法达到监管的目的,也可能导致追责时乱象丛生。尤其是第十三条中提到的,“提供者应当建立用户投诉接收处理机制”,应当细化此处的程序设计。

 

第五,法律责任承担部分不够完备。第二十条将法律责任承担者定位为提供者,这局限了处罚范围,本规章实际上是《网络安全法》《数据安全法》《个人信息保护法》等法律的下位规则,因此受处罚的范围应当依据上位法来制定。对于上位法律和行政法规没有规定的情况,可以在这里改成情节严重,同时删去罚款数额的规定。因为根据《行政处罚法》的规定,制定本规章的主体没有权限设定加重相对人损益性权利的规定,且处罚金额的设立需要报国务院批准。在本文件中删去具体的罚款数额不代表没有法律法规对此做出规定,而是可以将具体的违法情形对应至上位法规定的违法责任,根据上位法的规定进行处罚。

第六,生成式人工智能立法的必要性问题。目前立法具有一定必要性,应当结合人工智能发展情况,与国家人工智能发展战略相对接,从而促进人工智能的发展。

第七,国家应当制定一个何种级别的文件来规范人工智能?以规章的形式进行规制较为及时,但在司法实践中不能作为判案的标准,提升到行政法规层面对人工智能进行规范,更有利于促进社会的发展。   

第八,规范方式问题,可以采取加强原则导向的方式。加强对原则性规定的制定,为规范留下较为足够的空间。在规章中加强对程序规则的制定,从而在监管过程精准地来平衡各方的利益。

第九,规则的适用性问题。在制定规则时,要注重进行广泛的调查研究,列举主要问题和未来可能出现的问题,针对这些问题来起草解决方案,对于尚未发展完全的问题,要留下一定的立法空间。本次会议中我们对本阶段应该建立一个怎样的规则发表意见,希望这次会议的讨论意见,能够通过有效的渠道反馈至网信部门,为生成式人工智能的发展提供帮助。

 

 

天津大学法学院田野教授:

管理办法第五条中提供者内涵略显宽泛。提供者其实包含了生成式人工智能的研发者、利用者。利用者可能是一些调用和接入开发者端口的主体,他们再向公众提供服务,如目前手机应用中的Chatbard、Ask AI、Chat Bot等软件。第十三条的“个人隐私”建议改为“隐私权”。该条前面的表述“肖像权、名誉权”都有“权”字,隐私权也是法定的具体人格权类型。第十四条“生命周期”缺少定语,即什么的生命周期?第十八条“形象”不是规范的法律术语,前面的条文(第四和第十三条)用的都是肖像权,这里为何用“形象”?第二十条仅规定了行政和刑事责任,没有规定民事责任。

 

天津大学法学院刘海安教授:

 

 

 

第一,从规范主体出发,文件中仅提到了提供者和用户,但是用户与使用者的概念并不完全等同,用户是直接向人工智能提问,然后获悉答案的主体;但使用者可能是从用户处获取信息之后,再进行使用的主体。提供者也可能有两种分类,第一种是技术的提供者,第二种是内容的提供者,用户本身也可能成为内容提供者。因此应当在制定规范时具备一定的前瞻性,明晰几个主体的概念和关系,再区分使用场景。尤其在利用信息从事违法行为时,不同主体可能承担不同的责任。

 

第二,关于使用者的规范较少。使用者也可能进行侵权等违法行为,从而涉及到法律责任的问题。《办法》的第五条提到了责任承担的问题,但其仅规定了提供者承担责任的问题,该条的内容仍有待商榷。提供者如果只提供了技术,并不能保证最终成果的用途及其准确性,对于损害结果并不具备控制性和可预见性。而用户和使用者作为使用技术的一方,明知其具有虚假的风险仍然使用,对可能造成的损害具有预见性。因此,由提供者来为损害结果承担责任是缺乏理论根基的。此外,从程序角度上来讲,本《办法》的制定主体是否具有制定明示性权利的权限尚且存疑。

 

第三,从真实性角度而言,第四条第四项提出,“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。”对于人工智能,真实性难以保证,但是“采取措施防止生成虚假信息”可以保留,可以在必要时提示用户技术具有虚假的风险,给用户以判断和裁量的空间。

 

第四,可以删去第十二条。第十二条意在禁止歧视性内容,但其与第四条第二款没有本质上的区别,因此没有存在的价值。

 

第五,第十一条中增加画像的主体,不得根据用户输入信息和使用情况对用户进行画像。

 

第六,第十四条中“生命周期”的定义应当进一步明确,此“生命周期”不应是人工智能产品的生命周期,而是人工智能服务的生命周期。

 

天津大学法学院蓝蓝副教授:

 

 

 

第一点,中央网信办对于生成式人工智能出台了管理办法是非常必要的。

 

第二点,从现有的法条的规定内容上来看,《办法》是相对粗陋的。原因可能基于两方面,一方面,生成式人工智能产品本身是一个新生事物,技术还在不断的发展更新过程当中。另一方面,我们对于新生事物的观察思考尚不够深入和充分,所以整体上对法条的规定比较粗陋。建议在修改的过程当中对立法的可操作性予以重点的考量和细化,在颗粒度上要再细一些,使得其更容易在实践当中落地实施。

 

第三点,目前法条的规定主要是针对的服务的提供者,但法条不应仅涉及到提供者的这个角色,还应当涉及到使用者。

 

第四点,鉴于技术还在飞速的发展中,为了使立法具有前瞻性,建议增加对于生成式AI提供和使用的基本原则的一些概括性规定。目前基本原则方面规定较少,第四条讲到了要遵守法律法规、社会公德、公序良俗,建议增加如合法、诚信、安全等内容。后续法条的内容可以以这些原则为纲,分别进行一些集中式的具体规定。

 

第五点,建议增加提供生成式AI产品过程当中,应当遵循人工智能伦理规范的要求,予以专条明确。因为当前法律规定是挂一漏万的,更何况技术本身在高速的发展,如果加上对于伦理规范的底线的设定,可以起到补缺补漏的作用。

 

第六点,是具体的一些立法表述的严谨性问题。比如第十四条,第十四条应当改为在生成式人工智能产品的生命周期内,这部分遗漏了限定词。以及第十五条,有“三个月”的期限,三个月的开始节点较为模糊,法律上的期间,应该规定好起始点。

 

天津大学法学院王绍喜副教授:

 

 

 

整体而言,第一,《生成式人工智能服务管理办法(征求意见稿)》的制定是对社会热点的及时跟进,与美国、欧盟对于人工智能的规制方向是一致的。第二,《办法》着眼于人工智能的发展的特点,就其创新性和综合性的特点采用了不同以往法律法规的立法方式,例如对个人隐私、肖像、声音、不当竞争、商业秘密、知识产权等事项做了规定。第三,《办法》着眼于底线规范,体现了对人工智能伦理的重视,这与人工智能发展的趋向是相吻合的。第四,需要注意与现有规定的衔接适用,例如厘清规定与《算法推荐管理规定》和《深度合成管理规定》的衔接适用,例如人工智能生成与算法之间就有重合,《算法推荐管理规定》第2条第2款的应用算法推荐技术就包括了利用生成合成类等算法技术向用户提供信息,两者如何区分适用,值得观察。第五,考虑到技术的迅猛发展和产业的实际情况,建议将规定名称改为“暂行管理办法”。

 

对办法征求意见稿具体条文的意见,包括以下四点。第一,第二条中有两个问题,一是表述不清晰,利用是谁的利用?主体不明确。按照题意,显然不是规范用户,而是人工智能产品的提供者;二是管辖的范围,是否面向国内公众服务提供服务的都要适用本法?举例而言,对于位于中国境外的人工智能产品,若其针对中国国内的自然人或法人,是否都要适用本法?可能不可一概而论。借鉴《算法推荐管理规定》和《深度合成管理规定》,建议改为:“在中华人民共和国境内向中国自然人、法人或其他组织生成人工智能产品或提供人工智能服务的,适用本法。”第二,第四条第一款,“提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德和伦理道德,公序良俗,符合以下要求…”第三,第五条中规范的对象是否限于服务的提供者?这里采用的是“利用”的表述,与第二条的“研发、利用”不一致。似乎可以认为,研发和利用是两种并列的行为,在研发的情形要求承担生成内容生产者的责任没有问题,是否要求利用或部分利用人工智能产品的一方承担生成内容生产者责任,值得讨论。例如,在人工智能产品生成的某个环节提供服务的一方,它要承担的责任可能不是内容生产者的责任,而是生成内容经营者的责任或技术支持者(《深度合成管理规定》)的责任,建议将内容生产者和内容经营者的责任,与《产品质量法》等法律的规定相一致。第四,第七条要求对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责,这里的合法性如何判断?如果这些数据经过第六条的安全评估,是否就是合法的?合法的判断标准是什么?似乎这是个难题。建议为删除第一款,将第二款修改为:“除遵守本规定第四条的规定,用于…应当满足以下要求…”此外,对于第二款第(二)、(三)项,可以考虑设置安全港,允许生成内容的生产者或提供者有免责的事由,否则可能不当地限制产业的发展。

 

天津大学法学院李春晖副教授:

 

 

 

总体方面,作为对新事物、新问题的回应,以临时性的办法加以引导和规制具有一定的必要性和合理性,但是要注意几个问题:一是,注意不要阻碍新兴技术和产业的发展,新技术新产业需要有发展的空间,如果管得太迅速、太死板,风险太大,可能导致没有发展的空间和动力。二是,措施要合理可行,生成式AI与人工智能在其他领域的应用不同,目前无论是科技伦理问题还是产品责任问题,都是就其生成的内容而言,而非指有形产品或者进行的某种决策,那么对于对生成内容的监管来说,是从出口端监管,还是训练和生成阶段就干预,需要考虑可行性、成本和效果问题。此外,尽管本办法是针对“服务的提供”,但是仍然要合理考虑服务提供者与使用者之间的责任界限。三是,要避免与已有法规规章的协调,尽量避免叠床架屋,可以考虑制订本办法与修订已有的《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》并举。

 

对办法征求意见稿具体条文的意见,例如,第四条第(五)项,知识产权就包括了商业秘密,因此建议删除后者,但是应当在知识产权之后加上数据权益”。关于第七条第(二)项,训练数据对受知识产权保护的内容的使用,是否在现有知识产权的权能覆盖之下尚存疑问,可能在数据权益的范畴下规制更为恰当,即修改为“不含有侵犯数据权益的内容”。关于第十一条,用户身份信息按照第九条本来就是要提供的,第十一条的本意应当是指不得根据用户输入信息和使用情况进行用户画像,不得向他人提供用户输入信息和使用记录,因此建议将第十一条的第二句话如此修改。关于第十三条,笔者一贯认为,作为一种基于自力控制的自然权利,商业秘密保护的角色不能僭越专利法,变成越来越接近专利的法定化,即不能依靠法律之力来维持商业秘密的秘密性。那么,如果说生成式AI都能够在训练数据过程中和提供服务过程中接触到商业秘密,那么其已经丧失秘密性而不再称其为商业秘密。因此建议该条删除“商业秘密”。另外,第十八条的“商业炒作”“不正当营销”、第十九条的“网络炒作”“恶意发帖跟评”“实施不正当的商业营销”,均过于宽泛,缺乏明确的、可操作的标准,容易导致执法的随意性。

 

天津大学法学院王燃副教授及苗兴宗:

 

 

 

此次征求意见稿发布后,学界确实出现了质疑立法必要性的声音。在已有《网络安全法》《数据安全法》《个人信息保护法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等法律、部门规章的前提下,是否还需要对生成式AI进行单独立法?特别生成式人工智能调整的对象与深度合成管理调整的对象如何区分?对此,我们认为深度合成技术与生成式人工智能技术属于同类技术,底层均是利用基于卷积神经网络的机器学习技术,通过大量训练数据集,使得在用户看来模型具备人工智能的外观。深度合成多用于图像和视频,其底层逻辑是通过深度学习算法学习和提取给定训练数据的特征,并使用这些特征训练生成或编辑图像或视频。《互联网信息服务深度合成管理规定》中提到的深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等,可见其立法意图上试图将各种场景全覆盖,也包括“篇章生成”“问答对话”等生成式人工智能的典型特征。而生成式人工智能其底层技术逻辑与深度合成类似,从大量的训练数据中学习,然后使用深度神经网络根据学习到的规律生成新的文本、图像、音频等,典型应用如GPT系列模型。从这一意义上来说,《生成式人工智能服务管理办法》出台似乎并非十分急迫,也可待该技术发展并观察一段时间再行立法。

 

然而,从长远来看,仍然具有对生成式AI进行立法规制的必要性。ChatGPT近期火爆全网,倒逼中央网信办在原有的《深度合成管理规定》基础上再出台一部“升级版”部门规章。ChatGPT标志着生成式人工智能进入了支持纯自然语言交互的时代,将人工智能的水平从“小爱同学”“微软小冰”之类的“人工智障”直接拔高为能够通过图灵测试的先进AI。中央网信办延续这两年“小快灵”的立法思路,快速地出台了《生成式人工智能服务管理办法》公开征求意见,其可以看作在《互联网信息服务深度合成管理规定》的基础上进行了升级,根据最新的技术发展趋势填补了一些潜在立法漏洞,例如首次对于预训练、优化训练数据这一技术过程做出了规制;首次对训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等技术性信息的提供做出了明确规定;首次提出人工智能领域的供应链、数据安全可信等。

 

关于意见稿具体条文的建议,包括以下七点。第一,第二条第一款建议增加属地管辖的规定,“在中华人民共和国境内应用生成式人工智能提供服务(适用本办法)”。第二条第二款中“算法、模型、规则”三者意思似有重复,建议改为“基于数据和算法”;“文本”本身包括代码,建议删除“代码”;建议增加“三维模型”。第二,第五条中建议明确“可编程接口”的概念和常见分类。理由:“可编程接口”或“API”这一名词此前尚未在法律法规规章或国家标准中出现过,因此建议对其概念和常见分类进行阐明。第三,第七条第四款中的“真实、准确、客观”三者意思似有重复;此外,生成式AI的训练数据本就有可能是虚拟的,如采用“合成数据”等来增强其训练数据。同时建议删除“多样性”,因为训练数据的“真实性、准确性、客观性”均属于客观标准,一般的服务提供者具备判断能力,但数据“多样性”属于主观标准,难以达成一般性共识,且未说明是指的数据出处的多样性、数据倾向的多样性还是数据质量的多样性,可能导致实践中判断标准模糊。第四,第八条中建议将“研制”修改为“研发”,与第二条第一款相统一。第五,第九条建议修改为“生成式人工智能服务提供者应当基于移动电话号码、身份证件号码、统一社会信用代码或者国家网络身份认证公共服务等方式,依法对用户进行真实身份信息认证。”理由:关于服务实名认证相关规定,建议与《互联网信息服务深度合成管理规定》第九条保持一致,规定提供多种途径的身份认证选择,避免用户身份信息的重复收集或过度收集。第六,第十一条规定“不得根据用户输入信息和使用情况进行画像”是否过于严苛?用户画像是互联网服务中常见应用,可有效改进用户服务体验,对此进行一刀切是否合理?建议删除关于用户画像禁止的规定。第七,第十七条主要是透明度的规定,要求对训练数据、人工标注规则及算法模型等进行开示。该条规定开示范围是否过广?是否有考虑到开发者关于商业秘密的保护需求?此外,《互联网信息服务算法推荐管理规定》第十六条也仅规定“以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等”,并未要求数据及算法完全开示。因此,建议该条规定与《互联网信息服务算法推荐管理规定》第十六条相一致,限缩数据、算法开示范围,或者区分应用场景进行分级开示。

 

天津大学法学院陈雪老师:

 

 

整体而言,首先制定此管理办法是非常有必要的,目前生成式AI已经成为大趋势,目前大型互联网企业每隔一段时间便会发布新技术,在技术快速发展阶段出台管理办法进行规制一定是具备必要性的,但是规制力度和风险程度需要斟酌考量,目前很多条款看似是正确的但是尚不具备充足的可操作性。此外,现有的都是措施没有针对使用者进行规范,都是针对提供者提供了一些约束条件。用户也要负一定责任,因为AI生成内容是和用户有关系的。所以要加强对用户责任的认定,不能让所有的责任都由提供方来承担。下面我将结合条款谈一下自己的看法:

 

首先,第四条中第四款提到要求真实准确”,那么真实准确的程度和范围如何界定,生成式人工智能生成内容,例如人工智能创作的文章、图片、视频本就属于“不真实内容”,这是生成式人工智能本身的服务之一,如果强行要求人工智能生成内容必须真实准确则与该技术初衷不相符。而且生成内容的准确度也跟用户的prompt有关。其次,第九条是否需要提供真实身份信息有待商榷。再次,第十一条提到了画像,“画像”是一个行业中的词,并没有规范的定义,何种行为可以被定义为“画像”也是至关重要的问题。对用户输入的整合和统计可以提供更为个性化的服务,但是这种行为在本条中似乎被排除。之后行业如何在不“画像”的情形下提供更为智能的服务是整个行业需要思考的问题。条款指出“不得根据用户输入信息和使用情况进行画像”是否与第九条已经提到了要提供真实身份信息矛盾。从次,第十六条,需要明确标识的形式是什么样的,是需要添加水印还是一些隐含的形式,是否会影响商用?最后,第十五条:提供者足以在三个月内解决人工智能的“漏洞”,而这对生成式AI厂商而言无论从技术上还是实践中均为很高的要求,而且条款也没有明确指明三个月的具体起止时间。

 

天津市南开区卫津路92号  邮编:300072
天津大学法学院版权所有