【小哈划重点:ChatGPT“不会成为代替订阅《纽约时报》的选项”,称“包括《纽约时报》在内的单一数据源,对大模型的预期学习并不重要,因为大模型是从人类知识的巨大集合中学习”。】
据央视新闻3月21日报道,法国市场监管机构日前宣布,已向美国谷歌公司开出一张2.5亿欧元(约合人民币19.7亿元)的罚单,原因是谷歌未经同意使用法国出版商和新闻机构的内容训练旗下的聊天机器人“巴德”(其升级版名为“双子座”),违反了欧盟知识产权的相关法规。谷歌就此成为了第一家因为训练数据而被罚款的人工智能(AI)公司。对此,学者向澎湃新闻表示,谷歌遭到处罚,可能会导致今后出现越来越多类似的诉讼。
在AI技术更新迭代非常迅速的前提下,AI公司在获取训练大模型的数据时,如何界定获取语料的合法性?专家认为,目前数据权益保护问题仍存在模糊地带,但可以出台健全市场和管理的方法应对这些问题。
谷歌被首罚成先例,不排除有更多类似诉讼
报道称,法国监管机构表示,作为和解条件,谷歌对其违规行为不作辩解,并将提出有关措施,以修正产品和服务缺陷。谷歌对此回应称,希望寻求和解是因为“该往前走了”。“我们希望专注于更大的、可持续的方法,把用户和高质量的内容联系起来,并与法国出版机构进行建设性合作。但需要注意的是,监管机构没有充分考虑我们为解决问题所做的努力,因为在‘探索新路’的过程中,我们无法预测未来的风向。”
谷歌与法国出版机构之间的纷争,始于2019年。当时,法新社等多家法国媒体机构曾向监管机构投诉,称谷歌未经允许,擅自使用这些机构出版的网络内容。2020年,监管机构要求谷歌与相关出版机构就内容付费进行谈判,但因为谈判未果,监管机构于2021年向谷歌开出了5亿欧元的罚单。2022年,谷歌与相关媒体出版商达成和解协议。
在此次的声明中,监管机构称,谷歌违反了和解协议中的几项条款,包括与相关出版机构谈判、提供透明信息等。监管机构特别提到,谷歌利用媒体平台和新闻机构的数据,用于训练2023年推出的“巴德”,但未告知相关出版机构和监管机构。为此,监管机构表示,“对谷歌的AI服务感到担忧”。
因为此次争端,谷歌成为首家因为训练数据而被罚款的AI公司。在AI更新迭代迅速的前提下,谷歌的案例对于其他AI公司是一个警示,还是今后会有更多类似的诉讼?复旦大学计算机学院教授、复旦大学上海大数据实验室主任肖仰华向澎湃新闻表示,类似的诉讼可能会越来越多,这些诉讼可以被认为是AI产业发展过程中的必然问题。“AI发展核心在于数据,所以AI公司非常渴求高质量数据。在收集和使用数据的过程中,这些公司会加大数据收集力度,但会有意无意地侵犯其他主体的数据权益。另一方面,数据权益保护目前仍存在模糊地带,包括制度供给、实践案例等。”
从法律的角度看,上海交通大学媒体与传播学院教授陈堂发认为,法国监管机构对于谷歌的处罚具有法律依据,这对其他的AI公司应该具有警示功能,处罚行为表明AI研发及产品使用如果涉及大规模使用他人作品的训练,无疑存在法律风险。
传统媒体与AI公司之间的版权之争
为确保获得使用出版机构内容作为数据训练的许可,另一家科技公司OpenAI于2023年与美联社、德国媒体巨头Axel Springer等达成有关协议。不过,该公司没有与《纽约时报》就有关问题达成协议,因此在2023年12月被该报起诉。《纽约时报》称,OpenAI和科技巨头微软“非法复制和使用该报独特、有价值的作品”,要求两家公司销毁任何使用到该报版权材料的聊天机器人模型和训练数据。《纽约时报》表示曾与两家公司接洽,提出对他们使用其版权内容的担忧,并希望探索“友好的解决方案”,比如提出围绕生成式AI产品的商业协议等,但当时的谈判未得出解决方案。
《纽约时报》就此成为第一家就版权问题起诉AI公司的美国媒体。起诉内容显示,大量由该报刊发的文章被用作训练聊天机器人的数据,且有分析认为,这些聊天机器人正在与传统新闻出版平台竞争,同样希望成为“可靠的消息源”。此外,《纽约时报》还在诉讼中引用一些案例,表明一些在该报网站上需要付费订阅阅读的文章,ChatGPT等聊天机器人可以免费向用户提供。
目前的多项争端,多由《纽约时报》、法新社等媒体机构提起。肖仰华分析称,由于目前媒体界呈现出新媒体挑战传统媒体的局面,再加上生成式AI会侵犯传统出版机构的利益,因此传统媒体在这个问题上更敏感。
对于这项诉讼,OpenAI曾多次回应称“感到惊讶”,“因为双方本处于非常积极和富有成效的谈判中”。OpenAI方面表示,旗下的聊天机器人ChatGPT“不会成为代替订阅《纽约时报》的选项”,称“包括《纽约时报》在内的单一数据源,对大模型的预期学习并不重要,因为大模型是从人类知识的巨大集合中学习”。
OpenAI首席执行官奥特曼还在今年1月的达沃斯经济论坛上表示:“AI不需要从《纽约时报》等出版商那里获取大量训练数据。”2月,OpenAI直言,称《纽约时报》为获取证据使用“欺骗性提示”,甚至“雇人黑入了OpenAI的系统”,但未明确指出所谓“黑客”的身份,以及该报可能违反的反黑客法。OpenAI此举,遭到《纽约时报》反驳,称OpenAI没有否认“在法定诉讼时效期内,未经许可地复制了该报作品”。
社交平台或成监管真空地带
相较于出版物有版权作为制约,AI公司使用社交平台数据训练模型,更容易走进灰色地带。2023年,特斯拉公司首席执行官马斯克表示,其拥有的社交平台“X”(原推特)会使用收集到的公开数据训练大模型,但不会涉及用户的个人隐私数据和私信内容。不过,马斯克曾公开批评微软等科技公司,称这些公司“非法使用‘X’上的数据训练大模型”,并威胁会就此提起诉讼。
本月早些时候,OpenAI首席技术官穆拉蒂(Mira Murati)接受了《华尔街日报》采访。对于该公司用何种数据训练旗下的文生视频大模型Sora的问题,穆拉蒂表示,“我们使用公开的数据,以及经过许可的数据。”但当被问及其中是否包括脸书、YouTube等社交平台的数据,穆拉蒂只能简单地以“我不确定”作为回应。
在这种背景下,如何界定AI公司是否合法使用和获取了社交平台上的语料?肖仰华认为,AI公司是否能无所顾忌地使用公开或半公开的数据,是一个处于模糊地带的问题。“现有法规已经滞后于大模型训练相关的新型数据权益保护需求。因此有两个比较关键的点,一是健全与完善数据要素市场,二是加强大模型训练语料的安全合规认证与管理。”
在市场的层面,为了减少类似纠纷,同时给AI公司获取语料划定边界,陈堂发表示,“途径之一,就是相对清晰地切割纯粹科研或个人学习欣赏使用AI,与商业性使用AI的具体情形。前者的作品使用具有公益属性可以免于责任,后者的作品使用应当遵从市场法则。”
在总体的AI监管层面,为弥补漏洞,欧盟和联合国先后通过有关法案。3月13日,欧洲议会正式投票通过并批准欧盟《人工智能法案》,内容包括严格禁止“对人类安全造成不可接受风险的AI系统”,比如有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。
3月21日,联合国大会投票通过了第一个有关AI的决议草案,以确保这项新技术能够惠及所有国家、尊重人权并且是“安全、可靠和值得信赖的”技术。决议还承认“AI系统的治理是一个不断发展的领域”,需要进一步讨论可能的治理方法。
责任编辑:张无为,校对:施鋆