2022年11月底,人工智能对话聊天机器人ChatGPT推出,迅速在社交媒体上走红,短短5天,注册用户数就超过100万。2023年1月末,ChatGPT的月活用户已突破1亿,成为史上增长最快的消费者应用。目前,ChatGPT在我国火爆全网,在迅速成为人们热议的话题后,也引来法学界关注的目光。

ChatGPT生成的内容构成作品吗

ChatGPT是美国OpenAI研发的聊天机器人程序,是人工智能技术驱动的自然语言处理工具,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码、论文等任务。ChatGPT受到关注的重要原因是引入新技术RLHF(Reinforcement Learning with Human Feedback,即基于人类反馈的强化学习)。ChatGPT被描述为优化对话的语言模型,能够在同一个会话期间内回答上下文相关的后续问题。然而,其在短时间内引爆全球的原因在于,ChatGPT不仅能流畅地与用户对话,甚至能写诗、撰文、编码。

公开资料显示,一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。但是,《科学》(Science)明确禁止将Chat-GPT列为论文作者,且不允许在论文中使用ChatGPT所生成的文本。《自然》(Nature)允许在论文中使用ChatGPT等大型语言模型工具生成的文本,但不能将其列为论文作者。在国内,《暨南学报(哲学社会科学版)》发布的关于使用人工智能写作工具的说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。《天津师范大学学报(基础教育版)》发布声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。

目前,国内法律界人士认为,我国著作权法一方面强调创作作品的自然人是作者;另一方面也规定由法人或者非法人组织主持,代表法人或者非法人组织意志创作,并由法人或者非法人组织承担责任的作品,法人或者非法人组织视为作者。因此,无论是域外立法还是我国法律规定,在著作权法律制度框架内,除了自然人与法人之外,不存在其他可以成为作者的主体。ChatGPT的技术原理是,依靠从训练数据中学到的模式和关系来生成风格和内容与训练数据中的文本相似的新文本。尽管ChatGPT也有能力生成以前从未见过的单词、短语和句子的新组合,但这些内容都是基于人预先设定好的程序、算法的结果,ChatGPT并未突破人类辅助工具的范畴。著作权法意义上的创作,应当是有目的、有意识且具有原创性的行为。ChatG-PT显然并未实施著作权法意义上的创作行为,自然不能成为作者。学者认为,在人与物的关系上,物永远只应是手段,人永远是目的。让人的创造物——人工智能成为作者,令其获得与人平等的地位,于法无据、于理不合。

另外,ChatGPT这类人工智能主要是通过挖掘人类日常交流以及文本进而统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接获取复制到自己的数据库中,并在此基础上修改、拼凑,极有可能侵害他人的著作权。

应对ChatGPT 需要制定专门立法吗

ChatGPT具有两面性,在提升人类生活品质和工作效率的同时,也有可能因其滥用而产生一些负面的社会效果,特别是其有可能产生网络安全威胁,ChatGPT的代码编写功能将拓展黑客攻击的技术工具,使得原有的网络攻击呈现更加庞大的规模化趋势;其信息编写功能能够辅助网络诈骗分子生成规模化、低成本的网络钓鱼软件,并且生成的诈骗信息由于具有智能化特征,使得被诈骗者识别信息真伪的难度增加,导致网络虚假信息泛滥。

面对可能带来的风险,有专家学者明确提出应对ChatGPT“制定专门立法”“制定配套措施”。然而,另外一些专家认为,监管机构没有必要立即将ChatGPT技术监管作为现阶段网络空间治理的核心工作任务。否则,我国立法模式会陷入“出现一项新技术,制定一项新规定”的逻辑怪圈。

2022年出台的《互联网信息服务算法推荐管理规定》中明确要求,人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。今年1月10日起施行的《互联网信息服务深度合成管理规定》中明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。我国已先后颁布了《网络安全法》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等法律法规,针对人工智能技术和算法技术滥用规定了详细的法定义务和监管体系,足以应对短期内ChatGPT可能导致的网络安全风险。现阶段,我国监管部门可以充分利用现有法律制度,加强对ChatGPT相关产业的监管;未来在经验成熟时,可以考虑启动人工智能技术应用领域的立法,以应对各种潜在的安全风险。

当前,ChatGPT账号价值除被炒作成商品以外,借其名称热度“搭便车”的牟利行为也大量出现,一些虚假信息、网络诈骗等违法行为也蠢蠢欲动。如何“露头就打”?法律专家建议主要集中在:一是ChatGPT对于算法、数据乃至服务器的需求量惊人,具备开发类似产品能力的主体大多仅限于超大型互联网企业或技术公司。在相关产品投入市场之前,可以利用算法备案机制,对具备影响网络安全和国家安全可能性的产品或服务进行安全性审查。二是针对ChatGPT可能引发的网络钓鱼邮件等网络诈骗风险,应当明确作为“危险制造者”的研发机构、网络平台经营者在此类产品投入市场之前进行安全风险评估,确保风险可控。三是为了避免ChatGPT等人工智能产品大量生成难以通过自动化批量审核的虚假信息内容,监管机构以及网络平台经营者可能需要进一步提升监管技术,充分利用人工智能技术的审核智能化特征,根据ChatGPT这类产品的发展水平和生成信息的内容特征,鼓励行业协会、大型企业或第三方专业机构积极推进人工智能违规信息审核产品的研发和推广。四是国家应当加强对人工智能的伦理规制,将伦理道德纳入人工智能研发和应用的全过程,增强全社会人工智能的伦理意识和行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。

来源:人民邮电报