专家观点 | Sora模型带来的人工智能法治问题思考
2024-4-7 18:9:14 Author: mp.weixin.qq.com(查看原文) 阅读量:3 收藏

扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

文 | 北京航空航天大学法学院 赵精武 李飞凡
2月16日,OpenAI发布首个文生视频模型Sora,引发社会广泛关注。和ChatGPT生成文本、图片等信息不同,Sora可以根据用户指令生成几乎以假乱真的短视频。OpenAI公开的示例视频显示,高分辨率的画质、惊艳的细节无不说明人工智能技术水平已达到全新发展阶段。甚至在特定情形下,Sora生成的视频与人工制作的视频难以通过肉眼直观区分,会让人误以为是演员本人出演了该视频内容。
Sora模型发布后,市场对人工智能技术的未来前景反响强烈,但也产生了以“人工智能”为名的虚假宣传活动。部分营销机构以人工智能创业课程为噱头,伪造授课教师资质,“灌水”授课内容。这种虚假宣传行为不仅未能向公众有效普及人工智能技术知识,反而使不少消费者上当受骗,严重损害《中华人民共和国消费者权益保护法》所保护的消费者的知情权、公平交易权等权利。
Sora模型的发布不仅意味着人工智能技术应用步入全新发展阶段,也意味着需要重新考量人工智能引发的法律责任归属问题。比如,Sora模型可以自动生成视频代替人类的工作,但它必须以用户指令为基础,且需要用户清晰全面地表述自己的需求,才有可能生成符合预期的视频内容。因此,一旦Sora等模型生成侵权视频时,如何认定研发者、服务提供者以及用户对侵权行为承担侵权责任存有较大争议。总体来看,与ChatGPT相比,Sora模型所产生的新型技术风险主要聚焦于著作权保护领域。一方面,训练数据是否侵犯他人的著作权,仍存在争议。Sora模型作为典型的大模型,需要海量的训练数据实现其基本功能,而这些训练数据可能涉及他人的影视作品等视频素材,这是否属于著作权法意义上的“合理使用”,值得探讨。另一方面,生成视频内容的权利归属存在争议。从生成逻辑来看,用户经过思考输出自己的需求,Sora模型生成相对应的视频内容,用户理应有权享有该视频的著作权。然而,研发者和服务提供者所提供的技术服务与视频内容的生成还有显著的关联关系,倘若用户没有得到Sora等人工智能产品的辅助支撑,相关视频也无法生成。因此,在视频生成的可能性层面,研发者和服务提供者似乎也同样具有主张生成视频著作权的正当性依据。此外,伴随着Sora模型能够生成更为真实的视频,互联网上相应的虚假视频信息风险也可能显著提升,犯罪行为人可能利用Sora模型制作用于诈骗、敲诈等犯罪目的的非法视频等。
总体而言,现阶段的Sora模型及其背后人工智能技术的各类应用场景实际上仍以重复性劳动为导向,相应产品和服务的基本功能也以“个人助理”等辅助性应用为限。监管机构要创新监管模式,在技术创新浪潮中探索出适合数字治理需求的治理路径和治理工具。同时,行业从业者也应关注科技伦理审查和业务合规管理在技术创新过程中的规范作用和引导作用,创新人工智能应用方式,消解潜在的“数字鸿沟”,实现人工智能产业又好又快发展。

(来源:民主与法制时报)

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664209829&idx=5&sn=5f006c190c473440de0fe217ee0c2bf9&chksm=8b599f5cbc2e164ad0f5d72c4760e73b83a3d2bc61170761d11a4822bade053c32a711e67ae4&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh