标题 摘要 内容
    详情

    图片

    部门介绍:垦丁律师事务所人工智能法律研究是专注于人工智能法律研究、法律问题对外联动以及各类活动组织与承办的部门,以期在这一领域深耕与挖掘,为整个市场的发展贡献力量。

    20242月8日,广州互联网法院依法对全球AIGC平台侵权第一案作出判决(2024粤0192民初113号),要求被告平台立即采取相应技术措施防止生成侵权图片,并赔偿原告经济损失及合理开支10000元。本案中,被告作为AIGC平台,其旗下AI绘画功能被证实能多次训练并生成相应侵权图片,法院认定其担责的主要原因在于:投诉举报机制欠缺、潜在风险提示欠缺、显著标识欠缺。

    本案是我国首个对AI大模型生成侵权数据的案件审判,该案例无疑给了有类似情况的AIGC平台运营者一个警醒,也给市场的有序发展带来积极地推动作用。从该案例出发,一般侵权责任的构成要件有侵权行为、过错、损害结果、侵权行为与损害结果的因果关系,因此AIGC平台运营者合法合规经营需要注意避免潜在的侵权风险:

    1.采取措施避免侵权行为

    2.采取措施表明没有侵权的主观恶意

    3.发生纠纷后,及时采取措施处理已经投入训练的侵权数据

    一、侵权数据的删除

    在上述第一案中,法官已经详细说明了被告平台没有尽到合理的注意义务(投诉举报机制欠缺、潜在风险提示欠缺、显著标识欠缺)而具备主观过错,因此AIGC企业需要配套完备的知识产权保护机制,包括知识产权保护条款、侵权提示、主动审核的保护措施、投诉举报渠道等。除此之外,就侵权结果,企业还需要有效的技术手段予以干预。

    一方面,如果AIGC大模型产品的训练数据中包含可能侵权的数据,那么在后续出现纠纷后,企业应该采取有效措施来消除侵权数据带来的影响;另一方面,如果AIGC大模型删除自身侵权数据,那么它在训练过程中所积累的知识和表现将会受到影响。为了确保合规性和尊重知识产权,保护权利人的合法权益删除侵权数据是必要的。在此过程中,AI大模型需要不断优化和调整,以适应新的数据集,提高合规性

    同时,为了减少侵权风险,AIGC大模型开发者可以采取以下措施:

    1.数据审查:首先,企业需要对训练数据进行全面审查,确保数据来源合法,避免使用涉及侵权的数据有条件的可以与版权持有者或相关法律专家的合作,以确定哪些数据可能构成侵权。

    2.数据删除:一旦确认了侵权数据,企业应该立即从训练数据集中删除这些数据。这可能需要重新训练模型,以确保新模型不再受到这些侵权数据的影响。

    3.用户协议更新:企业应该更新用户协议,明确指出用户在使用AIGC产品时不能上传或使用侵权内容。同时,企业还应该在用户协议中声明自己已经采取措施来删除可能存在的侵权数据。

    4.内部政策调整:企业应该制定内部政策,确保所有员工都了解并遵守相关的版权法规。这包括对员工进行版权法培训,以及建立一个报告和处理潜在侵权问题的流程。

    5.技术改进:企业应该投资于技术改进,例如开发更有效的数据筛选工具,以自动检测和移除可能的侵权内容。此外,企业还可以考虑使用数据水印、数据溯源等技术来追踪和记录数据来源,以便在必要时证明自己已经采取了合理的措施来防止侵权。

    6.合作与沟通:企业应该积极与版权持有者和其他利益相关方进行沟通,寻求合作机会。这可能包括购买版权许可,或者与版权持有者签订合作协议,以确保自己的产品不会侵犯他人的权益。

    7.风险管理:企业应该建立一套全面的风险管理系统,包括定期评估版权风险,制定应对策略,以及监控和报告侵权事件。

    总之,删除侵权数据是AIGC大模型进一步发展的必要举措,企业及开发者需要关注数据合规性,不断创新和优化技术,为用户提供更安全、合规的AI服务。

    如果一个大模型已经接受了侵权数据,重新训练它以“忘记”这部分侵权数据的过程通常被称为“遗忘”或“删除”。这是一个复杂的问题,因为大模型通常会将训练数据中的模式内化为其参数中,使得删除特定数据点变得困难。目前,有一些技术方法可以帮助解决该类问题:

    1.重新训练:最直接的方法是重新训练模型,但不使用侵权数据。这需要收集新的训练数据集,其中不包含侵权数据。然后,使用这个新数据集重新训练模型。这种方法可能会导致模型性能下降,因为它失去了部分训练数据。

    2.干扰学习:另一种方法是干扰学习,也称为对抗性训练。这种方法涉及向模型添加一些噪声或干扰,使其“忘记”之前学习的某些模式。这可以通过在训练过程中引入对抗性样本来实现,这些样本旨在误导模型并使其忽略特定的模式。

    3.反向传播删除:这是一种基于梯度下降的技术,用于删除特定数据点的影响。基本思想是通过反向传播算法计算出删除特定数据点所需的参数更新量。然后,应用这些更新来改变模型参数,从而减少对这些数据点的依赖。

    4.知识蒸馏:知识蒸馏是一种迁移学习技术,其中原始模型的知识被转移到一个新的较小模型中。在这个过程中,可以丢弃原始模型,只保留新模型,从而有效地删除了原始模型中的侵权数据。

    5.隐私保护技术:一些隐私保护技术,如差分隐私