清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

近日,《人工智能生成合成内容标识办法(征求意见稿)》(以下简称《办法》)和配套强制性国家标准《网络安全技术人工智能生成合成内容标识方法(征求意见稿)》(以下简称《标识方法》),同步向社会公开征求意见。

今天飒姐团队整理了一些大家关心的问题,在此作出统一答复。

制定《办法》旨在解决当前AIGC发展应用中的哪些问题?

主要包括但不限于以下几个方面:

第一,网络传播内容的真实性与可信度问题,当前,AIGC技术已经能够生成非常逼真的文本、图片、音频和视频等内容,这使得普通用户难以辨别真伪。如果不加以标识,可能会导致虚假信息的广泛传播,损害公共利益和社会信任。

第二,AIGC生成内容可能被用于制造社会恐慌、传播谣言或进行其他非法活动,通过强制标识,可以有效地监控和控制这些行为,维护社会稳定。

第三,技术滥用防范,AIGC技术可能被恶意利用来进行网络攻击、身份冒用等活动。标识要求有助于防范技术的不当使用,增强网络安全防护能力。

新规范会保障“标识”要求真正落地吗?

2022年、2023年,网信办等部门确实发布了多项有关AIGC管理的规定,但这些规定更多地是从总体框架上提出了原则性的要求。从单独制定《办法》及配套的《标识方法》,是为了进一步细化和落实之前政策的原则性要求,提出AIGC标识的具体操作性和可执行性的标准和指南,确保各方参与者在同一框架下按照各自的行为准则运作,便于监管和执法。这一点从《国家互联网信息办公室关于<人工智能生成合成内容标识办法(征求意见稿)>公开征求意见的通知》和《标识方法》的编制说明中亦可看出。

《办法》对于不同的主体——服务提供者、传播平台、应用服务分发平台和用户,都明确了各自的标识责任,有助于形成多方共治的局面,《标识方法》提供了具体的技术要求,如显式标识的文字要素、位置、字型、高度等,隐式标识的元数据和各类标签要素等,这些都是实现标识要求的技术基础,然而,实际效果还需依赖于具体的执行力度、监管机制以及社会各方的共同参与。

《办法》对不同主体的责任划分是怎样的?在责任追究方面,《办法》作何规定?

1.定义和要求

《办法》对服务提供者、传播平台、应用服务分发平台、用户提出了不同的标识要求。

(1)根据《办法》第2条,《办法》的适用范围包括符合《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》而提供网络信息服务的提供者。综合前述规范,《办法》中的服务提供者是指利用生成式人工智能技术提供生成式人工智能服务(开发聊天机器人、图像生成软件或语音合成系统的公司),利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息服务,以及提供深度合成服务的组织、个人。

《办法》对服务提供者提出了一系列要求,包括需要确保其生成的内容符合标识要求,并在生成内容时主动添加显式标识或隐式标识,执行强制性国家标准,在用户服务协议中明确说明生成合成内容标识的方法、样式等规范内容,并提示用户仔细阅读并理解相关的标识管理要求。此外,服务提供者提供生成合成内容下载、复制、导出等方式时,应当确保文件中含有满足要求的显式标识。

(2)《办法》对提供网络信息内容传播平台的服务提供者(比如向用户提供在平台上传文件的AI聊天网站),涉及生成合成内容的传播提出额外的合规要求,特别是在处理和核验生成合成内容时,平台需要承担核验标识(包括显式标识和隐式标识)的责任。

(3)互联网应用程序分发平台,是指提供互联网应用程序发布、下载、动态加载等分发服务的互联网信息服务提供者,比如应用商店。根据《办法》第7条,互联网应用程序分发平台主要承担核验责任,即在应用程序上架或上线审核时,应当核验服务提供者是否按要求提供生成合成内容标识功能。

(4)对于用户的义务而言,《办法》第10条要求用户在上传生成合成内容时,应当主动声明并使用平台提供的标识功能进行标识,不得恶意删除、篡改、伪造、隐匿本办法规定的生成合成内容标识,不得为他人实施上述恶意行为提供工具或服务,不得通过不正当标识手段损害他人合法权益。

2.责任追究

《办法》第13条规定了法律后果,违反《办法》规定,未对生成合成内容进行标识造成严重后果的,由网信等有关主管部门按照有关法律、行政法规、部门规章的规定予以处罚。虽然该条没有详细列出具体的责任追究措施,但可以推测,对于不遵守标识规定的主体,监管部门可能会采取一系列措施,包括但不限于警告、罚款、停止服务、吊销许可证等,具体的处罚措施的类型和标准将根据违规行为的严重程度以及造成的后果来决定。

哪些主体将有作出标识的责任义务?

(1) 服务提供者。如果某公司或个人为用户提供视频换脸服务,则该公司或个人作为服务提供者,需要在生成的合成视频中加入显式或隐式标识。例如,视频中应当可能会有水印、角标或其他形式的显著提示,明确提醒该视频是经过人工合成技术处理过的。

(2)传播平台。如果换脸视频被上传至社交媒体平台、视频分享网站等传播平台,那么这些平台也需要核验该视频,确保视频符合标识要求。如果发现未添加人工智能生成合成内容标识,上传者也未声明该视频为生成合成内容,但经检测核验确为换脸视频的,应当采取适当方式在发布内容周边添加显著的提示标识,提醒用户该内容为生成合成内容,并应当在文件元数据中添加生成合成内容属性信息、传播平台名称或编码、内容编号等传播要素信息。

(3)应用服务分发平台。如果某个应用提供了视频换脸的功能,那么该应用的分发平台也需要确保此应用遵循相关的标识规则。这意味着,如果某个应用未能正确标识其生成的合成内容,分发平台可能需要采取下架该应用等措施。

被害人在被诈骗过程中,视频中会有显著的提示?

根据《办法》和《标识方法》的要求,如果视频换脸技术生成的内容被正确标识,那么受害人应该能够在视频中看到显著的提示,提示该视频是人工智能生成合成的内容。具体来说:

视频中可能会有明显的文字提示,比如“本视频为合成内容”,或者视频角落处有明显的标识符号如“人工智能生成合成”;标识应当放置在视频的显眼位置,如角标、横幅等,以便用户一眼就能注意到;标识的颜色和字型应当足够醒目,以便与视频背景区分开来;如果视频支持交互功能,那么在用户尝试播放或下载视频时,系统可能会弹出提示框,告知用户该视频是人工智能生产合成的。

从效果来看,可以预测,《办法》和《标识方法》的实施有助于提高人工智能生成合成内容的透明度,减少AI诈骗的风险。

要想真正规避AIGC应用的风险还需要有怎样的监管措施与之配套?

虽然“标识”措施是防范AIGC应用风险的重要一步,但它并不能单独解决所有问题。标识有助于提高透明度,使用户能够识别合成内容,但这只是多层次防控体系的一部分。要想真正规避这些风险,还需要有以下配套的监管措施:

(1)细化法律法规,建立行业自律标准。除了标识要求外,还需要进一步完善相关的法律法规,明确界定AIGC生成内容的法律责任,特别是涉及到版权、隐私保护等问题。推动行业自律,建立统一的技术标准和伦理准则,引导企业合理合法使用AIGC技术。

(2)加大执法力度,加大对利用AIGC技术实施诈骗、侵权等违法犯罪行为的打击力度,依法惩处违法行为。同时,加强公安、网信、市场监管等多个部门之间的协调合作,形成合力。

(3)鉴于AIGC技术的跨国界特性,加强与其他国家和地区的信息交流与合作,以共同应对跨国犯罪,同时,推动建立国际认可的AIGC技术使用标准和监管框架。

《办法》在哪些方面还有待细化或完善?

《办法》虽然已经在多个方面做出了规定,但仍有一些方面需要进一步细化和完善,以更好地适应实际情况和技术发展的需求,如:

(1)根据《办法》第9条规定,服务提供者可以向用户提供没有添加显式标识的生成合成内容,,但《互联网信息服务深度合成管理规定》第18条规定了任何组织和个人不得采用技术手段删除、篡改、隐匿深度合成标识。《办法》如何与《互联网信息服务深度合成管理规定》衔接,标识能否删除或隐匿,有待正式稿进行完善。

(2)建议补充对使用者违反标识要求的处罚措施。《办法》第13条规定“未对生成合成内容进行标识造成严重后果的”,由网信等有关主管部门依法进行处罚。但对第10条中所涉及的使用者的行为,包括但不限于删除、篡改、伪造、隐匿则未规定明确的惩罚措施。为惩罚某些生成合成服务及其内容的使用者恶意滥用AIGC,通过不正当标识手段损害他人合法权益,散布虚假信息,建议补充针对前述情形的处罚措施或列明可供援引的其他法律规范,促进保标识要求得到更为有效的落地。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

本文版权归原作者所有,如有侵权,请联系删除。

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。