清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

国务院办公厅在2023年、2024年的年度立法工作计划中,均明确提出“预备提请全国人大常委会审议人工智能法草案”,使得AI监管立法的话题近两年一直处于风口浪尖,各界人士的热烈讨论、响应,更使得《人工智能法》似乎是有箭在弦上、不得不发的态势了。

而就在本周一,人民日报的学术版以深化人工智能安全监管为话题,邀请了三位知名学者对此进行探讨,并使用了一整个版面刊登了三位学者的意见。今天飒姐团队就此事与大家聊一聊。

目前我国AI监管立法情况一览

1.《生成式人工智能服务管理暂行办法》

在人工智能法草案提出后不久,2023年7月14日国家互联网信息办公室联合国家发展和改革委员会等部门共同发布了《生成式人工智能服务管理暂行办法》(以下简称“《办法》”),在生成式人工智能的发展与监管方面进行了原则性的规定,并提出了多项监管制度。

例如按照风险高低和不同行业领域进行有效监管,并特别强调了在算法设计、训练数据选择、模型生成和优化、提供服务的过程中需采取有效措施防止产生歧视,以及保护肖像权、名誉权、荣誉权、隐私权和个人信息权益,明确了训练数据处理活动、数据标注、内容表示等要求,同时还规定了安全评估、算法备案、投诉举报等制度。

2.《办法》的细化操作指南

针对《办法》中明确规定的AI内容标识要求,全国信息安全标准化技术委员会于2023年8月25日发布《网络安全标准实践指南——生成式人工智能服务内容标识方法》作为实现这一要求的具体操作规范。

同时我们也注意到,全国信息安全标准化技术委员会又于今年发布了《网络安全技术——生成式人工智能服务安全基本要求》《信息安全技术——生成式人工智能数据标注安全规范》《信息安全技术——生成式人工智能预训练和优化训练数据安全规范》的征求意见稿。显而易见,目前关于AI监管具体措施的立法趋势是根据《办法》规定采用国家标准的方式在操作层面上予以一一细化落实

3.《人工智能法》尚未成形

在国务院提出预备提请全国人大常委会审议人工智能法草案后,备受期待的《人工智能法》在全国人大常委会2023年9月所发布的今后五年立法规划中却完全缺席。而随着今年两会期间,多名人大代表的不断呼吁、提案和各界人士的热烈讨论,《人工智能法》再一次成为关注的焦点。

今年5月9日,国务院办公厅印发《国务院2024年度立法工作计划》中 “人工智能法草案”再次列入预备提请全国人大常委会审议项目。而随后5月11日公布的全国人大常委会2024年度立法计划中,将网络治理和人工智能健康发展方面的立法列入预备审议项目,但仍然没有明确提出《人工智能法》

学者观点和意见

1.三个阶段,三大风险

刘艳红教授表示,生成式人工智能在技术运行上可分为三个阶段,而三个阶段又有三大不同的风险需要重点采取相应的监管手段予以规避:

准备阶段:这一阶段主要进行的是数据的收集与利用,如若缺乏监管一旦过度便会引发危害信息安全、侵犯公民隐私权等风险。对此刘教授认为应通过将分类分级的数据安全监管要求嵌入这一阶段的方式,避免数据安全风险演化为具体的法益损害后果。

运算阶段:这一阶段的运作主要依靠人工设定算法模型,然而一旦该模型被注入了较多个人的主观偏好和想法,势必会影响算法的客观性,产生算法偏见。对此刘教授认为要通过法律规范设置一定的标准,并将其深度嵌入算法模型之中,确保合理利用生成式人工智能算法并分配算力资源。

生成阶段:此时算法运作已经完成,目前最大风险就在于伴随生成物而来的知识产权纠纷。对此刘教授认为应以具有独创性和创新性作为知识产权的确权标准,同时要合理确定对生成物知识产权保护的范围,避免保护范围无限扩张和生成物的滥用。

2.隐私安全面临挑战

顾里平教授表示,人工智能时代下,去私密化技术特征加剧了个人信息安全风险,给隐私权的保护带来严峻挑战。对此在收集个人信息数据前应当以尊重用户的个人意愿为原则,以用户全面知情且同意为前提,而在处理、利用信息数据的过程中中通过完善数据库安全、核心数据加密、个人数据脱敏等技术手段,尽可能地保护隐私权,建立信息安全的防火墙。

3.立足交互性,构建模块化、多层次的治理生态

张欣教授表示,人机之间的深度交互、高度互联使得人工智能有别于传统的以个体为中心的治理方式,对此应当从数据模块、算法模块、模型架构等关键节点出发,设计相应的治理模块,推动形成广泛互联、多方参与、多层次协作的治理生态。

AI监管立法风向

1.现在谈《人工智能法》为时尚早

根据全国人大常委会在立法计划中所展现的态度,《人工智能法》目前可以说是八字还没有一撇。

飒姐团队认为,《人工智能法》需要实现的是浓缩提炼目前AI领域所包含的各种实质性法律关系和法律问题,并设定相应的规范进行有效的指引,同时还要兼顾与目前我国立法体系相协调。虽然近两年,AI自上而下对我国各方面产生了巨大影响,但考虑到目前AI行业发展迅速,更新换代频率极高,尚未呈现出稳定、有序的发展态势,同时AI行业所包含的各类法律关系以及伴随的各类风险多种多样,涉及不同的部门法,而《人工智能法》如何与其他部门法有效配合、衔接也是一大立法难题。

那么在全世界范围内人工智能领域立法都还没有发展成熟的情况下,面对我国的这些立法困难,立法机关对于《人工智能法》抱有谨慎、保守的态度倒也不足为奇了,所以飒姐团队提示各位朋友们不必对此过分担忧,真正的《人工智能法》还需要各位拭目以待。

2.《办法》进一步细化,“阶段化”治理或将成为立法趋势

目前生成式人工智能系统性、流程化的突出特点,注定其监管模式应当有别于传统方式,立足于生成式人工智能运作的基本逻辑,才能有效覆盖其运作的全过程,且以更有针对性的方式进行监管。而学者所提出的分阶段风险监管和模块化、多层次的治理生态显然为此提供了新的思路,而这也恰巧符合《办法》所提出的各项规定。

飒姐团队认为,未来基于《办法》规定而进一步细化的部门规章、地方性文件和推荐性标准等文件将层出不穷,而针对生成式人工智能运作各个阶段的突出风险进行规避,实现精准化监管和治理会成为重点。对此,飒姐团队提示各位朋友接下来要对《办法》中明确提到的预训练、优化训练、数据标注、防沉迷机制、投诉举报机制等进一步加强,同时重点关注相关部门规章、文件、标准的实时更新,以便针对突出问题及时完善、整改。

3.隐私权保护和知识产权归属仍是热点

飒姐团队认为,算法准备阶段信息和数据收集和利用所引发的保护公民隐私权问题以及AI生成物的知识产权归属问题,仍然是日后对于AI监管的重中之重。未来或许会出台相应的规范措施,就不同行业的AI产品对用户信息进行收集前如何直观的使用户全面知情、如何准确获取用户同意予以更进一步的细化规定。

而且,此类问题通常会演变为相关的民事诉讼案件,而日前北京互联网法院即发布了八起典型案例,其中便涉及个人信息处理的知情同意规则、个人信息处理者安全保障义务、去标识化处理后的个人信息利用等问题,那么也有可能在积累大量的具备参考性的判例后,司法机关通过对《民法典》《著作权法》发布司法解释或者典型案例的方式对此作出回应。

因此,飒姐团队提醒朋友们对这两块的自我合规监管仍然不要放松警惕,相应的数据使用和隐私保护应当实时监督、完善相应措施,而对AI生成物的知识产权归属和权益分配的问题上,相应格式条款的拟定仍是有效、直接的解决办法。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意。

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。