清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

2021年4月21日,欧盟委员会针对人工智能(AI)应用提出了一份全新的监管草案和协调行动规划,希望通过灵活解决AI系统带来的特定风险,保证AI技术的安全可持续使用。

文件显示,欧盟计划将AI技术应用按照风险等级进行划分:

不可接受的风险:指对人类安全、生计和权利造成威胁的AI系统,包括操纵人类行为以规避用户自由意愿(例如使用语音辅助技术鼓励未成年人做出危险行为的玩具)和允许各国政府进行“社会评分”(Social Scoring)的系统。这类系统将被完全禁用。

高风险:

  • 关键基础设施(例如交通运输设施)类,可能会给公民生命和健康带来风险的AI应用;
  • 教育或职业培训类,可以决定某人获得教育和专业课程渠道的AI应用(例如考试得分);
  • 产品的安全组成部分(例如在机器人辅助手术中的AI应用);
  • 就业、人工管理和自雇员工渠道(例如招聘程序的建立分类软件)的AI应用;
  • 基本私人和公共服务(例如拒绝公民获得贷款机会的信用评分)的AI应用;
  • 可能会干扰公民基本权利的执法(例如评估证据可靠性)的AI应用;
  • 迁移、收容庇护和边界控制管理(例如验证旅行证件真实性)的AI应用;
  • 行政司法和民主程序(例如将法律应用于一个具体事实)的AI应用。

高风险AI系统在进行应用之前必须履行一系列义务,包括进行严格的风险评估、通过高质量数据更新最大限度地降低风险和歧视性结果、详细进行活动记录确保结果的可追溯性、增加适当的人工监督等等。

除此之外,所有远程生物识别系统都被认为是高风险的AI应用,原则上禁止在公开可访问的空间中使用这类系统,但是仍然存在一些特例情况(例如找寻走失儿童,防止特定和即将到来的恐怖主义威胁,或检测、定位、识别或起诉犯罪者或嫌疑人的严重刑事犯罪行为)。这种使用需要得到司法或其他独立机构的授权,并在时间、地理和数据使用范围等领域受到严格限制。

有限风险:即具有特定透明义务的AI系统,例如在使用聊天机器人等AI系统时,用户应该意识到它们是在与机器进行交互,他们可以采取明智的决定继续或退出。

最小风险:新规允许自由使用诸如AI驱动的视频游戏或垃圾邮件过滤器等应用程序。绝大多数AI系统属于这一类别。

此前欧盟方面曾表示,计划每年通过“数字欧盟”和“欧盟地平线”等项目向AI领域投资10亿欧元,同时每年在AI领域吸引投资200亿欧元。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意

本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。