扫描分享
本文共字,预计阅读时间。
2021年4月21日,欧盟委员会针对人工智能(AI)应用提出了一份全新的监管草案和协调行动规划,希望通过灵活解决AI系统带来的特定风险,保证AI技术的安全可持续使用。
文件显示,欧盟计划将AI技术应用按照风险等级进行划分:
不可接受的风险:指对人类安全、生计和权利造成威胁的AI系统,包括操纵人类行为以规避用户自由意愿(例如使用语音辅助技术鼓励未成年人做出危险行为的玩具)和允许各国政府进行“社会评分”(Social Scoring)的系统。这类系统将被完全禁用。
高风险:
- 关键基础设施(例如交通运输设施)类,可能会给公民生命和健康带来风险的AI应用;
- 教育或职业培训类,可以决定某人获得教育和专业课程渠道的AI应用(例如考试得分);
- 产品的安全组成部分(例如在机器人辅助手术中的AI应用);
- 就业、人工管理和自雇员工渠道(例如招聘程序的建立分类软件)的AI应用;
- 基本私人和公共服务(例如拒绝公民获得贷款机会的信用评分)的AI应用;
- 可能会干扰公民基本权利的执法(例如评估证据可靠性)的AI应用;
- 迁移、收容庇护和边界控制管理(例如验证旅行证件真实性)的AI应用;
- 行政司法和民主程序(例如将法律应用于一个具体事实)的AI应用。
高风险AI系统在进行应用之前必须履行一系列义务,包括进行严格的风险评估、通过高质量数据更新最大限度地降低风险和歧视性结果、详细进行活动记录确保结果的可追溯性、增加适当的人工监督等等。
除此之外,所有远程生物识别系统都被认为是高风险的AI应用,原则上禁止在公开可访问的空间中使用这类系统,但是仍然存在一些特例情况(例如找寻走失儿童,防止特定和即将到来的恐怖主义威胁,或检测、定位、识别或起诉犯罪者或嫌疑人的严重刑事犯罪行为)。这种使用需要得到司法或其他独立机构的授权,并在时间、地理和数据使用范围等领域受到严格限制。
有限风险:即具有特定透明义务的AI系统,例如在使用聊天机器人等AI系统时,用户应该意识到它们是在与机器进行交互,他们可以采取明智的决定继续或退出。
最小风险:新规允许自由使用诸如AI驱动的视频游戏或垃圾邮件过滤器等应用程序。绝大多数AI系统属于这一类别。
此前欧盟方面曾表示,计划每年通过“数字欧盟”和“欧盟地平线”等项目向AI领域投资10亿欧元,同时每年在AI领域吸引投资200亿欧元。
非常感谢您的报名,请您扫描下方二维码进入沙龙分享群。
非常感谢您的报名,请您点击下方链接保存课件。
点击下载金融科技大讲堂课件本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意
本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意
本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意