摘要: 《欧盟的AI法案》是一项基于风险的规范人工智能应用的计划,已经通过了看起来是最终的大障碍《欧盟AI法案》,这是一项基于风险的规范人工智能应用的计划,今天已经通过了看来是以收养方式站稳脚跟的最后可能的障碍…
欧盟通过AI法案,为人工智能应用的监管铺平道路
欧盟的AI法案,一个基于风险的人工智能应用监管计划,经过成员国代表的投票确认最终草案后,似乎已经迈过了采纳的最后一道大关。
这一进展是在去年12月达成政治协议后进行的,当时欧盟立法机构之间进行了长时间的三方谈判。在达成协议后,将协商一致的立场转化为最终的妥协文本,以便获得立法者的批准,这一工作开始进行,并在今天的Coreper投票中确认了草案规定。
AI法案是一个里程碑,标志着全球首个人工智能规定的诞生,旨在使其安全并遵守欧盟的基本权利。
该计划规定了一系列禁止使用人工智能的情况(即不可接受的风险),例如将人工智能用于社会评分;为高风险使用(可能危害健康、安全、基本权利、环境、民主和法治)和被视为“系统性风险”的最强大的通用/基础模型引入一些治理规则;并对人工智能聊天机器人等应用程序应用透明度要求。但“低风险”应用程序不在法律的适用范围内。
对最终文本的投票确认将在布鲁塞尔引起巨大的宽慰。法国领导的对基于风险的AI监管的持续反对意味着,他们希望避免法律限制阻碍像Mistral AI这样的本土生成AI初创企业成为可能挑战美国AI巨头崛起的国家冠军的可能性,甚至在这个关键时刻,这一监管可能会被搁置。
事实上,欧盟27个成员国的所有大使都一致支持这一文本。
一旦通过,法案将在欧盟官方期刊上发布后的20天内生效。在适用于范围内的应用程序和人工智能模型之前,将有一个分阶段的实施期,即在法规规定的禁止使用人工智能的名单开始适用之前将有六个月的宽限期(可能在秋季左右)。
法案的实施还将在基础模型(即通用目的的人工智能)上应用一年的规则,即直到2025年才开始。其余大部分规则将在法律发布后两年后开始适用。
欧盟已经着手成立一个AI办公室,负责监督被认为具有系统风险的一部分更强大的基础模型的合规性。它还最近宣布了一系列旨在提高本土AI开发者前景的措施,包括重新调整该集团的超级计算机网络以支持生成AI模型的训练。