人工智能法案:欧盟议会关于高风险分类和禁止做法的紧要时刻

欧洲议会的联合报告员对高风险的人工智能应用清单、被禁止的用途和概念定义提出了妥协性的修正案。

欧盟立法者Brando Benifei和Dragoș Tudorache正努力在未来几天内完成对《人工智能法案》的谈判。该法案是世界上首次尝试根据人工智能的潜在危害性对其进行监管。

根据《欧洲时报》获得的文件,两位立法者试图解决的问题包括构成重大风险的人工智能用途清单、禁止的做法以及法律草案中使用的关键概念的定义。

高风险领域

人工智能法案的附件三列出了有具体使用案例的关键领域。

在周一(2月6日)分发的附件三的妥协版本中,联合报告员将生物识别和分类的概念扩展到基于生物识别的系统,如Lensa,一个可以根据人的面部生成化身的应用程序。

由于共同报告员希望完全禁止在公众可进入的空间进行现场生物识别,因此高风险的使用案例被限制在事后识别。对于私人可进入的空间,现场和事后识别都已被添加到列表中。

周三(10月5日),欧盟立法者就《人工智能法案》举行了首次政治辩论,讨论转向了更敏感的话题,比如备受争议的生物识别问题。

对于涉及关键基础设施的问题,公路、铁路和公路交通的任何安全组件都包括在内。

然而,旨在确保供水、燃气、供暖、能源和电力安全的系统只有在系统故障极有可能导致对这些供应的迫在眉睫的威胁时才符合这一类别。

在教育领域,措辞已被修订,包括基于学生个人数据分配个性化学习任务的系统。

在就业领域,高风险类别被扩大到包括制定或协助与启动、建立、执行或终止雇佣关系相关的决策的算法,特别是分配个性化任务或监督工作场所规则的遵守情况。

关于获得公共服务的机会,案文现在具体规定了所规定的公共援助的类型,即住房、电力、供暖和制冷以及互联网。小型供应商为评估人们的信用而设计的系统的豁免已被取消。

用于评估健康和人寿保险资格的人工智能模型,以及用于对紧急呼叫进行分类的人工智能模型,例如执法或紧急医疗保健患者分类。

为弱势群体使用的系统增加了一个新的风险领域,特别是可能严重影响儿童个人发展的人工智能系统。这种模糊的措辞可能会覆盖社交媒体的推荐系统。

立法者扩大了执法,移民和边境管制管理的措辞,以避免使用承包商规避高风险分类。

此外,任何可能影响人们在地方、国家或欧洲民意调查中投票决定的人工智能应用程序,以及任何支持点票等民主程序的系统,都被认为存在风险。

引入了一个剩余类别来涵盖生成式AI系统,如ChatGPT和Stable Diffusion。任何人工智能生成的文本都可能被误认为是人工生成的,除非它经过人工审查,并且有个人或组织对其承担法律责任,否则将被视为存在风险。

人工智能生成的深度造假、视听内容代表一个人做了或说了从未发生过的事情,除非是明显的艺术作品,否则属于高风险类别。

用于科学研究和治疗目的的人工智能潜意识技术也处于高风险之中。

领导《人工智能法案》工作的欧盟立法者已经分发了新的妥协修正案,以最终确定构成重大风险的人工智能系统的分类以及促进创新的措施。

禁止的行为

人工智能规则手册的另一个重要部分是完全禁止的应用程序类型。

根据EURACTIV看到的另一项妥协,使用超越人的意识的潜意识技术的人工智能模型将被禁止,除非它们的使用被批准用于治疗目的,并得到接触它们的个人的明确同意。

还禁止有意操纵或旨在利用一个人的脆弱性(如心理健康或经济状况)的人工智能应用程序,以实质性地扭曲他或她的行为,从而可能造成重大的身体或心理伤害。

联合报告员建议扩大对社会评分的禁令,不仅针对个人,而且针对可能导致优惠待遇的推断个人特征的群体。

对人工智能预测警务模型的禁令得以维持。

欧盟立法者将讨论在新《人工智能法案》的支持下,如何根据人工智能系统构成的实际或潜在风险对其进行分类。