图片来源于网络 随着人工智能(AI)几乎渗透到我们生活的方方面面,世界各国政府正在考虑采取措施在国家层面规范其部署。欧盟处于这一运动的最前沿,颁布了管理人工智能开发和使用的开创性法规。 这项立法于2021年首次提出,根据人工智能系统的风险状况对其进行分类,区分禁用不可接受的风险类型、重点监管高风险类型、有限风险或轻微风险类型以及低风险类型。 这个全面的框架为整个欧盟的通用人工智能系统和基础人工智能模型制定了临时规则。 在历经马拉松式谈判后,欧洲议会、欧盟成员国和欧盟委员会三方于8日晚就《人工智能法案》达成协议,该法案将成为全球首部人工智能领域的全面监管法规。
基础知识
AI的定义:人工智能系统是一种基于机器的系统,为了明确或隐含的目标,从接收到的输入推断如何生成输出,例如预测、内容、建议、或可能影响物理或虚拟环境的决策。不同的人工智能系统在部署后的自主性和适应性水平各不相同。 适用:域外向欧盟提供AI系统和服务的公司也适用这个法规 豁免:国家安全、军事和国防;研发;开源(部分) 合规宽限期为6-24 个月
广泛的范围和基于风险的要求
鉴于人工智能解决方案和应用范围广泛且不断变化,《欧盟人工智能法案》对人工智能的定义同样广泛:基本上,任何在欧盟部署的基于数据的驱动系统,无论其开发地点或数据来源如何,都将受其监管。对于凭借如此广泛的定义,欧盟采取了基于风险的方法来监管人工智能,对不同的风险等级实施不同的要求。
四种AI系统风险类型的划分
禁用不可接受的风险类型 被认为对人类构成威胁的人工智能系统属于不可接受风险的类别。例如: 社会评分系统 旨在操纵儿童或其他弱势群体的系统 实时远程生物特征识别的系统 以上这些系统是被禁止的。 重点监管高风险类型 对安全或基本权利产生负面影响的人工智能系统属于高风险。高风险可分为两个子类别: 人工智能系统用于欧盟产品安全法规范围内的产品,包括玩具、航空、汽车、医疗设备和电梯等。 需要在欧盟数据库中注册的八个领域的人工智能系统: 自然人的生物特征识别和分类 关键基础设施的管理和运营 教育和职业培训 就业、工人管理和自主创业
