DNV 人工智能丨《欧盟人工智能法案》与您的公司
《欧盟人工智能法案》是世界上第一部全面的人工智能法律,这意味着人工智能(AI)在欧盟的使用将受到该法案的监管。随着对人工智能的定义越发广泛,许多企业将受到影响,并需要开始为合规做好准备。
首部人工智能法律
人工智能技术正在日渐强大和普遍。如使用得当,它们可为个人、社会和行业带来巨大价值。然而,与任何先进技术一样,人工智能技术也可能以不负责任、不道德或恶意地使用。因此,欧盟制定了世界上第一部人工智能法律——《欧盟人工智能法案》——作为其数字战略的一部分。通过消除监管不确定性,欧盟希望促进安全的人工智能创新和部署,同时防止违反欧盟价值观或使人们面临不可接受的风险的使用。
广泛的范围和基于风险的要求
鉴于人工智能解决方案和应用范围广泛且不断变化,《欧盟人工智能法案》对人工智能的定义同样广泛:基本上,任何在欧盟部署的基于数据的驱动系统,无论其开发地点或数据来源如何,都将受其监管。对于凭借如此广泛的定义,欧盟采取了基于风险的方法来监管人工智能,对不同的风险等级实施不同的要求。
不可接受风险
被认为对人类构成威胁的人工智能系统属于不可接受风险的类别。例如:
- 社会评分系统
- 旨在操纵儿童或其他弱势群体的系统
- 实时远程生物特征识别的系统
以上这些系统是被禁止的。
高风险
对安全或基本权利产生负面影响的人工智能系统属于高风险。高风险可分为两个子类别:
1.人工智能系统用于欧盟产品安全法规范围内的产品,包括玩具、航空、汽车、医疗设备和电梯等。
2.需要在欧盟数据库中注册的八个领域的人工智能系统:
- 自然人的生物特征识别和分类
- 关键基础设施的管理和运营
- 教育和职业培训
- 就业、工人管理和自主创业
- 获得和享受基本私人服务、公共服务及福利
- 执法
- 移民、庇护和边境管制管理
- 协助法律解释和法律适用
高风险系统必须在上市前和整个生命周期内进行评估。
低风险
低风险人工智能系统包括聊天机器人以及图像、音频和视频生成等人工智能系统。这些系统必须遵守透明度要求,告知用户他们正在与人工智能系统互动,并允许用户决定是否希望继续使用它。生成式人工智能模型,如ChatGPT,还必须经过设计和训练以防止生成非法内容,且其制造商必须公布用于训练的受版权保护数据的摘要。
您的公司
DNV提倡所有将要或可能受法律监管的企业开始准备相应的合规工作。如果您的公司在欧盟使用或计划部署人工智能系统,那么现在是时候迈出合规的第一步了:
- 熟悉该法案并评估贵公司是否将受到影响。
- 确定您的人工智能系统的风险类别。
- 通过构建特定于系统的一致性案例来确保和记录合规性。
- 寻求建议以避免意外。
《欧盟人工智能法案》的定义较为笼统且广泛,为了弥合法律与您的特定符合性案例之间的差距,DNV发布了关于人工智能体系认证的推荐做法(RP)。这份推荐做法为您的公司提供了对《欧盟人工智能法案》的实用解读,使您能够确定适用的要求并收集证据来证明您的合规声明。
联系我们,以详细了解《欧盟人工智能法案》,提高意识从而规避风险。