欧盟《人工智能法案》:对人工智能监管的怀疑态度

B2C Data Innovating with Forum and Technology
Post Reply
liza89
Posts: 45
Joined: Sun Dec 15, 2024 4:01 am

欧盟《人工智能法案》:对人工智能监管的怀疑态度

Post by liza89 »

人工智能 (AI) 是一项有可能改变人类生活各个方面的技术,从健康和教育到经济和安全。然而,人工智能在带来这些机遇的同时,也带来了风险和挑战,包括侵犯基本权利、可能造成歧视、行为操纵以及对个人自主权的影响。


鉴于这些考虑,建立法律和监管框架至关重要,以确保合乎道德、安全和负责任地开发和使用人工智能,尊重社会的价值观和原则。在这方面,欧盟 (EU) 已成为人工智能监管的全球领导者,并于 2021 年 4 月推出了一项名为《欧盟人工智能法案》的立法提案。该提案旨在为经济集团内的人工智能制定一套统一的规则。


经过广泛的公众咨询和欧洲机构间谈判,这一监管框架于2023年12月8日达成政治协议。尽管该法案在成为法律之前仍需得到欧洲议会和欧盟理事会的批准,但《欧盟人工智能法案》已经代表了欧洲乃至全球人工智能治理的历史性里程碑。


欧盟人工智能法案的主要目标和影响

《欧盟人工智能法案》的主要目标是确保人工智能 医生数据库 的 开发和使用符合欧盟的价值观和基本权利,例如人类尊严、民主、平等、法治和尊重多样性。为实现这一目标,该法案建立了一种基于风险评估矩阵的非对称方法,将人工智能应用分为四类:禁止、高风险、有限风险和最小风险。


- 禁止使用的应用程序: 这些应用程序与欧盟价值观和原则不相符,例如将人工智能用于操纵技术或社交评分系统。此类应用程序在欧盟是被禁止的,违反者将受到严厉处罚。


- 高风险应用: 这些应用涉及可能对个人权利和自由或公共安全造成重大损害的人工智能,涉及基础设施、交通、卫生和教育等领域。它们需要承担特定义务,包括预先风险评估、数据质量和安全保障、透明度、人工监督和干预,以及在欧洲高风险人工智能数据库中进行监控、审计和注册。


- 有限风险应用: 此类别包括人工智能可能对个人权利和自由产生中等影响的情况,例如在生物识别系统中使用人工智能。这些应用须遵守透明度义务,告知用户人工智能的性质和目标。
Post Reply