等保资讯

了解最新等保资讯及等保政策

当前位置:首页>等保资讯
全部 649 等保资讯 538 等保政策 15

国际 | 欧盟《人工智能法案》生效在即

时间:2024-03-26   访问量:1266
关键词: 网络安全


3月17日,法国经济部长勒梅尔表示,应该建立“欧盟人工智能共同体”,以便更好地协调欧盟各国资源,在人工智能领域实现创新。此前的3月13日,欧洲议会全体会议通过《人工智能法案》,标志着欧盟扫清了立法监管人工智能的最后障碍。欧洲媒体预测,法案或将于4月29日获欧盟理事会最终通过,预计6月生效。

 

将人工智能系统分为四类

据报道,在法国斯特拉斯堡举行的欧洲议会全体会议上,欧洲议会正式投票通过并批准欧盟《人工智能法案》。这也是全球首部人工智能法案。

法案对人工智能系统的定义和适用范围进行了明确界定。人工智能系统是“一种基于机器的系统,设计为以不同程度的自主性运行,在部署后可能表现出适应性,并且为了明确或隐含的目标,从其接收的输入中推断如何生成可影响物理或虚拟环境的输出,如预测、内容、建议或决定”。

 

法案的适用范围较为广泛,即便企业是欧盟范围外人工智能技术的供应商,但使用其人工智能技术的产品或提供服务在欧盟范围内,也需要适用法案的相关规定。

 

法案的主要内容将人工智能系统根据风险评估分为四类,包括不可接受的风险、高风险、有限风险与最小风险。对于不同风险等级,法案采取了不同程度的监管措施。对于不可接受风险的人工智能,法案严厉禁止,并对违反者最高处以上一财年全球营业额7%或3500万欧元的罚款;对于高风险的人工智能,法案规定了一套完整的全流程风险管理措施;对于有限风险的人工智能,法案要求履行公开透明义务;对于最小风险的人工智能,法案不作干预。其中,针对高风险类别,法案规定了从人工智能上市前到上市后的全流程风险管理措施。

 

人工智能系统的定义与法案适用范围的明确,对于确保法案的有效实施至关重要。这有助于避免监管盲区,确保所有涉及人工智能的活动都受到法律制约。同时,也为相关企业和研究机构提供明确指导,推动人工智能领域的合规发展。

 

知情人士称,在欧盟内部,这部《人工智能法案》实际上是要推动欧盟在人工智能方面形成统一的规则与开发方向。同时,法案也试图对当前正在出现的一些新型的智能工具,比如人工生成式智能工具,进行规范和监管。

 

如何监管生成式AI成焦点

《人工智能法案》草案最早由欧盟委员会在20214月提出,经过多轮修订和讨论,法案最终获批。作为通用人工智能模型的典型范例,ChatGPT这类生成式人工智能将受到怎样的监管成为关注的焦点。

在欧洲议会通过的法案版本中,仅明确提及“生成式模型”两次,这些系统被纳入所谓的“通用人工智能模型”。根据这些模型是否存在“系统性风险”,它们可能会受到不同监管。在最初公布的立法草案中,并未对“通用人工智能模型”进行规定,在立法讨论过程中,欧盟立法者增加了对其的界定和法律规制方式,采用了一种层加式的风险分类方法,将“通用人工智能模型”分为开发许可型、标准型和系统性风险型,分别对应低、中、高三类风险类型。

 

浙江大学光华法学院博士研究生刘子婧在接受《法治日报》记者采访时称,相比专用人工智能系统而言,生成式人工智能系统具备两个重要特征:一是可以执行不特定任务,二是具有庞大的数据训练量。这就与欧盟委员会最初公布立法草案时旨在规范的人工智能系统相区别。首先,生成式人工智能系统并非为了特定语境或者使用条件而建立的,而是具有开放性和易控制性,可以被应用于更广泛的使用场景之中,执行不特定任务。并且,生成式人工智能系统能够输出可以被一般人所理解的内容,例如文本、音频或视频,极大地降低了用户的使用门槛。其次,生成式人工智能系统在训练时使用的数据规模之大,远超专用人工智能系统。例如,仅ChatGPT就有海量的训练数据量,训练数据的范围涵盖了互联网中的各类内容,从个人数据到公共文件,从新闻报道到文学、艺术等等。

 

生成式人工智能系统的这些特征,挑战了《人工智能法案》所采取的“基于风险”的监管路径。因为,对生成式人工智能而言,风险将取决于终端用户使用系统的方式,而非由系统供应商预先决定,使得基于预设用途进行风险分类的方式将面临失效。

 

对此,有学者指出,需要调整《人工智能法案》以更好地适应生成式人工智能系统中与不具有预设目的、多用途使用情景和大规模攫取训练数据相关的风险。根据生成式人工智能系统的特点对法案规定的义务进行严格审视和重新校准,充分考虑这些义务如何适用于不同角色(供应商、专业用户和终端用户)间的复杂互动关系。

 

欧盟《人工智能法案》也提出了一些比较尖锐的问题。比如对于人工智能领域的应用,究竟在什么范围内既符合科学、经济以及社会的发展,同时又对人的基本权利予以保护。尤其是对人类的一些基本生物特征进行抓取、运用,多大程度上违反了所谓的基本原则和价值观。

 

立法过程存在不同声音

法律界人士指出,尽管法案中许多条款的正式适用要等到2026年,但对法案中最重要的几个部分,譬如针对高风险系统的合规规则,包括风险管理系统、风险合格评定等比较重要的条款,可以说合规博弈已经在路上。

在欧盟乃至全球范围内,对于欧盟《人工智能法案》一直存在不同声音。法、德等国政府曾觉得人工智能监管规则过严,认为可能会伤害欧洲初创企业。

 

欧洲科技行业组织“数字欧洲”总干事博内费尔德—达尔曾不无担忧地表示:“我们将为法案付出代价,这意味着我们需要投入更多研究对抗人工智能使用风险的方法,而不是投入技术本身。”

 

也有观点认为,尽管在立法过程中充满争议,但法案为全球范围内的人工智能治理树立了一个样本,值得各国借鉴和学习。全球顶级律师事务所之一普盈合伙人、人工智能专家史蒂文·弗姆谈及法案时说:“这是一个非常全面的框架。当其他国家寻求制定类似措施时,欧盟可能会享有先发优势。”

 

除欧盟外,部分国家及国际组织也在尝试保障人工智能创新与安全的平衡。《人工智能法案》最终文本的确认将会加速全球各国的人工智能监管立法。

 

国际社会认为,人工智能应是以人为本的技术。人工智能应作为人类的工具,最终目的是提高人类福祉。欧盟在人工智能监管方面所采取的措施,体现了其对于科技伦理的深刻认识。随着人工智能技术对生活的渗透越来越强,未来将有越来越多的国家和地区制定与人工智能监管或治理相关的法律法规,人工智能立法势必全面提速。

(来源:法治日报)

 

 

 


上一篇:2024年政府工作报告中的网信事业

下一篇:专题·特别策划|2023 年国外网络空间安全管理举措概览

在线咨询

点击这里给我发消息 等保测评咨询

在线咨询

免费通话

24小时免费咨询

请输入您的联系电话,座机请加区号

免费通话

微信扫一扫

微信联系
返回顶部