【ZiDongHua 之人文化天下收录关键词:欧盟 人工智能 模式识别 生物识别 OpenA ChatGPT AIGC

欧盟立法者支持生成性人工智能的透明度和安全规则【外媒编译】

在5月12日早晨的一系列欧洲议会投票中,议员们支持了对该集团草拟的AI立法的一系列修订案,包括对所谓的基础模型的一套要求,这些模型支撑着OpenAI的ChatGPT等生成性AI技术。

修订案还承诺基础模型制作者将减少其系统的能源消耗和资源使用,并在即将由AI法案建立的欧盟数据库中注册他们的系统。而生成性AI技术的提供者(如ChatGPT)有义务遵守法规中的透明度义务(确保用户被告知内容是由机器生成的);在他们的系统生成的内容中应用“适当的保护措施”;并提供一个关于用于训练他们的AI的任何受版权保护的材料的摘要。

议会议员争论的其他关键领域包括生物特征监测——在这里,议员们也同意了旨在加强基本权利保护的改变。

两个委员会的议员,内部市场委员会和公民自由委员会,今天对大约3,000个修订案进行了投票,通过了关于计划中的人工智能规则手册的草案授权,赞成票84票,反对票7票,弃权票12票。

今天由各委员会达成一致的关键修订案包括扩大禁止行为的清单,增加了对AI系统的“侵入性”和“歧视性”使用的禁令,例如:

后者,即完全禁止美国有争议的AI公司Clearview AI的商业模式,正好在法国数据保护监察机构因其未能遵守现有的欧盟法律而再次对该初创公司进行罚款的一天后。因此,对选择无视该集团规则的外国实体执行此类禁令无疑将仍然是一个挑战。但第一步是有硬性法律。

预计下个月(在6月12日至15日的会议期间),议会将进行全体投票以确定授权,之后将与理事会开始三方对话,以达成关于该文件的最终妥协。

民间社会团体和欧盟机构呼吁进行修订以增强对基本权利的保护——欧洲数据保护监察员和欧洲数据保护委员会等机构呼吁该立法进一步发展,并敦促欧盟立法者在公共场所全面禁止生物特征监控。

议员在今天的委员会投票中同意的其他变动包括扩展法规的(固定)“高风险”领域的分类——包括对人们的健康,安全,基本权利和环境的危害。

同时,议员们也支持改变什么算作高风险——建议让AI开发者决定他们的系统是否足够重要以满足适用义务的标准,这是数字权利团体警告(见下文)的“主要红旗”。

缺乏对受有害AI影响的个体有意义的救济是民间社会团体在2021年秋季对修订的重大呼吁中提出的一个主要漏洞,他们指出了委员会的AI法案提案和该集团的通用数据保护法之间的显著差异,根据后者,个人可以向监管机构投诉并寻求其他形式的救济。

同时,为了回应永恒的行业哭诉,即过多的监管对“创新”有害,他们还为研究活动和提供开源许可证的AI组件增加了规则的豁免权,同时指出法律促进了由公共机构建立的监管沙盒,或受控环境,以测试AI的部署前的表现。

它指出的另一个关键胜利是对部署高风险AI的责任和透明度义务的包含 - 他们有义务进行基本权利影响评估以及受影响的人们可以挑战AI系统的机制。

“这份新文本比委员会原始提案在控制我们的面部,身体和身份的敏感数据的滥用方面要好得多,”另一位专注于生物识别的EDRi高级政策顾问Ella Jakubowska补充道。

对此,Chander指出,议员未能将AI用于促进“非法推回”,或以歧视性方式对人进行分档的做法列入禁止的实践列表 - 这是EDRi曾经呼吁的。“不幸的是,[欧洲议会]对人民权利的支持并未阻止移民免受AI带来的伤害,包括AI用于推动推回的情况," 她说,并建议:“没有这些禁止,欧洲议会正在为在欧盟边界开设全景监控系统打开大门。”

“尽管议会在生物识别方面的做法非常全面,但我们希望看到的是进一步限制一些实践。尽管有对公共面部识别的回顾性禁令,但法律执法部门仍然有例外,我们认为这仍然存在风险。尤其是,它可能激励大规模保留CCTV录像和生物识别数据,这是我们明确反对的,”Jakubowska补充说,并表示该团体还希望看到无论情境如何,欧盟都会禁止情绪识别 - “因为这种‘技术’从根本上来说是有缺陷的,不科学的,而且设计上就是歧视的”。

“不幸的是,议会提出了一些非常令人担忧的变化,这些变化与什么算作‘高风险AI’有关。随着文本中的变化,开发者将能够决定他们的系统是否‘足够重要’以被视为高风险,这对于执行这项立法来说是一个主要的红旗,”Chander建议。

当被问及是否期待理事会试图解开对生物识别监控扩大保护的一些问题时,Jakubowska表示:“我们可以从去年理事会的总体立场看出,他们希望淡化委员会原始文本中已经不足的保护。尽管没有可靠的有效性证据,但有大量的证据证明其有害,我们看到很多成员国政府都热衷于保留进行生物识别大规模监控的能力。

从公民社会给出的另一项早期评估中,爱尔兰公民自由理事会(ICCL)的高级研究员Kris Shrishak,该理事会也参加了2021年对AI法案进行重大修改的呼吁,他也对执行挑战提出了警告,他警告说,尽管议会通过明确允许监管机构进行远程检查的修订案加强了可执行性,但他认为,议会同时阻止了监管机构在调查中访问AI系统的源代码。

在积极的一面,他表示,议会已经向解决欧盟委员会对AI系统定义的“不足”迈出了一步,特别是将生成性AI系统纳入范围,并对其实施透明度义务,他称这是“解决其危害的关键一步”。

版权修订案只要求公司提供用于训练的版权保护数据的摘要——这似乎意味着将让权利持有人去起诉。

“研究是一个从法规范围内遗留下来的漏洞。这可能会被公司利用,”他建议说。“在AI的背景下,这是一个大漏洞,因为大部分研究正在公司中进行。我们已经看到谷歌说他们正在与Bard‘实验’。此外,我预计有些公司会声称他们开发AI组件而不是AI系统(我已经在关于通用AI的讨论中从一个大公司那里听到过这个。这是他们为什么GPAI[通用AI]不应该被监管的论点之一)。”

该基金会的高级政策顾问Alexander Sander告诉TechCrunch:“大科技公司将一切外包给微型企业而不再部署它们的可能性极小。一旦他们部署,他们再次落入法规之下(如果大于微型企业)。”

他补充说,该组织对议会的提议总体上感到满意,尽管批评了一些“超级复杂的措辞”,以及该规定仅被包含在一项序言(即而不是一篇文章)中。

文章来源于网安寻路人,作者洪延青