GitHub等公司呼吁在欧盟人工智能法中提供更多开源支持
GitHub等公司呼吁在欧盟人工智能法中提供更多开源支持

GitHub等公司呼吁在欧盟人工智能法中提供更多开源支持

在AI法案最终确定前,包括GitHub、Hugging Face、Creative Commons等公司在内的一组企业致信欧盟政策制定者,鼓励更多对不同AI模型的开源开发提供支持。EleutherAI、LAION和Open Future也签署了这份信函。

在最终规则出台之前,他们向欧洲议会提交了一些建议,包括更明确地定义AI组件,澄清在开源模型上工作的业余爱好者和研究人员并未从AI中获得商业利益,允许AI项目进行有限的现实世界测试,以及为不同基础模型设定相应的要求。

GitHub的高级政策经理Peter Cihon告诉The Verge,这份文件的目标是向立法者提供关于如何最好地支持AI发展的指导。他说,一旦其他政府推出他们的AI法律版本,公司希望自己的声音能够被听到。“随着政策制定者将规定写入文件,我们希望他们能够效仿欧盟的做法。”

围绕AI的法规一直是许多政府热议的话题,欧盟是首批开始认真讨论相关提案的国家之一。但欧盟的AI法案因其对AI技术定义过于宽泛,同时过于狭隘地专注于应用层,受到了批评。

“AI法案有望树立全球AI监管的先例,以解决其风险并促进创新,”这些公司在文件中写道。“通过支持蓬勃发展的开放生态系统方法,该法规有机会进一步实现这一目标。”

该法案旨在涵盖不同类型的AI,尽管大部分关注点都集中在提议的规定如何管理生成AI。欧洲议会在6月通过了一项草案政策。

一些生成AI模型的开发者拥抱了开源理念,分享对模型的访问权限,并允许更大的AI社区对其进行探索,从而增强了信任。Stability AI发布了开源版本的Stable Diffusion,而Meta则有点类似地将其大型语言模型Llama 2发布为开源。虽然Meta没有分享其训练数据的来源,并限制了谁可以免费使用该模型,所以Llama 2在技术上并不符合开源标准。

开源倡导者认为,当人们不需要为访问模型支付费用,并且在模型的训练过程中有更多的透明度时,AI的发展效果更好。但这也给创建这些框架的公司带来了一些问题。OpenAI决定停止分享其有关GPT的大部分研究,因为担心会面临竞争和安全问题。

这些公司在发表的文件中表示,考虑到目前提议的对高风险模型的规定,无论开发者的规模大小,这些规定可能对没有充裕资金的人造成不利影响。例如,涉及第三方审计员“成本高昂且不必要,无法减轻基础模型所带来的风险。”

该团体还坚持认为,在开源库上共享AI工具并不属于商业活动,因此这些活动不应受到监管措施的限制。

关于禁止在现实世界环境下测试AI模型的规则,这些公司表示“将严重阻碍任何研究和发展”。他们表示,开放测试为改进功能提供了经验教训。目前,AI应用无法在未经过闭门实验的情况下进行测试,以防止未经测试的产品引发法律问题。

可预见的是,AI公司对欧盟的AI法案非常关注,OpenAI对生成AI的更严格规定进行了游说,其中一些建议已被纳入最新版本的法案中。