据英国《金融时报》报道,斯坦福大学研究警告称,花费数十亿美元开发复杂新AI模型的公司,包括OpenAI、谷歌、Meta等,有违反欧盟技术规则草案的风险,可能与致力于遏制其风险的全球监管机构之间即将发生冲突。

斯坦福大学:AI模型或不符合欧盟规则草案

“企业未能达到(规则草案)要求,尤其是在版权方面。” 斯坦福大学基础模型研究中心的人工智能研究员Rishi Bommasani说,“如果基础模型正在生成内容,那么他们需要总结他们训练的哪些数据受版权保护。”他说目前大多数提供商在这方面做得尤其糟糕。Bommasani认为该行业更大的透明度将使政策制定者能够比过去更有效地监管AI。

由Bommasani领导的斯坦福大学研究根据欧盟关于描述数据源和总结受版权保护的数据、披露技术的能源消耗和计算要求以及与其相关的评估、测试和可预见风险的报告的规则草案,对10个AI模型进行了排名。每个模型在许多关键领域都表现不佳,10个提供商中有6个得分低于50%。

研究人员发现,OpenAI的ChatGPT或谷歌的PaLM 2等封闭模型因受版权保护的数据缺乏透明度而受到影响,开源竞争对手或可公开访问的模型则更透明,但更难控制。在该研究中排名垫底的是德国的Aleph Alpha和加利福尼亚州的Anthropic,而开源的BLOOM模型排名最高。