欧盟立法规范AI系统:将重点监管模型带来的系统性风险

本周末,欧盟就全球首个AI监管法案“AI Act”达成初步协议。根据彭博社获得的一份欧盟文件,通用人工智能系统的开发人员必须满足基本的透明度要求,除非这些系统是免费开源的。被认为会构成“系统性风险”的模型将受到额外规则的约束。

欧盟立法规范AI系统:将重点监管模型带来的系统性风险

本周末,欧盟就全球首个AI监管法案“AI Act”达成初步协议。根据彭博社获得的一份欧盟文件,通用人工智能系统的开发人员必须满足基本的透明度要求,除非这些系统是免费开源的。被认为会构成“系统性风险”的模型将受到额外规则的约束。欧盟将根据训练模型的计算能力来确定是否存在风险,并为模型设定阈值是每秒超过10万亿次运算。此外,欧盟执行机构还可根据数据集的规模、是否在欧盟拥有至少10000名注册商业用户、注册用户的最终数量等可能的指标来指定其他阈值。

在欧盟委员会制定出更协调且长期有效的控制措施期间,“能力更强”的模型应该签署行为准则。这些模型还必须满足如下要求:主动报告自身能耗情况,在内部或外部进行红队测试/对抗性测试,评估和减轻可能的系统性风险,并报告任何事件确保使用适当的网络安全控制措施报告用于微调模型的信息及其系统结构如果制定了更节能的标准,则开发过程中应当符合新的标准至于没有签署行为准则的模型,则必须向欧盟委员会证明它们确实会遵守《AI法案》。需要注意的是,对开源模型的豁免不适用于那些“被认为会带来系统性风险”的模型。

THE END
免责声明:本站所使用的字体和图片文字等素材部分来源于互联网共享平台。如使用任何字体和图片文字有冒犯其版权所有方的,皆为无意。如您是字体厂商、图片文字厂商等版权方,且不允许本站使用您的字体和图片文字等素材,请联系我们,本站核实后将立即删除!任何版权方从未通知联系本站管理者停止使用,并索要赔偿或上诉法院的,均视为新型网络碰瓷及敲诈勒索,将不予任何的法律和经济赔偿!敬请谅解!