由Yoshua Bengio领导并由96位国际专家合作完成的首份国际人工智能安全报告,为共享理解高级AI系统的风险以及如何减轻这些风险奠定了基础。受联合国气候变化政府间专家小组工作的启发,这份文件于1月29日发布,将有助于照亮人工智能行动峰会的讨论。在首届AI安全峰会上,30个国家同意通过制定一份关于顶尖AI风险和能力的国际、独立和包容性的报告,建立对顶尖AI风险的共同科学和事实理解。作为活动的东道主,英国委托Yoshua Bengio监督该报告。这位杰出的AI专家、2018年图灵奖得主、蒙特利尔大学教授,是Mila(魁北克AI研究所)的创始人和科学总监。他曾是呼吁暂停开发大型基础模型的信函的签署者之一,并在推动欧洲严格监管AI方面发挥了作用,为AI法案的出台铺平了道路。第二次峰会在首尔举行,利用了这份报告的初步草案,现在提供了一份关于顶尖AI模型风险和能力的现有文献的完整综合。报告总结了关于三个基本问题的科学证据:
- 通用AI可以做什么?
- 通用AI的相关风险是什么?
- 对这些风险的缓解技术是什么?
必要的意识提升
通用AI系统能够完成各种任务,正在以前所未有的速度进步。它们不仅可以编写复杂的程序和检测网络漏洞,还能够在基础科学领域达到与人类专家相当的表现。然而,这些进步也带来了新的风险。由来自30个国家、联合国、欧盟和经合组织的专家撰写的报告确定了三类主要威胁:- 恶意使用的风险,包括网络攻击、虚假信息传播或AI帮助设计生物武器;
- 系统性故障,如算法偏见、可靠性错误或对自主系统的失控;
- 系统性风险,涉及AI对经济和社会的影响,特别是在就业、个人数据保护和环境方面。