Yoshua Bengio领导并由96位国际专家合作完成的首份国际人工智能安全报告,为共享理解高级AI系统的风险以及如何减轻这些风险奠定了基础。受联合国气候变化政府间专家小组工作的启发,这份文件于1月29日发布,将有助于照亮人工智能行动峰会的讨论。在首届AI安全峰会上,30个国家同意通过制定一份关于顶尖AI风险和能力的国际、独立和包容性的报告,建立对顶尖AI风险的共同科学和事实理解。作为活动的东道主,英国委托Yoshua Bengio监督该报告。这位杰出的AI专家、2018年图灵奖得主、蒙特利尔大学教授,是Mila(魁北克AI研究所)的创始人和科学总监。他曾是呼吁暂停开发大型基础模型的信函的签署者之一,并在推动欧洲严格监管AI方面发挥了作用,为AI法案的出台铺平了道路。第二次峰会在首尔举行,利用了这份报告的初步草案,现在提供了一份关于顶尖AI模型风险和能力的现有文献的完整综合。报告总结了关于三个基本问题的科学证据:

  • 通用AI可以做什么?
  • 通用AI的相关风险是什么?
  • 对这些风险的缓解技术是什么?

必要的意识提升

通用AI系统能够完成各种任务,正在以前所未有的速度进步。它们不仅可以编写复杂的程序和检测网络漏洞,还能够在基础科学领域达到与人类专家相当的表现。然而,这些进步也带来了新的风险。由来自30个国家、联合国、欧盟和经合组织的专家撰写的报告确定了三类主要威胁:
  • 恶意使用的风险,包括网络攻击、虚假信息传播或AI帮助设计生物武器;
  • 系统性故障,如算法偏见、可靠性错误或对自主系统的失控;
  • 系统性风险,涉及AI对经济和社会的影响,特别是在就业、个人数据保护和环境方面。

透明度和治理:关键问题

报告的一项重要建议是强调透明度的重要性。更好地理解AI模型如何做出决策成为防止滥用和增强公众信任的基本问题。AI安全的未来取决于将要做出的政策选择。研究人员警告不要采取观望态度,并鼓励各国政府采取积极措施。Yoshua Bengio指出:“通用AI的能力在过去几年和几个月中迅速增长。尽管这为社会带来了巨大潜力,AI也存在重大风险,必须由全球各国政府小心管理。”报告的作者呼吁加强国际合作,以制定有效的安全标准和监测机制:“鉴于通用AI对我们生活的许多方面的影响可能深远,而且进步可能继续快速发展,迫切需要达成国际协议并实施适当措施。”然而,达成全球共识仍然是一项挑战。作者们承认他们对通用AI的某些方面存在分歧,结论是:“我们在通用AI及其能力、风险和风险缓解措施的几个问题上仍然存在分歧,无论是小的还是大的。然而,我们认为这份报告对于提高我们对通用AI及其潜在风险的集体理解至关重要,并有助于我们更接近于达成共识和有效的风险缓解,以确保人类能安全地享受通用AI的优势。风险很高,我们期待继续这一努力。”英国政府将继续负责报告秘书处,Yoshua Bengio将在2025年继续担任主席。报告可在此处查阅。