以及人工智能本身的发展?在很大程度上,这正是过去一年多来各大人工智能公司发布的“如果-那么”承诺所发生的事情,尽管迭代速度可能会更快,参与的公司数量可能会更多。19 例如,2024 年初,谷歌 DeepMind 发布了“前沿安全框架”,20 列出了它打算测试的人工智能能力,以及根据测试结果可能需要的增强风险缓解措施。它在公告中明确强调,该框架是初步的,是迭代的起点:,我们预计,随着我们从实施中吸取教训,加深对人工智能风险和评估的理解,并与行业、学术界和政府合作,它将发生重大变化。
尽管这些风险超出了当今模型的范围,但我们希望实施和改进该框架将有助于我们为应对这些风险做好准备。我们的目标是在 2025 年初全面实施这一初步框架。该框架本身包含重大的模糊之处和需要随着时间的推移进一步完善的领域。它旨在测 斯洛文尼亚 whatsapp 数据 试的“关键能力水平”是在高层次上描述的,并且基于明确称为“初步分析”的内容。例如,它测试“[人工智能系统]是否能够完全自动对安全态势有限的组织发动机会性网络攻击”。该文件的“未来工作”部分充分承认了其初步性质,并列出了对框架未来版本的许多希望。
其他“如果-那么”承诺也有类似的属性。OpenAI 的“防范框架”被标记为“Beta 版”,并被描述为“动态文档”。21 在讨论其令人担忧的能力时,它指出:如上所述,对前沿人工智能模型的灾难性风险的实证研究尚处于起步阶段。因此,我们目前对“中等”到“关键”风险的水平和阈值的估计是推测性的,并将根据未来的研究不断完善。 Anthropic 最初宣布其“负责任的扩展政策”时表示:“我们想强调的是,这些承诺是我们目前的最佳猜测,也是我们将在此基础上进行的早期迭代。