你的 p(doom) 是多少?
我们应该对 AI 有多担心?
在理性主义者和 AI 安全圈子里,p(doom) 是对一个看似 简单却具欺骗性的问题的简写:你个人对先进 AI 导致人类灭绝或永久文明崩溃的概率估计是多少?Eliezer Yudkowsky,AI 对齐研究中最突出的声音,将他的 估计放在 90% 以上。Dario Amodei,Anthropic 的 CEO,将 赌注描述为“最重要的世纪”。Marc Andreessen 在 2023 年发布了一篇 技术乐观主义宣言,论证 AI 加速主义是一种道德 义务。话语已经远远碎裂超出单一数字——而这些 裂痕揭示了关于智能、治理、人性以及什么样的未来值得构建的真正不同的信念。
这个测试衡量你对 AI 存在风险的取向,跨越六个 维度。它没有要求你选一个数字。它在映射哪些 思想传统和风险直觉真正塑造了你对人工智能未来的思考。根据你真正相信的来回答 36 条陈述—— 不是你认为在晚宴上最能自圆其说的立场。
第 1 题,共 36 题
3%智能并不意味着仁慈;一个超级智能系统很可能追求对人类生存漠不关心或敌对的目标。
p(doom) 的概念源于以 LessWrong 和 Machine Intelligence Research Institute (MIRI) 为中心理性主义社区, 由 Yudkowsky 于 2000 年创立。其核心论点很简单:如果我们 构建出远超人类的智能系统,并且这些 系统没有精确对齐人类价值观,默认结果将是 灾难性的。Yudkowsky 的论据基于两个哲学主张——正交性论题(智能与目标是独立的,因此 一个超智能系统可以具有任何目标)和工具性收敛 (几乎任何目标都会导致足够智能的代理寻求 自我保存和资源获取)。Nick Bostrom 在 Superintelligence[^1] 中正式化了 其中的许多推理,该书阐述了“控制 问题”——确保比其创造者更聪明的系统 仍保持在其创造者预期的边界内的挑战。这一知识 传统影响了本测试的对齐悲观主义维度:坚信对齐问题不仅仅未解决,而且可能 在我们拥有的时间内无法解决。
对立的一极是加速主义乐观主义,它源于对技术历史的另一种解读。Andreessen 的 2023 年 Techno-Optimist Manifesto 阐述了这一立场,即智能放大是解决人类问题——贫困、疾病、稀缺、 环境崩溃——的最强大工具,并且放缓 AI 发展不是谨慎而是 疏忽。effective accelerationist (e/acc) 运动扩展了这一 论点:任何限制 AI 进步的尝试都会以更快 进步本可拯救的生命为代价。这不是对风险的天真;它是一种 信念,即快速发展的预期价值压倒性地 积极,并且最担心 AI 的人往往是对它实际运作了解最少的人。
在这些极之间坐落着四个难以简单置于 末日论者到乐观主义者轴线上的立场。治理制度主义将 AI 风险视为真实 但可以通过国际协调来管理,类似于核 不扩散或气候协议。2024 年的 International AI Safety Report,由 Yoshua Bengio 领导并由跨机构研究人员 签署,代表了这一立场:风险是重大的,技术 挑战是真实的,但解决方案是治理——具有约束力的协议、 计算监控、安全标准——而不是绝望。EU AI Act、UK AI Safety Institute 以及国际 AI 治理机构的提案都 体现了这一取向。
计算资源过剩焦虑捕捉了一种更具体的恐惧:当前 硬件已经支持远比今天存在的更强大的 AI 系统,并且突然的算法突破可能引发能力 跃升,超出所有安全努力。Leopold Aschenbrenner 的 2024 年文章 Situational Awareness 对这一焦虑给出了最尖锐的表述,认为 我们已经处于关键窗口内部——当前 AI 与变革性 AI 之间的差距以年来衡量,而不是十年,并且 大多数机构没有以它所要求的紧迫性来对待这一问题。这一 维度不同于对齐悲观主义:你可以相信对齐原则上 是可解决的,同时仍担心快速起飞不会给我们 时间来解决它。
务实渐进主义拒绝末日论者和 加速主义者的宏大理论化,转而支持具体的工程工作。这一取向受 AI 安全团队的实际实践影响——在 Anthropic、 DeepMind、OpenAI 以及其他地方——他们正在构建可解释性工具、 开发红队测试方法论,并在 当前系统上测试对齐技术。渐进主义立场是关于 超智能的抽象论点不如我们现在拥有的系统上的实证安全研究有用,并且像 RLHF、 宪法 AI 和机制可解释性这样的技术的迭代进步将推广到更 强大的系统。Dario Amodei 的 2024 年文章 "Machines of Loving Grace" 代表了这一观点的一个版本:AI 发展确实危险, 但通往安全的道路是通过小心、大胆的构建——而不是 暂停或惊慌。
存在主义漠不关心不是对 AI 的无知。它是明知的 立场,即存在风险框架被极度夸大——一种 披着技术语言的世俗末世论。Toby Ord 在 The Precipice[^2] 中估计 “未对齐的人工智能”的存在风险在本世纪为十分之一, 但批评者认为这些 估计建立在一系列推测性假设之上——关于 智能、能动性、目标导向性和起飞速度——其中每一个都可能出错。存在主义漠不关心的立场认为当前 AI 是复杂的模式匹配,而不是初生的能动性;超智能 时间线是极度乐观的;并且真正值得担心的 AI 危害是当下存在的:算法偏见、劳动力取代、监视、 以及权力集中。这是一个实质性的知识立场,而不是 未能认真对待这一问题。
这些六个维度以单一 p(doom) 数字无法 捕捉的方式相互作用。一个人可以在治理制度主义和 计算资源过剩焦虑上都得分很高——相信机构可以管理 AI 风险 同时担心快速起飞会超出它们。某人 可以在务实渐进主义上得分高而在对齐悲观主义上得分低—— 相信安全正是因为工程方法有效而是可实现的。完整的剖面揭示了哪些知识传统 真正塑造了你的思考,哪些风险感觉最本能,以及你的 关于 AI 未来的推理源于何处。
本测试使用 36 个李克特量表项目,每个维度六个,通过使用实证载荷将响应 转化为因子分数,然后转换为 总体规范百分位。你的主导取向由 你得分最高的维度决定,但完整的剖面——你的次要和 三级取向,它们之间的张力,你 得分最低的维度——讲述了一个比任何单一标签更丰富的故事。大多数人持有 关于 AI 风险的一组复杂且有时矛盾的信念。本 测试旨在映射那种复杂性而不是将其扁平化。
[^1]: Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. ISBN: 978-0199678112 [^2]: Ord, T. (2020). The Precipice: Existential Risk and the Future of Humanity. Hachette Books. ISBN: 978-0316484923