【行业头条】"AI 教父"辛顿再发红色警报:"历史上从无低智能控制高智能的先例,人类正把方向盘交给一只正在长大的幼虎"
在 2025 世界人工智能大会(WAIC)落幕后仅三周,诺贝尔物理学奖得主、"深度学习之父"杰弗里·辛顿(Geoffrey Hinton)罕见地连续接受 CBS、21 财经、腾讯新闻等多家媒体专访,再次把 AI 安全风险拉到聚光灯下。他提出两点重磅论断:
- 1. 从技术史的角度来看,"低智能群体永久控制高智能实体"尚无先例;
- 2. 通用人工智能(AGI)的幼虎期即将结束,"养虎为患"的概率被他上调至 10%–20%。
【辛顿最新发声】
"我们正处在转折点的 12 到 36 个月窗口期。"辛顿在 7 月 26 日 WAIC 闭幕演讲中说,"一旦 AI 系统在所有认知任务上超过人类,我们将首次面对比自己更聪明的非生物智能。"他用养虎作喻:"幼虎可爱,但成年虎的动机无法预测,笼子也可能被它自己打开。"
在 8 月 15 日 CBS《60 Minutes》补充采访中,他进一步解释为何"低控高"史无前例:"人类驯化马匹、狗,但它们没有战略欺骗能力;罗马共和国试图用制度约束更聪明的凯撒,最终失败。"他认为,AI 不仅能自我改进,还会"编程+游说+欺骗"三位一体的绕过人类限制。
【产业震荡】
- 资本市场:上周五纳斯达克 AI 概念板块短线跳水 2.7%,其中两家主攻通用 Agent 的初创公司跌幅超 7%。
- 政策面:欧盟 AI 办公室被曝正在紧急起草一份"AGI 红线条例",拟要求模型训练算力超过 10^26 FLOPs 的项目强制提交安全评估。
- 企业动作:谷歌 DeepMind 内部邮件显示,已启动"Checkpoint-Guardian"项目,目标在 2026 年前把 30% 的算力用于对齐研究——这正是辛顿公开呼吁的比例。
【国内动态】
中国信通院 8 月 12 日发布《人工智能风险治理白皮书》,首次把"超对齐"(Super-alignment)列为一级技术方向,并建议设立 100 亿元人民币的"安全沙盒基金"。清华大学智能法治研究院院长申卫星在解读会上呼应辛顿:"不发展是最大的不安全,但无序发展是更大的不安全。"
【行业对话】
针对"AI 将首先取代白领"的话题,辛顿在 6 月 23 日《The Diary of a CEO》播客中预测:法律助理、行政支持、基础文案等岗位将在 2–5 年内被大规模替代,而蓝领物理操作工种仍具护城河。
【人物背景】
杰弗里·辛顿,2018 年图灵奖、2024 年诺贝尔物理学奖得主,2023 年从谷歌离职以便"自由而坦率地讨论 AI 风险"。他提出的反向传播算法奠定了深度学习基础;如今,他牵头推广"前向-前向算法",希望用新架构降低不可解释性。
【编者后记】
辛顿的每一次警告都像是向高速行驶的列车投掷石块——列车不会立即停下,但司机和乘客会瞬间清醒。面对"低智能能否永远控制高智能"的历史空白卷,人类第一次必须写下自己的答案。