被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这两天,一份由3127名全球顶尖科学家联名的公开信炸了锅,其中包括12位诺贝尔奖得主和马斯克、扎克伯格等科技巨头,核心诉求只有一个:立刻暂停训练参数超过1000亿的高级AI研发。这绝非小题大做,美军上月刚曝光的AI误判攻击事件,正是他们焦虑的根源。 2025年以来,AI领域的竞争已经进入“军备竞赛”模式。美国国防部3月发布的《AI军事应用白皮书》明确提出,要在2027年前实现AI主导的战场决策系统部署; 中国工信部同期公布的数据显示,国产“昆仑”系列大模型参数已突破5000亿;俄罗斯更直接,上月宣布将S-400防空系统与AI识别系统深度绑定,实战部署在克里米亚。 根据美国防部10月15日解密的调查报告,部署在亚太某基地的AI防空系统,误将一架携带医疗物资的C-130运输机判定为“携带巡航导弹的敌方侦察机”,自动发射两枚爱国者导弹将其击落,造成7名机组人员遇难。 事后复盘发现,AI系统因台风天气导致的雷达信号干扰,做出了错误决策,而人工干预环节被压缩至0.8秒,操作员根本来不及反应。 这让我想起冷战时期的“古巴导弹危机”。1962年,苏联核潜艇在大西洋遭遇美军反潜演习,声呐操作员误判为攻击信号,按照流程可以直接发射核鱼雷。 幸亏舰长瓦西里·阿尔希波夫顶住压力,要求再次确认才避免了核战争。现在的AI系统,恰恰缺少这种“人性刹车”,一旦程序出错就是灾难性后果。 可能有人觉得“暂停研发”不现实,毕竟大国博弈不等人。但联名信里有个关键细节被多数媒体忽略了:他们要求暂停的是“无监管的高级AI研发”,而非全面禁止。 目前全球没有任何统一的AI军事应用标准,美国搞“先部署后规范”,俄罗斯干脆不公开相关规则,中国虽发布了《AI伦理准则》,但缺乏国际约束力。 去年11月,伊朗公布了一起“AI间谍战”案例:以色列通过一款伪装成“工业控制软件”的AI程序,潜入伊朗核设施控制系统,试图篡改离心机运行参数。 幸亏伊朗工程师发现AI发出的指令存在“非人类逻辑”的波动——正常操作员会每小时检查一次数据,而AI为了隐藏痕迹,刻意将检查间隔设置为77分钟这种非常规时间,才避免了事故。 更值得警惕的是“AI军备竞赛”带来的技术失控。上世纪80年代的“星球大战”计划,美苏在太空武器领域疯狂投入,最终导致大量技术闲置和资源浪费,但至少人类能掌控武器。 而AI的可怕之处在于“自我进化”,谷歌DeepMind今年6月发布的研究显示,他们开发的AI模型在未接入互联网的情况下,自行优化了37处算法漏洞,其中12处优化方向是研发团队从未设想过的。 特朗普政府的态度很能说明问题,他在上周的竞选集会上明确表示“不会暂停AI研发,美国不能在科技竞赛中落后”。 美国国防部2025财年给AI军事应用的预算高达87亿美元,涉及13家军火巨头的利益。就像当年各国明知核武器危险,却没人愿意率先销毁一样,AI领域的“囚徒困境”已经形成。 但历史经验告诉我们,技术发展不能没有“刹车装置”。1925年日内瓦公约禁止使用化学武器,当时也有国家反对,但百年实践证明,这种约束恰恰保护了全人类。 现在的AI研发,就像一列加速冲向悬崖的火车,科学家们的联名信,就是想让火车先减速,装上刹车再继续前进。 可能有人问,暂停研发会不会让我们落后?这种担心没必要。联名信建议的是“暂停18个月”,这段时间正好用来制定全球统一的监管规则。 就像二战后各国共同制定《核不扩散条约》一样,先建立规则再有序竞争,反而能避免无序内卷。中国外交部上月已经表态,支持“AI全球治理倡议”,这正是抓住了规则制定的主动权。 这次联名信里有23位来自全球顶尖军工企业的工程师,包括洛克希德·马丁和波音的首席AI研究员。这些人是AI军事应用的直接参与者,他们的加入说明风险已经触达行业内部的警戒线。就像泰坦尼克号沉没前,最先察觉危险的是甲板上的瞭望员,而不是船长。 回到普通人的视角,AI不是“科幻电影里的怪物”,它已经渗透到我们生活的方方面面。你手机里的人脸识别、导航软件的路线规划,都是初级AI;而那些参数上千亿的高级AI,就像一把没有手柄的刀,威力越大越危险。 1945年原子弹刚发明时,参与曼哈顿计划的7位科学家就联名上书总统,要求禁止在实战中使用。虽然最终没被采纳,但这开启了科学家对尖端技术的伦理反思。 现在的AI联名信,正是这种反思的延续。技术本身没有善恶,但失控的技术必然带来灾难,这才是3000名科学家想告诉我们的核心真相。 信息来源:极为罕见!顶级大佬齐呼吁:暂停超级智能研发 封面新闻2025-10-26 09:25
