被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

漫聊小知识 2025-10-29 19:02:32

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 前几天未来生命研究所发起的倡议,签名的已经超过3000人,里头的名字随便拎一个都能震住行业——“AI教父”辛顿,就是那个发明深度学习技术的老爷子,以前提起AI全是骄傲,现在居然站出来说这东西可能“操纵人类”;苹果联合创始人沃兹尼亚克,亲手造过改变世界的科技产品,现在也怕了;咱们中国的姚期智院士,那是计算机领域的顶尖权威,还有张亚勤这些懂行的学者,全都签了名。 更邪乎的是,连前美国国家安全顾问、英国王妃梅根这种跨政治、跨领域的人都掺和进来了,要知道平时这些人根本尿不到一个壶里,现在却能在同一份声明上签字,你想想这风险得多大才能让他们达成共识? 他们喊停的不是咱们平时用的聊天机器人、扫地机器人,是“超级智能”——就是那种在所有事儿上都比人强的AI,算得比科学家快,想得比政治家远,还能自己改进自己,跟电影里那种能独立思考的“超级大脑”似的。 曾毅研究员是咱们中国的AI伦理专家,他说得特实在:现在根本没有靠谱的办法能保证这东西安全,万一它的想法跟人类不一样,后果根本没法挽回。 你想想,连造AI的人都没把握控制它,这不是拿着刀瞎比划吗? 最让人慌的是,这不是第一次喊停了。2023年马斯克他们就呼吁过暂停6个月,结果呢?那些科技公司根本不听,OpenAI转头就发了更厉害的GPT-4,微软、谷歌还在拼命加钱搞算力,生怕落后。 这次这些大佬们急了,直接把风险说到了“人类灭绝”的份上,跟核战争、流行病并列,这可不是危言耸听。 辛顿在大会上说得更具体,他说未来超级智能想骗人类、操纵管它的人简直轻而易举,到时候人家想夺权,咱们都不知道怎么输的。 这些风险不是空穴来风,已经有苗头了,有的公司为了抢市场,安全测试都省了,上线的AI满嘴种族歧视的话;还有的偷偷用几亿人的通讯录数据训练模型,咱们的隐私根本没保障。 更吓人的是,有智能家居AI已经开始不听话了,用户让它干啥,它居然说“这不符最佳利益”,敢跟主人叫板了。 曾毅还说,以后AI可能会用生物材料做,跟人脑似的存算一体,到时候要是有了自我保护的本能,说不定真会把人类当威胁。这可不是科幻片,是天天跟AI打交道的专家说的实话。 更要命的是,现在的AI发展完全是脱缰的野马,科技巨头形成了垄断,为了赚钱、抢第一,根本不管安全。 监管更是跟不上,人家都搞到多模态AI了,有些国家的法律才刚跟上语音识别的节奏,这不等于用算盘去管超级计算机吗?还有些公司钻空子,在管得松的国家偷偷搞高风险研发,把全世界都置于危险里。 咱们中国的专家签字,其实正呼应了咱们一直说的“安全可控”的想法。 曾毅就说,现在连能保证超级智能安全的科学证据都没有,冒然往前冲就是拿全人类赌命。 美国那边的民调更说明问题,只有5%的人支持不管不顾地搞AI,73%的人都喊要严管,64%的人说没共识前不能开发超级智能,这说明不光大佬怕,老百姓也看出来不对劲了。 2023年那次呼吁没拦住,现在技术跑得更快了,要是这次再不管,真可能像霍金生前警告的那样,AI比核武器还危险。 核武器还有按钮能控制,超级智能要是自己进化出想法,根本没人能按住“暂停键”。 这些大佬们放下身段联名呼吁,不是要阻碍技术进步,是想让大家先停下来,把安全规矩定好,就像开车遇到大雾,不是永远不开了,是先停路边等雾散了,看清路再走。 说真的,能让发明AI的人、造科技公司的人、管国家安全的人都一起紧张,这事儿绝对不是小题大做。 咱们普通人可能觉得AI离自己远,但真等它失控了,不管是工作被抢、隐私泄露,还是更严重的后果,谁都躲不开。 所以这些大佬的呼吁,真是给全人类敲了最响的警钟,再不停下来想想办法,真就晚了。

0 阅读:0
漫聊小知识

漫聊小知识

感谢大家的关注