DeepSeek创始人梁文峰说:“我们经常说中国AI和美国有一两年差距,但真实的差距是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。” 梁文峰点破的“数字幻觉”确实戳中了行业痛点,大家总爱盯着参数表算来算去,比谁的模型参数量破了万亿,谁的训练算力堆到了E级,好像数字越大就越牛,却忘了AI的核心竞争力从来不是账本上的数字。 全球1328个大模型里,美国占了44%,中国占36%,看着数量差距不大,但骨子里的东西不一样。 现在全世界广泛使用的 Transformer 架构,其原创研发来自美国公司。我们目前的很多工作,大多是在这个已有的架构基础上做后续优化和调整,即便这些优化调整做得再完善,架构最核心的底层技术依然掌握在别人手中。 《全球人工智能创新指数报告2025》里的分数更直白,美国77.97分,中国58.01分,近20分的差距不是差在“堆料”上,而是差在没人敢先跳进未知的技术荒野。 但这并不意味着中国AI全是模仿,只是我们的发力点太偏向应用端,反而绕开了最核心的原创突破。 早几年行业里流行“造大模型”,不管有没有场景,先整个百亿参数的模型出来再说,结果就是很多模型除了在测试集上刷分,落地时连个像样的应用都没有。 这种跟风式的玩法,本质上就是把别人的原创成果当模板,换点数据再包装一下,看似热闹却没摸到根本。 不过有意思的是,中国的应用场景实在太多,反倒逼着这些“模仿品”长出了新本事,这就是“应用反推创新”的门道。 上海交大的团队搞出的AI超材料设计就是个典型例子,以前科学家找热辐射超材料,全靠瞎猜瞎试,几十年也未必能找到一个能用的。 他们直接让AI当“设计师”,输入“能降温、低成本”的需求,AI三个月就给出五万种方案,挑出来的几种做成涂料刷在屋顶,夏天能比普通涂料降温5到20度,每平米一年还能省20度电。 这不是照着别人的模型改改参数,而是因为建筑节能、航天器散热这些真实需求太迫切,倒逼AI走出了“只做语言交互”的舒适区,硬生生开辟出材料设计的新路子。 还有智子引擎的Awaker2.5-R1,参数量才70亿,连OpenAI o1的零头都不到,却在数学推理测试上追得很近,参数效率翻了几千倍,靠的就是针对实际推理场景优化算法。 这种应用驱动的优势在硬件端更明显,硅谷的巨头们总想靠原创定义新赛道,OpenAI拉着苹果前设计师搞无屏幕AI设备,想摆脱手机电脑的限制,结果研发半天卡在了生产上,最后还是得找立讯精密、歌尔股份这些中国厂商合作。不是美国不想自己造,是他们的产业链接不住这种需要高精度组装和成本控制的活儿。 中国厂商可不只是简单组装,智能眼镜里的碳化硅光波导技术,现在中美是同步攻关,以前是美国设计中国代工,现在变成了中国在制造中优化技术,再反哺给美国的设计团队。 斯坦福去年还闹过个笑话,有团队发布个视觉大模型,说能花很少钱达到GPT-4V的效果,结果被扒出来抄了清华的模型,连识别战国竹简的能力都一模一样,甚至错的地方都没改,最后只能删库道歉,这说明中国在细分场景的原创积累,已经到了能被别人“惦记”的程度。 而谷歌和斯坦福联合搞的CheXNeXt v3诊断准确率能到98.7%,确实厉害,但这东西要落地到中国基层医院,还得适配五花八门的CT设备。 中国的AI团队就在这些应用细节里找突破,把大模型做小,优化到能在边缘设备上3秒出结果,不用联网也能用,这不是模仿,是把别人的原创技术掰碎了,再按中国的场景重新拼起来,拼着拼着就有了自己的专利和技术逻辑。 就像现在全球AI硬件都绕不开中国供应链,不是因为中国只会造壳子,是因为我们在千万次的组装和调试里,摸透了AI硬件该怎么和用户需求结合,这种经验积累,早晚能变成原创的底气。 美国靠Transformer、ChatGPT这些原创定义了AI的上半场,他们敢在没人验证的领域砸钱试错,哪怕十年看不到回报。 中国的玩法是把别人验证过的技术拿到应用场景里打磨,在支付风控、工业质检、农业病虫害识别这些“接地气”的领域里练本事,练着练着就练出了AI设计超材料、小参数模型高效推理的新能力。 《全球人工智能创新指数报告》里中美分差在缩小,不是因为我们的参数追上来了,是因为这些应用驱动的创新开始形成合力。 追随者永远只能看着前人的背影,而中国正在用“应用反推创新”的方式,慢慢走出自己的路。这种从实际需求里长出来的创新,或许比从零开始的原创更有韧性,也更能经得起市场的考验,毕竟能解决真问题的技术,才是能定义未来的技术。 信息来源: 梁文峰:“我们经常说中国AI和美国有一两年差距,但真实的差距是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的!” 海峡导报2025-09-05 08:36福建
纽约时报终于反应过来了,不过好像有点晚。纽时的观点称,如果两国都按照目前的轨
【14评论】【58点赞】