经济学人:
中国拥有顶尖AI模型 但芯片禁运使其难以运行
六个月前,中国人工智能公司深度求索(DeepSeek)推出的v3系列大模型惊艳全球。这是首个非美国研制——且在美国切断高端半导体芯片供应背景下——仍能媲美硅谷产品的开源模型。
尽管面临技术封锁,中国企业仍在持续训练世界级AI模型。7月由月之暗面(Moonshot AI)发布的Kimi K2模型,其参数规模(即人工神经元连接数)超越所有开源竞品,在代码能力测试中击败西方对手ChatGPT 4.1,在科学知识测试中超越Claude 4 Opus,直接登顶全球排行榜。这家由谷歌和Meta前员工创立的北京实验室再次证明了中国AI的实力。
但模型真正的价值在于应用,而这正是芯片禁令卡脖子的关键环节。算力短缺已波及AI实验室运行训练后系统所需的数据中心,响应延迟、使用限制和连接中断成为常态。"我们听到了用户的反馈——Kimi K2确实太……慢……了……"月之暗面在模型发布数日后于X平台发文致歉。据科技媒体The Information报道,深度求索为避免类似性能问题,已推迟最新模型的发布。
正因如此,当两周前白宫突然撤销最新出口管制,重新批准英伟达向中国出售H20芯片时,两家公司都看到了转机。这批芯片将帮助科技企业扫清当前的发展障碍。
中国具备AI爆发的沃土:数百万理工科毕业生、充足的电网冗余、建设数据中心的政治决心(其速度堪比混凝土浇筑)、以及获取西方全部公开数据源和更庞大本土数据的能力。但算力自主权的缺失,始终是制约行业发展的根本瓶颈。
过去几个月,中国企业已摸索出多种应对之策。自4月以来价值10亿美元的禁运芯片通过特殊渠道流入,华为等本土企业研发的芯片在某些方面已可比肩英伟达高端产品(尽管产能有限)。对效率的极致追求也催生了技术突破。
芯片获取受限还解释了中国AI界另一个令外界费迷的特点:对开源的热衷。深度求索v3和Kimi K2不仅登陆纽约 Hugging Face等第三方托管平台,还开放用户本地部署。这确保即使企业自身算力不足,模型仍能通过其他渠道获得支持。开源策略同时绕过了硬件禁令——若深度求索难以采购英伟达芯片,Hugging Face却可以。
并非所有中国企业都同等受限。上周五阿里巴巴发布通义千问Qwen3-235B-A22B-Thinking-2507开源推理模型,标志着中国AI不仅比肩最佳开源模型,更已跻身全球顶尖水平。
阿里模型的参数量仅为K2的四分之一,所需算力大幅降低,且背靠阿里云基础设施保障运行。提升模型效率显然已成为中国AI新赛道:本周一智谱AI发布的GLM-4.5和4.5 Air双模型,就主打速度与能效优势。
但精妙的变通方案和惊艳的模型终究存在极限。自4月以来,最大的桎梏莫过于英伟达H20芯片的断供。
成功的AI公司必须兼顾两件事:训练模型与运行模型(即推理)。资金最雄厚的中国实验室仍保持着与西方同行相当的训练规模,但推理环节更为棘手。训练需要顶级芯片构建的超算集群,推理则需平衡算力、能效与数据吞吐的专用芯片——在4月前,H20是最佳选择。
更严峻的是,模型训练作为前期投入可通过后续服务收回成本,但推理环节的亏损无法弥补。这意味着决定中国AI行业天花板的,正是推理芯片而非训练芯片的获取能力。
对此,特朗普政府释放了矛盾信号。7月初发布的AI行动计划强化部分芯片管制,强调"阻止对手获取先进AI算力"关乎地缘竞争和国家安全,要求创新出口管制手段。但同时又解禁H20出口,其逻辑是让中国AI产业全面依赖美国技术(包括推理芯片),比放任其发展本土替代更符合美国利益。
短期来看,这种松动对中国只是杯水车薪。英伟达自身产能限制意味着最早也要到四季度才能满足需求。未来一段时间,侧重高效输出及手机/笔电端直接运行的模型仍是开发重点。但若美国出口真正回暖,中国AI产业或许终能在2026年迎来破局之年。
评论
发表评论