英伟达+GPT:AI时代的“Wintel联盟”?相似路径下的相同困局

对绝大多数普通用户而言,日常办公、看视频、浏览网页,根本用不到酷睿i7的性能,也用不上Windows系统的诸多“高级功能”。但在Wintel联盟的垄断下,用户没有选择——你要么花高价买高配电脑,要么忍受老电脑跑新系统的卡顿。这种**“为了性能而性能”的路径依赖**,让Wintel联盟逐渐与用户需求脱节。

(二) 英伟达+GPT的路径:模型参数越多,算力需求越大;算力越强,模型参数越多

如今的AI行业,正在重演Wintel联盟的“性能竞赛”剧本,只不过主角换成了“大模型参数”和“GPU算力”。

OpenAI等大模型公司的核心追求,就是不断提升模型的参数规模——仿佛参数越多,模型的智能水平就越高。从千亿参数到万亿参数,模型的训练成本从数千万美元飙升至数亿美元,但对用户而言,模型效果的提升却越来越不明显。比如,万亿参数的模型生成的文案,和千亿参数的模型相比,可能只是措辞更流畅了一点,但用户需要为此支付的API调用成本,却可能翻了好几倍。

而英伟达的策略,就是跟着大模型的算力需求走。大模型需要更高的算力密度,英伟达就推出H100;大模型需要更大的内存带宽来处理海量数据,英伟达就升级H200的HBM内存。每一次芯片升级,都精准命中大模型的“痛点”,但也让大模型公司对英伟达的依赖越来越深——毕竟,只有英伟达的芯片,才能支撑起万亿参数模型的训练与推理。

这种循环带来的,是严重的路径依赖。大模型公司陷入“参数竞赛”的陷阱,不敢轻易尝试轻量化模型,因为“参数少”会被市场认为“技术不行”;英伟达则陷入“算力竞赛”的陷阱,不断推出更强的芯片,却忽视了芯片的能效比和成本控制。整个行业都在“为了算力而算力”,却忘了AI发展的核心目标——用更低的成本、更高的效率,解决用户的实际问题。

三、 用户的困境:成本攀升,边际效益却持续递减

无论是当年的Wintel联盟,还是如今的英伟达+GPT组合,最终的成本都转嫁到了用户身上。更糟糕的是,随着性能竞赛的加剧,用户支付的成本越来越高,但获得的价值提升却越来越小——边际效益递减规律,成了两个联盟共同的“死穴”。

(一) Wintel联盟时代:用户为冗余功能买单,体验提升却微乎其微

在Wintel联盟的巅峰时期,用户的换机成本直线上升。一台搭载Windows Vista系统和英特尔酷睿2双核CPU的电脑,价格比搭载Windows XP和奔腾4 CPU的电脑高出近50%。但用户实际体验到的提升,却远不如价格涨幅明显——Vista系统的卡顿问题饱受诟病,很多用户甚至选择“降级”回XP系统。

这就是典型的边际效益递减:当CPU主频从1GHz提升到2GHz时,用户能明显感受到系统运行速度变快;但当主频从3GHz提升到4GHz时,日常使用的体验提升几乎可以忽略不计。同样,当Windows系统从“能用”升级到“好用”时,用户愿意买单;但从“好用”升级到“臃肿”时,用户就会觉得“不值”。

更让用户无奈的是,Wintel联盟的垄断,让他们没有其他选择。想要用主流的办公软件、游戏,就必须用Windows系统;想要流畅运行Windows系统,就必须买英特尔芯片的电脑。用户只能被迫为自己不需要的性能和功能买单,这也为后来移动互联网的颠覆埋下了伏笔。

(二) AI时代:企业与开发者为算力买单,价值回报却越来越低

如今的AI行业,用户(企业和开发者)正面临着和当年Wintel用户一样的困境。

本小章还未完,请点击下一页继续阅读后面精彩内容!

一家中小企业若想部署一个大模型,需要采购数十块英伟达H100 GPU,单块GPU的价格就高达数万美元,再加上服务器、机房、电力等成本,总投入动辄上千万。而部署之后,模型能带来的价值却未必能匹配成本——比如,用大模型做客服机器人,可能只是把人工客服的工作量减少了20%,但投入的成本却增加了数倍。

对开发者而言,API调用成本也在不断攀升。ChatGPT的API调用价格虽然经过几次下调,但随着模型参数的增加,单次复杂调用的成本依然不低。很多开发者发现,用大模型生成一篇文案、做一个简单的图像识别,成本比用传统算法高出不少,但效果提升却很有限。

这同样是边际效益递减在起作用:当模型参数从10亿提升到100亿时,效果提升显着;当参数从100亿提升到1000亿时,效果提升尚可;但当参数从1000亿提升到1万亿时,效果提升可能只有5%-10%,但算力成本却翻了10倍。企业和开发者为了那一点点的效果提升,需要支付数倍的成本,这种“得不偿失”的模式,注定难以长久。