本文作者:访客

云端英伟达早已赢了,边缘它还要再赢一次

访客 2025-11-03 10:08:47 13501 抢沙发
英伟达在云端已经取得了显著优势,但在边缘计算领域,它依然志在胜出,凭借其在云计算领域的深厚积累和领先技术,英伟达不断在边缘计算领域拓展其影响力,力图再次证明其领先地位,这表明英伟达对于保持技术领先和市场优势有着不懈的追求。

10亿美元的投资,对英伟达而言不算多。但当对象是诺基亚,这笔钱的象征意义远超资本本身。那个曾被智能机时代淘汰的名字,如今正在被黄仁勋重新写进AI的底层逻辑。

在华盛顿的GTC大会上,英伟达宣布与诺基亚联合推动“AI原生通信架构”。这不仅是一次技术合作,更是算力网络化的起点。英伟达并不想“接管传输端”,而是希望让自家的算力嵌入通信网络,在边缘节点释放AI能力。黄仁勋的算盘很清楚——GPU是入口,生态嵌入才是护城河。当AI不再只属于云端,而成为通信系统的一部分,英伟达的角色也从卖芯片,变成了定义算力标准的“中枢接口”。

算力的瓶颈,已经不在芯片

过去三年,英伟达凭借CUDA生态和GPU架构掌握了AI算力的“生产端”。但性能天花板正在逼近。大型模型的训练不再受制于芯片算力,而是被网络带宽、延迟和能耗掣肘。算力中心越多,调度难度越高,能效损耗越大。真正的瓶颈,已经从硅片转移到链路。

这也是黄仁勋看上诺基亚的原因。诺基亚是全球三大电信设备商之一,虽整体份额略逊于华为与爱立信,但在欧美市场拥有稳固的合规基础与深厚运营商关系,是西方供应链替代的关键支柱。英伟达需要的,不只是合作伙伴,而是一张“全球通路”——让算力能被网络识别、调用、调度。

当然,算力并不会像电力那样自由流动。它受限于带宽、延迟和节点分布。这也意味着,算力调度将不再是技术问题,而是一场资源博弈——谁掌握节点,谁就掌握响应速度。英伟达希望通过标准和接口,把自家的算力变成网络里最容易被调用的“通用货币”。

从AI工厂到AI电网:英伟达的下一阶段布局

英伟达的版图,正在从硬件制造转向基础设施。去年发布的Omniverse DSX,是它构建“AI工厂”的关键一步。这套数字孪生系统能在设计阶段模拟供电、冷却、布局与算力密度,据称在相同功耗下可提升GPU吞吐量约30%。

现在,英伟达要把这种“系统化能力”扩展到网络层。通过与诺基亚合作,它计划将AI算力从封闭的数据中心推向开放的通信网络。未来,算力将在数据中心、基站和终端之间按需分配,形成一张动态的“AI电网”。

这意味着英伟达的商业逻辑正在重构:从卖硬件,转向卖系统标准。从输出GPU,转向提供“Compute-as-a-Service”。黄仁勋希望,当算力像电力一样被计量、调度和结算时,英伟达能成为那个“电网运营商”。它不再是能源的生产者,而是算力流动的调度者——负责标准、接口与分配规则。

AI-RAN:让通信基站学会“思考”

AI-RAN(Artificial Intelligence Radio Access Network)是英伟达与诺基亚合作的核心。它的目标,是让通信基站具备边缘AI推理能力。通过潜在集成NVIDIA Aerial SDK等边缘AI平台,诺基亚有望在未来基站中实现本地化推理,将信道优化、用户调度、功率控制等原由核心网处理的任务转移至基站侧执行。

从技术角度看,AI-RAN的潜力在于把部分AI推理能力下放到基站。

这样可以让信号调度更即时,带宽利用率得到提升,对自动驾驶、工业控制、远程医疗等高时延敏感场景尤其关键。

但这种设计并非“降维打击”——AI模块的加入会带来额外能耗与散热压力,系统复杂度也随之上升。

诺基亚对于英伟达的价值,不在于让其品牌复活,而在于英伟达能把AI接口嫁接进诺基亚现有网络架构:从核心网到接入网的协同,让英伟达的算力不再停留在数据中心,而能在真实通信体系中被调用。

但AI-RAN的落地仍有现实阻力。据行业估算,因集成AI模块,当前AI-RAN单站部署成本显著高于传统RAN,对运营商CAPEX构成压力。与此同时,AI模型下沉也带来能耗、散热和频谱干扰等工程挑战,需要新硬件与标准支撑。

更重要的是,这场竞争早已不是英伟达与诺基亚的独角戏。

华为早在2021年推出“AI Fabric”和“Intelligent RAN”方案,并在中东、东南亚实现商用。高通正推动AI-RAN芯片集成到小基站SoC中。AWS Wavelength与Azure Edge Zones也在与运营商合作部署边缘AI节点。而这场竞赛的核心,不在于谁先出货,而是谁能构建最开放、最低门槛的开发者生态。而英伟达在CUDA生态上的积累,正是它的底气所在。

从Wintel到“Net+Compute”:新秩序的雏形

如果说Wintel联盟定义了PC时代的软硬标准,那么“Net+Compute”正在成为AI时代的新底层范式。我们不妨称之为“Net+Compute”模式——即网络与计算深度融合的新结构。英伟达输出算力标准,诺基亚承载通信骨架,运营商掌握网络主权。三方共同参与下一代通信基础设施的设计。

而这与上世纪的Wintel不同,今天的生态更开放、竞争更激烈。AI-RAN标准仍在争夺中,任何“垄断式联盟”都难以重现。但标准之争的本质未变——谁定义接口,谁就掌握话语权。英伟达试图以CUDA绑定通信生态,诺基亚希望借此延伸价值链,而运营商则在构建自有边缘AI平台,守住网络主权。AT&T、Verizon、Telefónica等已在试点分布式AI调度系统,努力避免成为单纯的“管道”。

未来的AI通信格局,注定是多极并存。英伟达提供算力语言,诺基亚提供物理骨架,运营商提供主权与合规保障。真正的竞争,不在硬件算力,而在谁能把这套复杂系统变成开放、可持续的生态网络。

最后

当基站开始思考,AI才真正学会了呼吸。它不再依赖遥远的云端,而是在信号塔之间自我调度、实时响应。这种变化不会以革命的方式发生,但它的节奏,我们已经听见。

当然,AI-RAN的未来仍充满不确定。我们还不知道它最终会走向集中式智能,还是完全去中心化。但有一点可以肯定:未来的网络,不会再是“dumb pipe”(只负责传输数据、不参与内容或服务增值的“哑管道”)。

历史不会重演,但它的节奏在变。AI的下一站,不在数据中心,而在信号塔的阴影里。

文章版权及转载声明

作者:访客本文地址:https://www.gaaao.com/gaaao/8097.html发布于 2025-11-03 10:08:47
文章转载或复制请以超链接形式并注明出处深链财经

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

验证码

评论列表 (暂无评论,13501人围观)参与讨论

还没有评论,来说两句吧...