搞AI计算架构的你,是不是也在为处理器平台选择头疼不已?x86授权费用高昂,Arm架构受到地缘政治影响,更让人纠结的是,生态碎片化导致每次平台迁移都像重新创业,应用移植成本高得吓人。
2025年RISC-V中国峰会上,英伟达硬件工程副总裁Frans Sijstermans宣布CUDA软件平台将全面支持RISC-V指令集架构,这标志着开源架构**进入AI计算核心领域。这一突破性举措为AI基础设施提供了新的选择,让开发者能够在x86和Arm之外拥有第三个完全开放的选项。
英伟达支持RISC-V的决策背后有着深层的战略考量。*核心的目标是让CUDA成为"跨架构计算抽象层",绑定全行业算力标准。
生态系统扩张是明显动机。通过支持所有主流架构(x86、Arm、RISC-V),英伟达确保无论终端使用何种处理器,其GPU都能成为AI计算的核心。这种策略类似于微软Windows支持多种硬件平台的做法。
地缘政治应对同样重要。美国对中国实施的半导体出口管制让英伟达在中国市场面临困境,高端产品无法正常出口。RISC-V的开源特性契合了中国半导体产业自主化发展的需求,帮助英伟达保持CUDA生态系统在中国市场的影响力。
成本优化不容忽视。RISC-V的开源免授权费特性大幅降低芯片设计成本,对成本敏感的企业和初创公司极具吸引力。英伟达自身也在产品中大量使用RISC-V核心,到2024年预计交付约10亿个内置RISC-V内核。
技术控制增强自主性。通过向开放性架构靠拢,英伟达可以减少核心部件的外部限制,降低对单一供应商的依赖。这种多元化策略增强了供应链的韧性和技术自主性。
英伟达为RISC-V集成提出了创新的技术方案。NVLink Fusion技术将英伟达的高速互连技术与第三方芯片深度融合,构建半定制AI基础设施。
异构计算架构重新定义分工。典型的配置中,GPU专门处理并行计算任务,RISC-V处理器负责运行CUDA驱动、应用逻辑和操作系统,整个系统还配备专门处理网络传输的DPU。这种设计使CPU能够在CUDA环境中完全协调GPU的工作。
硬件生态整合提供完整解决方案。英伟达的方案融合了RISC-V CPU、GPU、网络芯片(如Spectrum-X和Bluefield/ConnectX)及NVLink连接技术,构建了完整的数据中心架构。这种端到端的软硬件协同优化提升了数据中心的计算密度和能源效率。
内存管理优化突破性能瓶颈。GPU与CPU间需要统一虚拟内存架构,否则数据传输延迟将侵蚀30%以上加**果。英伟达正在解决RISC-V的AIA中断控制器和IOMMU支持问题,以提升协作效率。
软件栈移植确保兼容性。CUDA涉及的900多个垂直行业库,从PyTorch等AI框架到cuDNN、cuBLAS等核心计算库都需要逐一定制化移植到RISC-V平台。这种深度集成确保了软件生态的连续性。
英伟达为RISC-V规划了清晰的应用路线图。短期内在边缘计算设备中应用,中长期向数据中心扩展。
边缘AI设备是*先落地的场景。像Jetson这样的模块化产品,如果用更便宜的RISC-V处理器替代昂贵的Arm芯片,对成本敏感的客户将很有吸引力。这些设备通常不需要***的性能,但对功耗和成本有严格要求。
自动驾驶系统受益于开源特性。汽车电子电气架构正在快速演进,RISC-V作为**标准的指令集架构能够将孤岛式的软件开发连接起来,建立统一架构。东风汽车与中国信科已经联合开发了基于RISC-V的高端车规控制芯片DF30。
AI推理负载适合早期部署。推理任务对计算精度要求相对较低,RISC-V+CUDA组合在成本敏感的应用场景中可能具有很强的竞争力。特别是边缘推理场景,对功耗和实时性要求高于**性能。
数据中心渗透是长期目标。虽然短期内RISC-V不会应用于超大规模数据中心,但英伟达确实希望RISC-V能够*终进入这个领域。随着RISC-V性能提升和软件生态成熟,未来可能替代部分x86和Arm服务器。
RISC-V要真正挑战传统架构,必须克服生态建设的挑战。软件生态的完善需要时间和产业共同努力。
开源软件适配是首要任务。RISC-V**基金会官网显示只有75个软件包的适配支持,但在性能优化、生态成熟度、高层应用栈方面还有待完善。与x86和Arm数十年积累的软件生态相比,RISC-V仍有很大差距。
开发工具成熟度影响开发效率。缺乏类似CUDA的统一编程环境是当前的主要瓶颈。英伟达正在与RISE组织等伙伴紧密合作,加速CUDA向RISC-V的移植进程。
硬件平台缺乏制约开发进展。当前可用开发板有限,主要基于SiFive P550处理器和平头哥玄铁C920处理器,尚无符合RVA23架构标准的主机CPU。这限制了开发者进行软件移植和优化工作。
性能监控工具需要完善。缺乏完善的性能事件监控、内存标记、机密虚拟机、矩阵运算等支持。这些工具对于优化AI工作负载至关重要。
行业标准制定促进互操作性。RVA23配置文件规范了64位应用处理器的实现标准,有助于实现跨硬件平台的软件可移植性。但还需要更多行业标准的支持。
基于英伟达的技术方案,可以通过五个步骤实现CUDA与RISC-V的集成:
环境评估与规划是**要务。评估现有AI工作负载的特性,确定哪些应用适合迁移到RISC-V平台。考虑性能要求、成本约束和开发资源,制定合理的迁移计划。
硬件平台选择关键决策。选择符合RVA23规范的RISC-V硬件平台,确保与CUDA和NVLink技术的兼容性。考虑处理器的性能、内存配置和I/O能力,确保满足计算需求。
软件栈移植与优化核心工作。将CUDA应用程序移植到RISC-V平台,重新编译和优化代码。利用英伟达提供的移植工具和文档,减少迁移工作量。
系统集成与测试验证稳定性。将RISC-V CPU与英伟达GPU、DPU进行集成,配置NVLink连接和统一内存管理。进行全面的功能测试、性能测试和稳定性测试。
性能监控与优化持续改进。部署监控工具跟踪系统性能,识别瓶颈并进行优化。特别关注CPU-GPU协同效率、内存带宽利用率和功耗表现。
英伟达的举措正在重塑处理器竞争格局。传统芯片巨头面临新的挑战和机遇。
x86阵营受到直接冲击。英特尔和AMD在AI芯片市场本就面临英伟达的激烈竞争,现在处理器这一传统领域也可能受冲击。如果RISC-V能**协同英伟达GPU运作,原本依赖英特尔或AMD处理器的客户可能转向更经济的RISC-V方案。
Arm生态面临尴尬局面。Arm长期以"服务器能效未来"自居,但现在连曾试图收购自己的英伟达都开始拥抱RISC-V。特别是在中国市场,政府政策导向日益明朗,Arm的许可模式或将遭遇更大阻力。
中国半导体获得发展机遇。中国正在通过相关政策性引导,大力支持推广RISC-V芯片的使用。阿里巴巴不仅开发了玄铁RISC-V处理器,还宣布未来三年将在AI和云计算领域投入超过500亿美元。
新兴企业迎来突破机会。Tenstorrent基于RISC-V建立了从IP、芯粒、芯片到板卡/服务器/系统的全栈方案。其开放式芯粒架构(OCA)实现了多个层次的开源,降低了研发门槛。
英伟达将CUDA支持扩展到RISC-V架构,标志着计算产业进入新的发展阶段。从战略布局来看,这不仅是技术选择,更是生态战略的深刻调整。
根据行业预测,到2025年将有超过200亿个RISC-V核心投入使用,复合年增长率超过30%。在成熟的半导体行业,这样的增长速度极为罕见。全球已有超过3,000家公司在积极开发基于RISC-V的解决方案,这已经超越了实验阶段,成为真正的产业趋势。
对于开发者来说,英伟达的这一举措提供了更多的硬件选择权和成本优化空间。随着RISC-V生态的不断完善,开发者在选择处理器平台时将有更多自由度,不再受限于传统架构的约束。
未来,随着RVA23硬件的推出和软件生态的成熟,RISC-V在AI计算领域的影响力将进一步扩大。英伟达通过与RISE等组织的合作,正在推动RISC-V生态系统的发展,为整个行业创造新的机遇。
本站为注册用户提供信息存储空间服务,非“爱美糖”编辑上传提供的文章/文字均是注册用户自主发布上传,不代表本站观点,版权归原作者所有,如有侵权、虚假信息、错误信息或任何问题,请及时联系我们,我们将在第一时间删除或更正。