
英伟达向美国证券交易委员会(SEC)提交的财务文件显示,公司计划在未来5年累计投入260亿美元(约合1788亿元人民币)研发开源AI大模型,投资规模远超OpenAI训练GPT-4的30亿美元。此举标志着英伟达正式开启从“芯片制造商”向“全栈式AI顶尖实验室”的战略转型,将全面布局开源AI大模型全产业链。
根据规划,英伟达260亿美元的投资并非聚焦单一模型研发,而是覆盖开源AI大模型全产业链,资金将在未来18至24个月内逐步落地,首批自研开源AI模型最快将于2026年底至2027年初正式推出。在技术路线选择上,英伟达走出了一条介于OpenAI完全闭源与Meta旗下Llama系列完全开源之间的“开放权重”中间道路:公开模型关键参数(权重),允许企业和开发者免费下载,并在自有设备或私有云上运行、微调,满足企业数据隐私、定制化和成本控制需求,而模型的训练数据和代码则暂不完全公开。
核心模型研发方面,英伟达将主攻多模态、多领域前沿大模型,覆盖语言、代码、科学计算、智能体等多个方向。目前,公司已秘密完成一个5500亿参数超大模型的预训练,为后续开源模型研发完成技术验证与压力测试。与此同时,英伟达还同步发布了新一代开源大语言模型Nemotron 3 Super,该模型专为企业级多智能体(Agentic AI)系统设计,拥有1200亿总参数,采用混合专家(MoE)架构,原生支持100万Token超长上下文窗口,可一次性处理整部小说或数千页财务报告,有效解决多智能体工作流中的“上下文爆炸”和“目标漂移”难题。
作为全球AI芯片领域的绝对龙头,英伟达占据超80%的全球AI芯片市场份额,但此前在AI模型层话语权较弱,大模型的技术标准和训练范式多由OpenAI、Meta等厂商定义。此次英伟达下场自研顶级开源模型,核心目标是从底层定义AI模型技术路线,让自家硬件架构、软件栈成为行业事实标准,通过开源模型生态进一步拉动算力需求。








