微软宣布与英伟达加深合作,包括 Blackwell 与 Azure AI 服务基础设施集成等
8 小时前 / 阅读约4分钟
来源:IT之家
微软与英伟达在 GTC 2025 大会上宣布了一系列 AI 方面的合作计划,进一步加强了全栈协作。

IT之家 3 月 19 日消息,微软与英伟达在 GTC 2025 大会上宣布了一系列 AI 方面的合作计划,进一步加强了全栈协作,包括将最新的 NVIDIA Blackwell 平台与 Azure AI 服务基础设施集成,将 NVIDIA NIM 微服务整合到 Azure AI Foundry 中

新集成:让 Blackwell 平台与 Azure AI 进一步整合

  • 英伟达的 Blackwell 平台与 Azure AI 进行了深度集成,优化了生成型 AI 模型的部署。

  • Azure AI Foundry 中新增了 NVIDIA NIM 微服务,能使得 AI 应用的开发更加高效。NVIDIA NIM 微服务支持多种基础模型,并通过优化性能提升了各行业的应用效果,尤其是在医疗和汽车等领域。

  • 微软通过使用 NVIDIA 的 TensorRT-LLM 对 AI 模型(如 Meta Llama)进行优化,大幅提升了模型的吞吐量,并降低了延迟。这一技术改进不仅提高了 AI 应用的响应速度,还加速了模型的训练过程。

  • Azure 还扩展了其 AI 模型目录,新增了具有多模态能力的 Mistral Small 3.1,进一步丰富了开发者的工具库(IT之家注:微软表示将很快集成 NVIDIA Llama Nemotron Reason 开放推理模型)。

扩展 Azure AI 基础设施

  • 微软宣布 Azure ND GB200 V6 虚拟机 (VM) 系列正式上市,配备 NVIDIA GB200 NVL72 和 NVIDIA Quantum InfiniBand 网络加速器。

  • 微软还承诺会于今年晚些时候将 NVIDIA Blackwell Ultra GPU 和 NVIDIA RTX PRO 6000 Blackwell 服务器版引入 Azure。

利用 Azure AI 基础设施为企业赋能

  • Meter 正在 Azure AI 基础设施上训练一个大型基础模型,以实现端到端网络自动化,扩展 AI 训练和推理能力。

  • Azure AI 服务基础设施已用于部署 Black Forest Labs 旗舰 FLUX 模型。

微软推出 Azure Container Apps

Azure Container Apps,支持无服务器 GPU,让企业能够按需扩展 AI 工作负载。无服务器 GPU 不仅优化了冷启动和按秒计费,还降低了操作复杂度,使得开发团队可以更加灵活地处理 AI 任务。

新的 ND GB200 V6 虚拟机系列也大幅提升了复杂 AI 任务(如规划和推理)的处理速度,帮助企业应对更高效的 AI 计算需求。

NVIDIA Omniverse 和 Isaac Sim 等创新工具

微软还在 Azure 市场上推出了 NVIDIA Omniverse 和 Isaac Sim 虚拟桌面工作站,以及 Omniverse Kit App Streaming 等创新工具,可以帮助制造业等行业实现数字化转型。这些工具支持数字孪生和机器人仿真,推动企业通过 AI 技术提升效率、降低成本,并优化生产流程。