资讯

ICC讯 近日,HPE与KDDI公司宣布达成合作,计划于2026年初共同运营大阪堺数据中心。该数据中心将配备由HPE打造的NVIDIA GB200 NVL72机架级系统,基于最新NVIDIA Blackwell架构,旨在为初创企业及大型公司提供AI应用开发和大型语言模型(LLM)训练的基础设施支持。
此外,Nvidia 还与 CoreWeave 及 IBM 合作,利用总共 2,496 个 Blackwell GPU 和 1,248 个 Nvidia Grace CPU 提交了 GB200 NVL72 的测试结果。 在全新的 Llama 3.1 405B 预训练基准测试中,Blackwell 在相同规模下的性能比上一代架构提高了 2.2 倍。 Nvidia Blackwell 正在驱动 AI ...
Nvidia 的 Blackwell 架构旨在满足这些新型应用对性能日益增长的要求。在最新一轮的 MLPerf Training 基准测试(自 2018 年该基准测试推出以来的第 12 轮)中,Nvidia 的 AI 平台在所有基准测试中均在大规模场景下展现出最高性能,并且在针对大语言模型(LLM)的最苛刻测试 —— Llama 3.1 405B 预训练 —— 中为 ...
NVIDIA的新布莱克韦尔芯片正在改变人工智能系统可以训练的速度。 在最新的基准测试结果中,MLCommons(MLCommons)是一个非营利组织,该组织tracAI Chips的功能,NVIDIA SET RECORDS编程的Blackwell Architecture的功能。. 当使用Meta的开源美洲驼(3.1 405B)型号(其最大,最复杂的AI型号之一)进行测试时, 使用 ...
在 Llama 2 70B LoRA 微调基准测试中,采用八个 Blackwell GPU 驱动的 Nvidia DGX B200 系统,其性能比前一轮使用相同数量 GPU 的提交提升了 2.5 倍。
作为该项目的独立子计划,韩国政府部门5月已启动民间企业遴选,将选定一家企业负责管理10000块GPU储备。这批设备将于2025年通过单独选拔程序直接出租给其他研发团队。
黄仁勋说,欧洲各地将规划并建设20座AI工厂。其中5家是超级工厂,这类工厂将能容纳超过10万块芯片。相比2024年,NVIDIA预计今年泛欧洲AI基础设施计算能力将增长到3倍,2026年将提高至10倍。
ICC讯 市场研究机构Dell'Oro集团最新报告指出,2025年第一季度全球数据中心资本支出同比暴涨53%,延续了连续六个季度的两位数增长态势。这一增长动力主要来自超大规模云服务商加速部署AI基础设施,特别是采用NVIDIA Blackwell GPU和定制加速器的服务器。
据报道,追随谷歌的脚步,Meta 正在全面进入 ASIC(专用集成电路)竞赛。根据野村证券分析师 Anne Lee 及其团队的最新研究报告,Meta 在 AI 服务器领域的雄心正在迅速升级。他们专有的 ASIC 服务器项目 MTIA 预计将在 ...
6月3日消息,据报道,NVIDIA正在为中国市场研发一款名为“B30”的降规版AI芯片,这款芯片将首度支持多GPU扩展,允许用户通过连接多组芯片来打造更 ...