据香港IDC新天域互联了解,云服务企业 DigitalOcean 与 Flexential 达成合作协议,将在 Flexential 的亚特兰大 - 道格拉斯维尔数据中心开展高密度 GPU 部署,旨在为不断攀升的人工智能(AI)及机器学习(ML)工作负载提供有力支撑。
目前,英特尔似乎已经退出了 AI 加速器芯片之争。其 Nvidia H100 的替代品Gaudi 3既未出现在新的 MLPerf 结果中,也未出现在去年 10 月发布的 4.1 版中。Gaudi 3 ...
NVIDIA Blackwell平台在MLPerf基准测试中的成功,不仅展示了其强大的技术实力,也为AI工厂的发展开辟了新的可能性。随着AI技术的不断演进,NVIDIA的创新将继续引领行业走向更高的智能化水平,成为推动未来数字经济的重要力量。
(全球TMT2025年4月6日讯)Super Micro Computer, Inc. (SMCI)宣布使用NVIDIA HGX B200 8-GPU在多个MLPerf Inference v5.
IT之家 3 月 19 日消息,英伟达在今日举行的 NVIDIA GTC 2025 上宣布其 NVIDIA Blackwell DGX 系统创下 DeepSeek-R1 大模型推理性能的世界纪录。据介绍,在搭载了八块 Blackwell GPU 的单个 DGX 系统上运行 6710 亿参数的满血 DeepSeek-R1 模型可实现每用户每秒超 250 token 的响应速度,系统最高吞吐量突破每秒 ...
具体来看,GB200 NVL72系统通过连接72个NVIDIA Blackwell GPU,作为一个单一的超大GPU运行, 在Llama 3.1 405B基准测试中,与H200 NVL8相比,实现了高达30倍的吞吐量提升。
克雷西 发自 凹非寺量子位 | 公众号 QbitAI 在AMD的MI300X上跑FP8满血R1,性能全面超越了英伟达H200—— 相同延迟下吞吐量最高可达H200的5倍,相同并发下则比H200高出75%。
作者 | 刘侃审校 | Kitty前 言RTP(Real Time Prediction) [1] 平台是阿里内部一个通用的在线预测平台,广泛支持淘天、本地生活、AIDC、菜鸟、大文娱等搜索和推荐业务场景的 DLRM(Deep Learning Recommendation Model)部署。自 2022 年起,RTP 开始探索大规模 GPU-Disaggregation 技术的落地,运用 RDM ...
阿斯特拉与 ODM 合作伙伴纬创展示的机器,是英伟达 MGX H100/H200 NVL 推理服务器的一个具体实现。MGX 系列模块化机器于 2023 年 5 月推出,其理念是将 GPU 加速应用于不同类型的工作负载,并采用适合相应用途的外形规格。