资讯
英伟达的雷神芯片(Thor)一再推迟发布,背后有多重复杂的原因。首先,技术上的挑战是一个关键因素。这款芯片旨在将自动驾驶、车载信息娱乐和驾驶员监控等多种功能集成到单一平台上,同时支持不同的操作系统,这种高度集成化的设计在功耗管理、实时性处理和算力分配 ...
总而言之,尽管存在上述危险,但英伟达的地位依然稳固。Wedbush 分析师表示,大多数 AI 公司仍在使用 英伟达的 CUDA 环境来训练和部署模型,其 Blackwell GPU 的需求量超今天澳门开的什么马2025过了它。H200 GPU ...
微软因AI算力需求不确定性和特朗普关税政策风险,暂停多国数据中心建设,控制资本支出节奏。其高额算力投资虽短期支撑业务增长,但长期折旧可能侵蚀利润。科技公司普遍押注2025年AI需求爆发,但关税导致供应链混乱和成本上升,可能引发算力泡沫破裂,加剧投资风 ...
为解决大规模基础模型(LFMs)训练成本高、计算需求大这一限制其广泛应用的瓶颈问题,研究人员开展了关于 LFMs 性能提升与成本降低的研究。结果发现通过技术创新可实现这一目标,这推动了 LFM 技术的普及,意义重大。
随着辉达(NVIDIA)的AI GPU平台逐步转换,今年上半年作为出货主力的Hopper平台,在各主力台伺服器厂的GB200整机柜产品进入量产后,也将逐步转向Blackwell平台,接续于第二季下旬后进入量产的B200、及下半年出货的B3 ...
老黄有个策略是,可以用上一代的旧卡做推理,新一代卡做训练。因为旧卡有折扣了,跟其他AI芯片公司在推理场景中竞争时是有优势的。同时对很多人来说,如果训练跟推理的软件框架是一致的,后面软件部署的成本也会降低,这也是英伟达旧卡在推理市场的优势。
ZAKER on MSN4 天
搭载NVIDIA B200的Supermicro系统性能优于上一代系统(全球TMT2025年4月6日讯)Super Micro Computer, Inc. (SMCI)宣布使用NVIDIA HGX B200 8-GPU在多个MLPerf Inference v5.
特斯拉的“Dojo”和“Cortex”是其人工智能(AI)战略中的两个重要超级计算项目,二者都旨在支持特斯拉在自动驾驶(如全自动驾驶FSD)、机器人(如Optimus)等领域的发展。尽管它们都是特斯拉的超级计算机,但它们在设计目标、硬件基础和应用场景上存在显著差异。 Dojo: Dojo 是特斯拉自主研发的超级计算机,专为神经网络训练(尤其是视频数据处理)设计。 核心硬件是特斯拉自研的 D1 芯片 ...
该公司于 1 月份开始进行封闭式秘密测试,需求不断增长,Parasail 的年度经常性收入 (ARR) 已超过七位数。其技术现已普遍可用,客户包括人工智能芯片制造商 SambaNova、人工智能生产平台制造商 Oumi、对话式人工智能公司 Rasa 和 Elicit,后者的人工智能助手可自动执行研究任务。
目前,英特尔似乎已经退出了 AI 加速器芯片之争。其 Nvidia H100 的替代品Gaudi 3既未出现在新的 MLPerf 结果中,也未出现在去年 10 月发布的 4.1 版中。Gaudi 3 ...
MLPerf,这一由图灵奖得主大卫·帕特森携手谷歌、斯坦福及哈佛大学等重量级机构共同创立的性能基准测试平台,无疑是国际AI领域的权威风向标。它旨在通过标准化测试,全面衡量人工智能硬件、软件及服务的性能表现。
具体来看,GB200 NVL72系统通过连接72个NVIDIA Blackwell GPU,作为一个单一的超大GPU运行, 在Llama 3.1 405B基准测试中,与H200 NVL8相比,实现了高达30倍的吞吐量提升。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果