整理 | 华卫近日,据外媒报道,中国金融科技巨头蚂蚁集团在人工智能领域取得了重大突破。有知情人士透露,蚂蚁集团使用由阿里巴巴和华为制造的国产芯片,开发出了将人工智能训练成本降低 20% 的方法。据称,蚂蚁集团在训练“专家混合”(Mixture of ...
论文显示, 蚂蚁集团 ...
FlashMLA指的是DeepSeek针对Hopper GPU的高效MLA解码内核,针对可变长度序列进行了优化,现已投入生产。目前已发布的内容包括:采用BF16,以及块大小为 ...
使用CUDA 12.6,在H800 SXM5上,其性能指标是 ... 快速启动安装: FlashMLA的使用基准为:Hopper GPU、CUDA 12.3及以上版本、PyTorch 2.0及以上版本。
具体来说,FlashMLA是一个针对 Hopper GPU 优化的高效 MLA(Multi-Layer Attention ... 说人话就是,FlashMLA 是一个能让 LLM 模型在 H800 上跑得更快、更高效的优化方案,尤其适用于高性能 AI 任务。
在科技创新日新月异的今天,蚂蚁集团与国产GPU的结合正上演着一场精彩的合作秀。近日,蚂蚁集团的Ling团队公布了两款令人瞩目的MoE大语言模型:百灵轻量版(Ling-Lite)和百灵增强版(Ling-Plus)。前者的参数规模达168亿(激活参数27.5亿),而后者的基座模型参数更是高达2900亿(激活参数288亿),这直接将两者推向了行业的领先地位。 但这并不是全部——最大的亮点在于Ling团队 ...
蚂蚁集团今日正式回应业界对其“百灵”大模型训练成本的关注,宣布通过国产芯片适配优化与技术创新,成功将3000亿参数混合专家(MoE)模型的预训练成本降低近20%,并计划逐步开源核心技术。这一突破意味着,中国AI企业首次在同等性能下实现对英伟达高端GP ...
10 天on MSN
报道认为,这凸显了中国公司试图使用本地芯片来替代最先进的英伟达半导体。蚂蚁集团本月份发布了一份研究报告,称其模型在部分基准测试中超过了 Meta,如果按预期工作,蚂蚁的平台可能为中国 AI 发展迈出又一个新的步伐。
在人工智能的新时代里,中国的蚂蚁集团正以一项重要的技术突破引领潮流。根据近期外媒报道,蚂蚁集团不仅在AI领域取得了丰硕成果,还成功利用国产芯片降低了人工智能训练的成本,多达20%。据匿名消息人士透露,蚂蚁集团在训练“专家混合”(Mixture of ...
直接突破H800计算上限。 网友:这怎么可能?? 它是为Hopper GPU开发的高效MLA解码内核,专门针对可变长度序列进行了优化,目前已经投入生产。
当前正在显示可能无法访问的结果。
隐藏无法访问的结果