当前位置:首页 > Deepseek最新资讯 > 正文内容

DeepSeek发布开源周首个成果 可优化英伟达GPU效率

4个月前 (02-25)Deepseek最新资讯183

新京报贝壳财经讯(记者罗亦丹)北京时间2月24日上午,DeepSeek发布了其“开源周”的第一项成果:FlashMLA(直译为快速多头潜在注意力机制)的代码。

据了解,MLA(多头潜在注意力机制)正是DeepSeek降低大模型成本使用的关键技术之一,其可以显著减少大模型训练和推理过程中的内存占用,而FlashMLA则是针对Hopper GPU(一种英伟达GPU架构)开发的高效MLA解码内核,其针对可变长度序列进行了优化,目前已投入了生产,其可以使得H800达到3000GB/s内存,实现580TFLOPS(每秒浮点运算次数)计算性能。

贝壳财经记者注意到,根据此前DeepSeek发布V3大模型时公开的技术文档,该大模型正是使用英伟达的H800芯片训练而成。

上海骊翰科技咨询有限公司发文称,FlashMLA能在不损失模型性能的前提下,将缓存体积压缩至原来的1/4,从而大幅降低显存需求。例如,原始需要存储的100GB中间结果,压缩后仅需25GB,通过开源让企业可以直接使用FlashMLA来优化自家模型。随着FlashMLA的普及,AI推理有望进入千元级硬件跑百亿模型的时代。


“DeepSeek发布开源周首个成果 可优化英伟达GPU效率” 的相关文章

龙芯处理器成功运行DeepSeek大模型 周国辉:AI正催生文明重构,将重塑各个产业

龙芯处理器成功运行DeepSeek大模型 周国辉:AI正催生文明重构,将重塑各个产业

【编者按】从新闻到见解,字里行间读懂社会万象。有观点有思想,智慧碰撞把握时代脉搏。让我们一起《读端》,一起“潮”。本期嘉宾是十二届浙江省政协副主席周国辉。龙芯中科外景照近日,龙芯中科对外宣布:搭载龙芯...

豆瓣携手腾讯云接入Deepseek,大幅提升内部工具效率

豆瓣携手腾讯云接入Deepseek,大幅提升内部工具效率

近日,兴趣社交平台豆瓣成功通过腾讯云大模型知识引擎接入DeepSeek服务,并部署在多种内部工具场景。此次合作,不仅大幅提升了豆瓣的内部工具效率,同时也为人工智能大模型在企业内部的应用提供了有益借鉴。...

四川:Deepseek等技术快速发展 带动算力相关产品新需求增加

四川:Deepseek等技术快速发展 带动算力相关产品新需求增加

4月17日,四川省政府新闻办公室举行新闻发布会,四川省统计局副局长、新闻发言人杨治刚表示,Deepseek等人工智能技术快速发展带动算力相关产品新需求增加,叠加消费品以旧换新等政策加力扩围。今年一季度...

荣耀手表 Fit 部分规格公布,搭载 DeepSeek 语音对话

荣耀手表 Fit 部分规格公布,搭载 DeepSeek 语音对话

IT之家 5 月 24 日消息,荣耀手表 Fit 将于 5 月 28 日全球首发,官方现已公布这款新品的部分规格、卖点。IT之家整理如下:健康能量评估,萌宠来报。身体状态,一目了然。率先搭载 Deep...

Deepseek微信小程序入口使用教程-deepseek的微信入口在哪里?微信如何才能使用免费的 Deepseek小程序?

Deepseek微信小程序入口使用教程-deepseek的微信入口在哪里?微信如何才能使用免费的 Deepseek小程序?

太多的朋友在后台问deepseek的微信入口在哪里?微信如何才能使用免费的 Deepseek小程序?虽然deepseek有网页版(https://chat.deepseek.com),但毕竟访问没有微...

微博智搜接入 DeepSeek R1 模型,正在内部测试

微博智搜接入 DeepSeek R1 模型,正在内部测试

IT之家 2 月 20 日消息,微博 CEO 王高飞(@来去之间 )今日分享了多条微博智搜内容,该功能已经接入深度思考(DeepSeek R1 模型),目前处于测试阶段。从其分享的内容来看,微博智搜接...