

2月24日,DeepSeek"开源周"正式启动,并发布首个代码库FlashMLA,引发全球关注。
FlashMLA是针对英伟达Hopper GPU优化的高效MLA解码内核,专为可变长度序列优化设计,是DeepSeek高效使用算力的核心程序模块。FlashMLA通过MLA解码优化与分页KV缓存技术,显著提升硬件利用率,加速大语言模型解码过程,有效提高响应速度与吞吐量,适用于各种实时对话生成场景。
云天励飞芯片团队在FlashMLA开源后,迅速完成了DeepEdge10平台与FlashMLA的适配工作。在适配过程中,云天励飞采用了Op fusion tiling、Online softmax、Double buffer、细粒度存算并行等先进技术,并基于自研的Triton-like编程语言快速开发验证了高效的FlashMLA算子。通过一系列优化,不仅显著提升了计算效率,还大幅降低了显存占用,充分展现了DeepEdge10平台“算力积木”芯片架构的卓越优势,以及其与DeepSeek生态的高度契合性。
今日,云天励飞已将相关代码提交至开源平台Gitee,为开源AI贡献了重要的技术力量。
算子的源码地址为:
https://gitee.com/Intellifusion_2025/tyllm/blob/master/python/tylang/flash_mla.py
DeepEdge10系列芯片是专门针对大模型时代打造的芯片,支持包括 Transformer 模型、BEV 模型、CV 大模型、LLM 大模型等各类不同架构的主流模型;基于自主可控的先进国产工艺打造,采用独特的“算力积木”架构,可灵活满足智慧城市、智慧交通、智能制造、智慧仓储、机器人、边缘智算中心等不同场景对算力的需求,为大模型推理提供强大动力。
目前,DeepEdge10芯片平台已成功适配DeepSeek R1系列模型及国产鸿蒙操作系统。未来,云天励飞将持续加大研发力度,推动芯片在国产化领域取得更大突破,为国产AI生态建设贡献更多力量。
【慎重声明】 凡本站未注明来源为"中国财经新闻网"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站及其子站赞同其观点和对其真实性负责。其他媒体、网站或个人转载使用时必须保留本站注明的文章来源,并自负法律责任。 中国财经新闻网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。
【特别提醒】:如您不希望作品出现在本站,可联系我们要求撤下您的作品。邮箱:tousu@prcfe.com
上证指数
深证成指
创业板
3537.37
15.58 0.44% 4015.52亿
14711.184
97.212 0.67% 6482.90亿
3421.329
27.614 0.81% 698.30亿