美团搜推机器学习团队 3 月 4 日公布最新首发开源成果,实现对 DeepSeek R1 模型基本无损的 INT8 精度量化。
DeepSeek R1 原生版本的模型权重为 FP8 数据格式,对 GPU 芯片类型有严格限制,仅能被英伟达新型 GPU 支持(如 Ada、Hopper 架构芯片),其他型号 GPU(如 A100)无法直接部署。
目前,量化代码已经合入到了开源 LLM 推理框架 SGLang,量化模型已经发布到了 Hugging Face 社区,方便用户使用。官方测试,满血版 DeepSeek R1 部署 A100,基于 INT8 量化,相比 BF16 实现 50% 吞吐提升。
IT之家附开源地址:
https://huggingface.co/meituan/DeepSeek-R1-Channel-INT8
免责声明:文章内容来自IT之家
本站不对其内容的真实性、完整性、准确性给予任何担保、明示、暗示和承诺,本文仅供读者参考!
数码迷尊重原作者的辛勤劳动并致力于保护原著版权以及相关的知识产权,所转载的文章,其版权归原作者所有。
如本文内容影响到您的合法权益(内容、图片等),请通过邮箱5937331#qq.com联系我们,我们将第一时间回复处理。