腾讯云TencentOS Server AI,助力荣耀打造高性能AI底座

随着生成式 AI 技术的爆发式增长,液体静压原理AI 大模型开始渗透至手机领域,一线厂商已经把 AI 应用集成到各自最新的产品中,并且在以惊人的速度迭代。为了进一步提升大模型部署的效能,荣耀基于应用腾讯云 TencentOS Server AI 中提供的 TACO-LLM 加速模块部署 DeepSeek-R1 等开源大模型,并应用荣耀企业内部等场景,稳定性、可靠性、推理性能均大幅提升。

在推理平台场景中,荣耀侧重关注框架效能、稳定性、运行状态监控及应急预案等特性。使用 TACO-LLM 进行推理任务后,砂型铸造原理在 DeepSeek-R1 满血版场景下,相对于荣耀原始线上业务性能,TTFT(首 Token 延迟)P95 的响应时间最高降低 6.25 倍,吞吐提升 2 倍,端到端延迟降低 100%。在社区最新版本 sglang 场景下,TTFT P95 的响应时间最高降低 12.5 倍。

腾讯云 TACO-LLM 之所以能够对荣耀业务的性能提升如此明显,主要的得益于多种投机采样技术核心能力:大语言模型的自回归解码属性无法充分利用 GPU 的算力,计算效率不高,解码成本高昂。而 TACO-LLM 通过投机采样的方式,从根本上解决了计算密度的问题,让真正部署的大模型实现 " 并行 " 解码,从而大幅提高解码效率。

荣耀大数据平台部相关负责人表示:" 荣耀使用腾讯云 TACO-LLM 打造高性能的 AI 底座,部署稳定可靠,提升了性能加速体验。"

TencentOS Server AI 加速版中提供的 TACO-LLM 加速模块,针对企业级 AI 模型私有化部署挑战,对大语言模型业务进行了专门的内核运行优化,用于提高大语言模型的推理效能,提供兼顾高吞吐和低延时的优化方案,能够 " 无缝 " 整合到现有的大模型部署方案中。

avatar

新程序已上线 管理员

刚刚发布了:1篇 新内容
查阅文章

三月七日,沙湖道中遇雨。雨具先去,同行皆狼狈,余独不觉。已而遂晴,故作此词。莫听穿林打叶声,何妨吟啸且徐行。竹杖芒鞋轻胜马,谁怕?一蓑烟雨任平生。料峭春风吹酒醒,微冷,山头斜照却相迎。回首向来萧瑟处,归去,也无风雨也无晴。

发布评论

验证码
评论列表 (有 4 条评论)
222 2019-07-18 1# 回复
测试

QQ交谈

在线咨询:QQ交谈

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

电话联系

400-800-000

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

我的微信