DeepSeek-V3-0324 上线火山引擎
点击上方👆
蓝字
关注我们!
近日,DeepSeek 最新推出的 DeepSeek-V3-0324 版本,在推理性能、前端开发能力、中文写作与搜索质量等方面进行了优化。
目前,火山方舟已正式上线 DeepSeek-V3-0324 模型,模型效果全面对齐 DeepSeek 官方水准,并提供全网最高 500万初始 TPM、低至 30ms 延迟的流畅体验。
点击下方「
阅读原文
」登录火山方舟,即可享受速度更加流畅、效果全面提升的 DeepSeek-V3-0324 服务。
*火山方舟同时提供 DeepSeek-V3-241226 版本,用户可根据实际需求,灵活选择。
对齐官方效果,128K 窗口深化应用场景
由火山方舟提供服务的 DeepSeek-V3-0324,在模型效果上实现了全面提升:
与 DeepSeek 官方 API 效果保持高度一致
,提供优质的体验和服务。
支持上下文窗口长度 128K
,最大输出长度 16K,在复杂问答、多轮对话、文档总结等场景中提供更加准确、高效的智能体验。
支持联网、FunctionCall
,令模型具备实时信息获取与外部工具调用能力,能够拓展出更丰富的应用场景。
更强平台性能,保障流畅使用体验
为了帮助企业用户更好地在业务场景中应用 DeepSeek 模型,火山引擎在资源保障、承载能力、推理速度等方面不断优化:
在线推理方面
,火山方舟提供全网最高的
500万 TPM 初始限流
,满足高频交互与大规模调用场景需求。
支持离线批量推理
,提供最高 50亿 tokens/天(TPD)配额保障,适用于高吞吐任务,如数据处理、内容生成、智能标注等。
TPOT(吐字间隔)可保持在25-40ms
,为用户带来流畅的交互体验。
支持 Prefix Cache(前缀缓存)
,显著降低重复计算开销,实现更快响应速度与更高推理效率。
极致效果、稳定可靠的背后,是火山方舟底层全链路推理性能优化、服务稳定性保障机制,以及高吞吐推理架构等技术能力的支持,为用户的模型应用带来更好的体验。
针对有模型定制、部署、推理等需求的企业,
火山引擎 veMLP 平台
也即将支持 DeepSeek-V3-0324 版本,分钟级即可完成部署可用,敬请期待!
此外,一站式 AI 应用开发平台
扣子
也已接入 DeepSeek-V3-0324 能力,企业可通过扣子平台,畅享 DeepSeek-V3-0324 带来的多项能力提升。