nh1

DeepSeek-V4来啦!PAI已支持一键部署,共同迈向百万上下文普惠时代

栏目:国内   作者:李牧    发布时间:2026-04-27 09:12   阅读量:17364   会员投稿

01 模型介绍

DeepSeek-V4 已正式上线并同步开源。DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。本次发布共有 Deepseek-V4-Pro 和 Deepseek-V4-Flash 两个版本。PAI 平台现已支持 DeepSeek-V4 全系模型,一键即可部署调用!

1777168350253056.png

 Deepseek-V4-ProAgent 能力大幅提高, Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,且已成为深度求索公司内部员工使用的 Agentic Coding 模型,性能比肩 Claude Opus 4.6 等顶级闭源模型;拥有丰富的世界知识,在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1;并拥有世界顶级推理性能。

Deepseek-V4-Flash相比 DeepSeek-V4-Pro,在世界知识储备方面稍逊一筹,但 Flash 版本展现出了接近的推理能力 Agent 测评中,DeepSeek-V4-Flash 在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,凭借其较小的模型参数和激活,是更快捷高效的经济之选

1777168357307130.png

 DeepSeek 外,PAI-Model Gallery 同样支持 Qwen3.6-35B-A3BKimi K2.6Minimax-M2.7GLM-5.1 等前沿模型的一键部署,并可使用真武 810E 高效支持大模型训练及推理需求!

02 PAI-Model Gallery 简介

Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLMAIGCCVNLP 等各个领域。通过 PAI 对这些模型的适配,用户可以以零代码方式实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。

PAI-Model Gallery 访问地址:https://pai.console.aliyun.com/#/quick-start/models

阿里云 PAI-Model Gallery 已同步接入 DeepSeek-V4Kimi K2.6Minimax-m2.7GLM-5.1 与 Qwen3.6-35B-A3B 等最新主流模型,提供企业级部署方案。

● 零代码一键部署

● 自动适配云资源

● 开箱即用API

● 全流程运维托管

● 企业级安全 数据不出域

1777168364725317.png

1777168371952594.png

03 一键部署DeepSeek-V4 模型

立即体验 

1. 在 PAI-Model Gallery 模型广场找到 DeepSeek-V4-ProDeepSeek-V4-Flash 模型,或通过链接直达该模型:

DeepSeek-V4-Prohttps://pai.console.aliyun.com/#/quick-start/models/DeepSeek-V4-Pro/intro

DeepSeek-V4-Pro-FP8https://pai.console.aliyun.com/#/quick-start/models/DeepSeek-V4-Pro-FP8/intro

DeepSeek-V4-Flashhttps://pai.console.aliyun.com/#/quick-start/models/DeepSeek-V4-Flash/intro

DeepSeek-V4-Flash-FP8https://pai.console.aliyun.com/#/quick-start/models/DeepSeek-V4-Flash-FP8/intro

1777168378283488.png

2. 在模型详情页右上角点击「部署」,选择计算资源后,即可一键完成云上部署。

1777168388348241.png

DeepSeek-V4-Pro已支持 vLLM 高性能部署框架,支持单机和分布式部署,需 8*GPU 或以上资源;

1777168395993880.png

DeepSeek-V4-Pro-FP8已支持 SGLang 高性能部署框架,支持分布式部署,需 16*GPU 资源;

1777168401999034.png

Deepseek-V4-Flash已支持 vLLM 高性能部署框架,需 8*GPU 资源; 

1777168417595228.png

Deepseek-V4-Flash-FP8已支持 SGLang 高性能部署框架,需 4*GPU 资源; 

1777168426883350.png

3. 部署成功后,在服务页面可以点击查看调用信息获取调用的调用地址和 Token,想了解服务调用方式可以点击模型详情页,查看调用方式说明。

1777168433867063.png

04 更多模型支持

PAI-Model Gallery 持续提供开源社区热门模型的快速部署、微调、蒸馏、评测实践,模型覆盖 QwenWanDeepSeekKimiMiniMax 等优秀开源模型,同时还提供 Qwen3-235B-A22B-PAI-optimizedQwen3-Next-80B-A3B-Instruct-FP8-PAI-optimizedDeepSeek-R1-0528-PAI-optimized 等 PAI 优化版本模型,内置了 PAI 优化版的 EP+PD 分离部署等模板,性能更优。

联系我们

欢迎各位小伙伴持续关注使用 PAI-Model Gallery,平台会不断上线 SOTA 模型,如果您有任何模型需求,也可以联系我们。您可通过搜索钉钉群号(77450028832),加入 PAI-Model Gallery 用户交流群。




郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

ad