00000192
模型分类 |
模型名称 |
模型尺寸 |
精度 |
GPU和服务器最小配置 |
适用场景 |
满血版 |
DeepSeek-V3 |
671B |
INT8 |
2台服务器 16*BI150/32*MR100 |
智能客服、长文本处理、专家知识问答 |
DeepSeek-R1 |
|||||
INT8 |
2台服务器 16*BI150/32*MR100 |
数据分析、算法设计、规划建议 |
|||
蒸馏版 |
DeepSeek-R1-Distill-Llama-70B |
70B |
BF16 |
4*BI150/8*MR100 |
本地代码生成,代码补全及代码测试用例生成,轻量多轮对话,逻辑推理,规划建议 |
INT8 |
|||||
DeepSeek-R1-Distill-Qwen-32B |
32B |
BF16 |
2*BI150/4*MR100(可选主动散热+工作站模式) |
||
INT8 |
|||||
DeepSeek-R1-Distill-Qwen-14B |
14B |
BF16 |
1*BI150/2*MR100(可选主动散热+工作站模式) |
||
INT8 |
|||||
DeepSeek-R1-Distill-Llama-8B |
8B |
BF16 |
1*BI150/2*MR100(可选主动散热+工作站模式) |
||
INT8 |
1*MR100(可选主动散热+工控机模式) |
||||
DeepSeek-R1-Distill-Qwen-7B |
7B |
BF16 |
1*MR100 工作站或者工控机皆可 |
||
INT8 |
1*MR100 工作站或者工控机皆可 |
||||
DeepSeek-R1-Distill-Qwen-1.5B |
1.5B |
BF16 |
1*MR100 工作站或者工控机皆可 |
实时聊天,简单个人助理 |