不二如是 发表于 2025-3-25 08:31:08

「DeepSeek V3-0324」震撼来袭!AI编程的全民普惠时刻!!



DeepSeek V3-0324 是 DeepSeek 在 2025 年 3 月 24 日发布的一个模型版本。

在线感受:

https://www.bilibili.com/video/BV1UGoSYTE5F

模型架构:依然是基于混合专家(MoE)模型设计,包含 256 个路由专家和 1 个共享专家,每个 token 使用 8 个专家推理。

参数规模:模型参数为 6850 亿。

上下文长度:通过 RoPE 可以扩展到最高 163840 上下文长度(160K)。

开源情况:模型代码和预训练权重均采用 MIT License 开源,允许免费商用。

编程能力**** Hidden Message *****

数学推理:相较于 V3,V3-0324 在数学问题求解上的表现更加出色。支持复杂解题,达到推理模型水平,数学能力提升显著。

多轮对话能力:展现了更强的上下文理解能力,上下文长度从 64K 翻倍到 128K,支持更长的对话历史和大篇幅文档处理。

生成速度:从 20 TPS 提升至 60 TPS,相比 V2.5 模型实现了 3 倍的提升。

最牛逼的进化,是新v3的代码能力。

生成的前端代码质量和审美,效果甚至能追上一点Claude3.7了。

能力大概在Claude 3.5 Sonnet到Claude 3.7 Sonnet之间。

不二如是 发表于 2025-3-25 08:31:55

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

不二如是 发表于 2025-3-25 08:32:06

@FishC 如何在本地部署DeepSeek

FishC 发表于 2025-3-25 08:32:37

不二如是 发表于 2025-03-25 08:32
@FishC 如何在本地部署DeepSeek

本地部署 DeepSeek 需要一定的计算资源,特别是 GPU 资源。以下是基本的部署步骤:

1. 准备环境
首先,确保你的系统满足以下要求:

[*] 操作系统:Linux(推荐 Ubuntu 20.04+)或 Windows(使用 WSL2)
[*] GPU:NVIDIA GPU(推荐 24GB+ 显存)
[*] CUDA 和 cuDNN 已正确安装
[*] Python 3.8+
[*] PyTorch(支持 GPU 版本)


2. 安装依赖
使用以下命令安装所需的 Python 依赖:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install transformers accelerate


3. 下载 DeepSeek 模型
DeepSeek 提供了开源模型,可以从 Hugging Face 下载:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "deepseek-ai/deepseek-llm"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")


4. 运行推理测试
可以使用以下代码进行简单的推理测试:

input_text = "你好,DeepSeek!"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_length=50)
print(tokenizer.decode(outputs, skip_special_tokens=True))


5. 部署 API 服务(可选)
如果你想要本地部署 API 服务,可以使用 FastAPI 或 Flask:

from fastapi import FastAPI
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

app = FastAPI()
model_name = "deepseek-ai/deepseek-llm"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")

@app.post("/generate")
def generate_text(prompt: str):
    inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
    outputs = model.generate(**inputs, max_length=100)
    return {"response": tokenizer.decode(outputs, skip_special_tokens=True)}

# 运行服务器
# uvicorn filename:app --host 0.0.0.0 --port 8000


6. 其他优化(可选)

[*] 使用 torch.compile 或 bitsandbytes 进行推理优化
[*] 采用 vLLM 或 TGI 进行高效推理
[*] 结合 LoRA 进行微调


这样,你就可以在本地成功部署 DeepSeek 了!如果有更具体的需求,可以进一步优化部署方式。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。

tomok 发表于 2025-3-25 09:05:45

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

磷酸 发表于 2025-3-25 09:15:45

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

不二如是 发表于 2025-3-25 09:28:30

磷酸 发表于 2025-3-25 09:15
感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

{:10_275:}

不二如是 发表于 2025-3-25 09:28:42

tomok 发表于 2025-3-25 09:05
感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

{:10_275:}

很cool的阳 发表于 2025-3-25 17:01:55

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

好一大团 发表于 2025-3-25 17:14:28

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

layyzyy 发表于 2025-3-25 21:00:22

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

lscp 发表于 2025-3-25 21:17:56

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

19924269098 发表于 2025-3-25 22:21:11

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

yhxlovely 发表于 2025-3-26 12:51:40

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

不二如是 发表于 2025-3-26 13:31:44

yhxlovely 发表于 2025-3-26 12:51
感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

{:10_275:}

youwosuoai 发表于 2025-3-26 14:55:51

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

qingchuan 发表于 2025-3-26 16:19:52

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

Tommy49 发表于 2025-3-27 02:21:23

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

皮卡丘0304 发表于 2025-3-28 13:53:11

感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

不二如是 发表于 2025-3-28 14:07:50

皮卡丘0304 发表于 2025-3-28 13:53
感谢分享!!朕又在鱼C学到第一手AI前沿动态啦!!

{:10_275:}
页: [1] 2
查看完整版本: 「DeepSeek V3-0324」震撼来袭!AI编程的全民普惠时刻!!