百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Ubuntu os中部署Deep seek(ubuntu部署django)

liuian 2025-06-03 23:27 23 浏览

1. 环境准备


1.1 硬件要求


o 操作系统: Ubuntu 24.04 LTS

o GPU(可选): NVIDIA GPU(建议至少 24GB VRAM,如 RTX 4090 / A100)

o CPU(仅用于 CPU 推理): 至少 8 核,推荐 16 核以上

o 内存: 至少 32GB(建议 64GB 以上)

o 硬盘空间: 至少 60GB(用于模型存储)


2. 安装必要的软件和驱动


2.1 更新系统


sudo apt update && sudo apt upgrade -y


2.2 安装 NVIDIA 驱动(如果使用 GPU)


检查显卡型号:


lspci | grep -i nvidia


安装 NVIDIA 官方驱动(例如 535 版本):


sudo apt install -y nvidia-driver-535

reboot # 重启系统以加载新驱动


验证驱动安装:


nvidia-smi


如果输出类似以下内容,说明驱动安装成功:


+-----------------------------------------------------------------------------+

| NVIDIA-SMI 535.113.01 Driver Version: 535.113.01 CUDA Version: 12.2 |

|-------------------------------+----------------------+----------------------+


2.3 安装 CUDA 和 cuDNN(GPU 用户)


安装 CUDA


sudo apt install -y cuda


安装 cuDNN


sudo apt install -y libcudnn8


验证 CUDA:


nvcc --version


3. 创建 Python 环境


3.1 安装 Miniconda(推荐)


wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

bash Miniconda3-latest-Linux-x86_64.sh


安装完成后,关闭终端重新打开,或手动运行:


source ~/.bashrc


3.2 创建 Python 环境


conda create -n deepseek python=3.10 -y

conda activate deepseek


4. 安装 PyTorch 和 DeepSeek 依赖


4.1 安装 PyTorch


GPU 版本


pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118


CPU 版本


pip install torch torchvision torchaudio


测试 PyTorch 是否安装成功:


python -c "import torch; print(torch.cuda.is_available())"


如果输出 True,说明 PyTorch 可以使用 GPU。


4.2 安装 transformers、accelerate 和 vllm


pip install transformers accelerate vllm


5. 下载 DeepSeek 代码和模型


5.1 下载 DeepSeek 代码


git clone https://github.com/DeepSeek-AI/DeepSeek-LLM.git

cd DeepSeek-LLM


5.2 下载 DeepSeek 7B 模型


官方 Hugging Face 地址:
https://huggingface.co/DeepSeek-AI/deepseek-llm-7b


手动下载


mkdir -p models/deepseek-llm-7b

cd models/deepseek-llm-7b

wget https://huggingface.co/DeepSeek-AI/deepseek-llm-7b/resolve/main/config.json

wget https://huggingface.co/DeepSeek-AI/deepseek-llm-7b/resolve/main/model.safetensors

wget https://huggingface.co/DeepSeek-AI/deepseek-llm-7b/resolve/main/tokenizer.model


(或使用 git-lfs 下载完整模型)


git lfs install

git clone https://huggingface.co/DeepSeek-AI/deepseek-llm-7b models/deepseek-llm-7b


6. 运行 DeepSeek


6.1 运行 DeepSeek 推理


创建 run.py 文件:


from transformers import AutoModelForCausalLM, AutoTokenizer

import torch


model_name = "models/deepseek-llm-7b" # 本地模型路径

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto")


inputs = tokenizer("你好,DeepSeek!", return_tensors="pt").to("cuda")

outputs = model.generate(**inputs, max_new_tokens=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))


运行:


python run.py


7. 运行 Web 界面


可以使用 FastAPI + Gradio 构建 Web 界面。


7.1 安装依赖


pip install fastapi gradio uvicorn


7.2 创建 web_app.py


from fastapi import FastAPI

import gradio as gr

from transformers import AutoModelForCausalLM, AutoTokenizer

import torch


app = FastAPI()


# 加载模型

model_name = "models/deepseek-llm-7b"

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto")


def generate_response(prompt):

inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

outputs = model.generate(**inputs, max_new_tokens=100)

return tokenizer.decode(outputs[0], skip_special_tokens=True)


# Gradio 界面

def chatbot(prompt):

return generate_response(prompt)


iface = gr.Interface(fn=chatbot, inputs="text", outputs="text")


@app.get("/")

def read_root():

return {"message": "DeepSeek Web Server is Running"}


# 启动 Gradio

@app.get("/webui")

def launch_gradio():

iface.launch(share=True)


7.3 运行 Web 界面


uvicorn web_app:app --host 0.0.0.0 --port 8000


在浏览器中打开:


http://localhost:8000/webui


8. 总结


步骤 命令

更新系统 sudo apt update && sudo apt upgrade -y

安装 GPU 驱动 sudo apt install -y nvidia-driver-535

安装 CUDA 和 cuDNN sudo apt install -y cuda libcudnn8

创建 Python 环境 conda create -n deepseek python=3.10 -y && conda activate deepseek

安装 PyTorch pip install torch torchvision torchaudio --index-url
https://download.pytorch.org/whl/cu118

安装 transformers pip install transformers accelerate vllm

下载模型 git clone
https://huggingface.co/DeepSeek-AI/deepseek-llm-7b models/deepseek-llm-7b

运行推理 python run.py

运行 Web 界面 uvicorn web_app:app --host 0.0.0.0 --port 8000


这样,你就可以在 Ubuntu 24.04 上部署 DeepSeek-LLM 了!

相关推荐

教你把多个视频合并成一个视频的方法

一.情况介绍当你有一个m3u8文件和一个目录,目录中有连续的视频片段,这些片段可以连成一段完整的视频。m3u8文件打开后像这样:m3u8文件,可以理解为播放列表,里面是播放视频片段的顺序。视频片段像这...

零代码编程:用kimichat合并一个文件夹下的多个文件

一个文件夹里面有很多个srt字幕文件,如何借助kimichat来自动批量合并呢?在kimichat对话框中输入提示词:你是一个Python编程专家,完成如下的编程任务:这个文件夹:D:\downloa...

Java APT_java APT 生成代码

JavaAPT(AnnotationProcessingTool)是一种在Java编译阶段处理注解的工具。APT会在编译阶段扫描源代码中的注解,并根据这些注解生成代码、资源文件或其他输出,...

Unit Runtime:一键运行 AI 生成的代码,或许将成为你的复制 + 粘贴神器

在我们构建了UnitMesh架构之后,以及对应的demo之后,便着手于实现UnitMesh架构。于是,我们就继续开始UnitRuntime,以用于直接运行AI生成的代码。PS:...

挣脱臃肿的枷锁:为什么说Vert.x是Java开发者手中的一柄利剑?

如果你是一名Java开发者,那么你的职业生涯几乎无法避开Spring。它如同一位德高望重的老国王,统治着企业级应用开发的大片疆土。SpringBoot的约定大于配置、SpringCloud的微服务...

五年后,谷歌还在全力以赴发展 Kotlin

作者|FredericLardinois译者|Sambodhi策划|Tina自2017年谷歌I/O全球开发者大会上,谷歌首次宣布将Kotlin(JetBrains开发的Ja...

kotlin和java开发哪个好,优缺点对比

Kotlin和Java都是常见的编程语言,它们有各自的优缺点。Kotlin的优点:简洁:Kotlin程序相对于Java程序更简洁,可以减少代码量。安全:Kotlin在类型系统和空值安全...

移动端架构模式全景解析:从MVC到MVVM,如何选择最佳设计方案?

掌握不同架构模式的精髓,是构建可维护、可测试且高效移动应用的关键。在移动应用开发中,选择合适的软件架构模式对项目的可维护性、可测试性和团队协作效率至关重要。随着应用复杂度的增加,一个良好的架构能够帮助...

颜值非常高的XShell替代工具Termora,不一样的使用体验!

Termora是一款面向开发者和运维人员的跨平台SSH终端与文件管理工具,支持Windows、macOS及Linux系统,通过一体化界面简化远程服务器管理流程。其核心定位是解决多平台环境下远程连接、文...

预处理的底层原理和预处理编译运行异常的解决方案

若文章对您有帮助,欢迎关注程序员小迷。助您在编程路上越走越好![Mac-10.7.1LionIntel-based]Q:预处理到底干了什么事情?A:预处理,顾名思义,预先做的处理。源代码中...

为“架构”再建个模:如何用代码描述软件架构?

在架构治理平台ArchGuard中,为了实现对架构的治理,我们需要代码+模型描述所要处理的内容和数据。所以,在ArchGuard中,我们有了代码的模型、依赖的模型、变更的模型等,剩下的两个...

深度解析:Google Gemma 3n —— 移动优先的轻量多模态大模型

2025年6月,Google正式发布了Gemma3n,这是一款能够在2GB内存环境下运行的轻量级多模态大模型。它延续了Gemma家族的开源基因,同时在架构设计上大幅优化,目标是让...

比分网开发技术栈与功能详解_比分网有哪些

一、核心功能模块一个基本的比分网通常包含以下模块:首页/总览实时比分看板:滚动展示所有正在进行的比赛,包含比分、比赛时间、红黄牌等关键信息。热门赛事/焦点战:突出显示重要的、关注度高的比赛。赛事导航...

设计模式之-生成器_一键生成设计

一、【概念定义】——“分步构建复杂对象,隐藏创建细节”生成器模式(BuilderPattern):一种“分步构建型”创建型设计模式,它将一个复杂对象的构建与其表示分离,使得同样的构建过程可以创建...

构建第一个 Kotlin Android 应用_kotlin简介

第一步:安装AndroidStudio(推荐IDE)AndroidStudio是官方推荐的Android开发集成开发环境(IDE),内置对Kotlin的完整支持。1.下载And...