百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Windows 本地部署 LangChain 完整教程

liuian 2025-06-08 22:32 15 浏览

本文以 LangChain-Chatchat 0.3.1 为例,支持中文对话、知识库问答和本地模型推理。


一、环境准备

1. 硬件与系统要求

  • 操作系统:Windows 10/11(推荐)
  • Python 版本:3.10(兼容性最佳)
  • GPU 支持(可选):NVIDIA 显卡(CUDA 12.1 或更高)显存 ≥ 8GB(运行 7B 参数模型,如 ChatGLM3-6B)存储空间:≥30GB(模型文件 + 依赖库)

2. 安装基础工具

  • Anaconda:管理 Python 环境(官网下载
  • Git:拉取代码仓库(官网下载
  • CUDA Toolkit(GPU 用户):
  • bash
  • 复制
  • pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

二、部署流程

1. 创建虚拟环境

bash

复制

conda create -n langchain python=3.10
conda activate langchain

2. 安装依赖包

bash

复制

pip install "langchain-chatchat[xinference]" -U  # 核心框架 + 推理引擎[1,8](@ref)
pip install sentence-transformers chromadb        # 向量数据库与嵌入模型[3](@ref)

3. 配置项目目录

  • 设置数据存储路径(避免中文路径):
  • cmd
  • 复制
  • set CHATCHAT_ROOT=D:\LangChain-Data # Windows 环境变量[1,8](@ref)
  • 初始化配置文件:
  • bash
  • 复制
  • chatchat init # 生成 configs 目录和默认配置[8](@ref)

4. 下载与配置模型

  • 推荐模型对话模型:ChatGLM3-6B、Qwen-7B-Chat
  • 嵌入模型:BAAI/bge-large-zh(中文语义向量)
  • 操作步骤:从 HuggingFace 下载模型(需 Git LFS):
  • bash
  • 复制
  • git lfs install git clone https://huggingface.co/THUDM/chatglm3-6b
  • 将模型文件放入目录:
  • 复制
  • %CHATCHAT_ROOT%/models/chatglm3-6b/
  • 修改配置文件 configs/model_config.py:
  • python
  • 复制
  • "llm_model": { "chatglm3-6b": "D:\\LangChain-Data\\models\\chatglm3-6b" # 替换为实际路径 }

5. 配置向量数据库(知识库)

python

复制

# configs/kb_config.py
VS_TYPE = "Chroma"                    # 使用轻量级 ChromaDB[3](@ref)
EMBEDDING_MODEL = "bge-large-zh"      # 中文嵌入模型

6. 启动服务

bash

复制

python startup.py -a  # 启动全部模块(API+WebUI)
  • 访问地址:http://127.0.0.1:8501
    https://example.com/langchain-webui.png
    (Web 交互界面示意图)

三、高级功能配置

1. 加载本地知识库

  1. 将文档(PDF/TXT)放入 knowledge_base 目录
  2. 重建向量库:
  3. bash
  4. 复制
  5. python init_database.py --recreate-vs # 重新生成向量索引[8](@ref)

2. 多模型切换

编辑 configs/model_config.py,支持同时加载多个模型:

python

复制

LLM_MODELS = ["chatglm3-6b", "qwen-7b-chat"]  # 模型列表

四、常见问题排查

问题类型

解决方案

CUDA 版本不匹配

安装 CUDA 12.1 并重装 PyTorch:pip install torch==2.3.1+cu121

端口冲突(8501)

修改 configs/server_config.py 中的 WEBUI_PORT 值

模型加载失败

检查模型路径是否含空格或中文;确认 bin 文件完整

依赖冲突

使用虚拟环境;重装依赖:pip install --force-reinstall "xinference[all]"

内存不足

启用模型量化(INT8/INT4),修改模型加载参数:
quantization: 8


五、优化建议

  1. GPU 加速:使用 llama-cpp-python 替代默认推理引擎(支持 GGML 量化模型)

bash

复制

pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir

  1. 减少显存占用:选择量化模型(如 Qwen-7B-Chat-Int4)
  2. 知识库分块优化:调整 chunk_size=500、chunk_overlap=100(避免信息丢失)

提示:完成部署后,通过 http://localhost:8501 测试问答功能,上传文档至知识库体验私有数据检索。遇到问题可查看 logs 目录下的错误日志定位原因。

相关推荐

教你把多个视频合并成一个视频的方法

一.情况介绍当你有一个m3u8文件和一个目录,目录中有连续的视频片段,这些片段可以连成一段完整的视频。m3u8文件打开后像这样:m3u8文件,可以理解为播放列表,里面是播放视频片段的顺序。视频片段像这...

零代码编程:用kimichat合并一个文件夹下的多个文件

一个文件夹里面有很多个srt字幕文件,如何借助kimichat来自动批量合并呢?在kimichat对话框中输入提示词:你是一个Python编程专家,完成如下的编程任务:这个文件夹:D:\downloa...

Java APT_java APT 生成代码

JavaAPT(AnnotationProcessingTool)是一种在Java编译阶段处理注解的工具。APT会在编译阶段扫描源代码中的注解,并根据这些注解生成代码、资源文件或其他输出,...

Unit Runtime:一键运行 AI 生成的代码,或许将成为你的复制 + 粘贴神器

在我们构建了UnitMesh架构之后,以及对应的demo之后,便着手于实现UnitMesh架构。于是,我们就继续开始UnitRuntime,以用于直接运行AI生成的代码。PS:...

挣脱臃肿的枷锁:为什么说Vert.x是Java开发者手中的一柄利剑?

如果你是一名Java开发者,那么你的职业生涯几乎无法避开Spring。它如同一位德高望重的老国王,统治着企业级应用开发的大片疆土。SpringBoot的约定大于配置、SpringCloud的微服务...

五年后,谷歌还在全力以赴发展 Kotlin

作者|FredericLardinois译者|Sambodhi策划|Tina自2017年谷歌I/O全球开发者大会上,谷歌首次宣布将Kotlin(JetBrains开发的Ja...

kotlin和java开发哪个好,优缺点对比

Kotlin和Java都是常见的编程语言,它们有各自的优缺点。Kotlin的优点:简洁:Kotlin程序相对于Java程序更简洁,可以减少代码量。安全:Kotlin在类型系统和空值安全...

移动端架构模式全景解析:从MVC到MVVM,如何选择最佳设计方案?

掌握不同架构模式的精髓,是构建可维护、可测试且高效移动应用的关键。在移动应用开发中,选择合适的软件架构模式对项目的可维护性、可测试性和团队协作效率至关重要。随着应用复杂度的增加,一个良好的架构能够帮助...

颜值非常高的XShell替代工具Termora,不一样的使用体验!

Termora是一款面向开发者和运维人员的跨平台SSH终端与文件管理工具,支持Windows、macOS及Linux系统,通过一体化界面简化远程服务器管理流程。其核心定位是解决多平台环境下远程连接、文...

预处理的底层原理和预处理编译运行异常的解决方案

若文章对您有帮助,欢迎关注程序员小迷。助您在编程路上越走越好![Mac-10.7.1LionIntel-based]Q:预处理到底干了什么事情?A:预处理,顾名思义,预先做的处理。源代码中...

为“架构”再建个模:如何用代码描述软件架构?

在架构治理平台ArchGuard中,为了实现对架构的治理,我们需要代码+模型描述所要处理的内容和数据。所以,在ArchGuard中,我们有了代码的模型、依赖的模型、变更的模型等,剩下的两个...

深度解析:Google Gemma 3n —— 移动优先的轻量多模态大模型

2025年6月,Google正式发布了Gemma3n,这是一款能够在2GB内存环境下运行的轻量级多模态大模型。它延续了Gemma家族的开源基因,同时在架构设计上大幅优化,目标是让...

比分网开发技术栈与功能详解_比分网有哪些

一、核心功能模块一个基本的比分网通常包含以下模块:首页/总览实时比分看板:滚动展示所有正在进行的比赛,包含比分、比赛时间、红黄牌等关键信息。热门赛事/焦点战:突出显示重要的、关注度高的比赛。赛事导航...

设计模式之-生成器_一键生成设计

一、【概念定义】——“分步构建复杂对象,隐藏创建细节”生成器模式(BuilderPattern):一种“分步构建型”创建型设计模式,它将一个复杂对象的构建与其表示分离,使得同样的构建过程可以创建...

构建第一个 Kotlin Android 应用_kotlin简介

第一步:安装AndroidStudio(推荐IDE)AndroidStudio是官方推荐的Android开发集成开发环境(IDE),内置对Kotlin的完整支持。1.下载And...