比ollama性能强大更全面的Xinference模型平台的详细安装步骤
liuian 2025-03-29 19:27 72 浏览
Xinference 是一个性能强大且功能全面的平台,旨在让您轻松运行和管理各种大型语言模型(LLMs)、嵌入模型(embedding models)和多模态模型(multimodal models)。它具有以下特点:
- 多模型支持: 支持各种开源 LLMs(如 LLaMA、Falcon、ChatGLM 等)、嵌入模型和多模态模型。
- 分布式部署: 可以在单机、多机甚至集群上部署,实现高可用性和可扩展性。
- 易于使用: 提供了简单的命令行界面(CLI)和 Web UI,方便您管理和使用模型。
- 内置优化: 包含了多种模型推理优化技术,如 GGML、GPTQ 等,提高推理速度。
- 兼容 OpenAI API: 提供了与 OpenAI API 兼容的接口,方便您将现有应用迁移到 Xinference。
部署步骤
- 安装 Python 环境 (建议使用 conda)
- 由于 Xinference 是 Python 项目,您需要先安装 Python 环境。强烈建议使用 conda 来管理 Python 环境,避免潜在的依赖冲突。
- 安装 Miniconda 或 Anaconda:
- Miniconda: https://docs.conda.io/en/latest/miniconda.html
- Anaconda: https://www.anaconda.com/products/distribution
- 下载对应 macOS (Apple Silicon) 的安装包,按照提示安装。安装完成后,打开终端,输入 conda --version,如果能看到版本号,则表示安装成功。
- 创建 conda 环境:
- conda create -n xinference python=3.10 # 建议使用 Python 3.10 conda activate xinference
- content_copydownload
- Use code with caution.Bash
- 安装 Xinference
- 有两种安装方式:
- 方式一:使用 pip 安装 (推荐)
- pip install "xinference[all]" # 安装所有依赖,包括 Web UI 和各种加速库
- content_copydownload
- Use code with caution.Bash
- 如果网络不好, 使用国内源
- pip install "xinference[all]" -i https://pypi.tuna.tsinghua.edu.cn/simple
- content_copydownload
- Use code with caution.Bash
- 方式二:从源码安装 (适合开发者)
- git clone https://github.com/xorbitsai/inference.git cd inference pip install -e ".[all]"
- content_copydownload
- Use code with caution.Bash
- 如果网络不好, 使用国内源
- pip install -e ".[all]" -i https://pypi.tuna.tsinghua.edu.cn/simple
- content_copydownload
- Use code with caution.Bash
- 启动 Xinference 服务
- 本地单机模式启动:
- xinference-local
- content_copydownload
- Use code with caution.Bash
- 这将启动一个本地 Xinference 服务,监听默认端口 9997。您可以通过浏览器访问 http://localhost:9997 来查看 Web UI。
- 部署和使用模型
- Xinference Web UI 提供了图形化界面,方便您部署和管理模型。您也可以使用命令行工具。
- Web UI 方式:
- 打开浏览器,访问 http://localhost:9997。
- 点击 "Launch Model" 按钮。
- 选择您想要部署的模型(例如,chatglm3-6b)。
- 填写模型相关参数(例如,模型路径、量化方式等)。如果模型不在本地, xinference将自动下载模型。
- 点击 "Launch" 按钮,等待模型加载完成。
- 模型加载完成后,您可以在 "Chat with Model" 页面与模型进行交互。
- 命令行方式:
- 启动一个模型:
以chatglm3-6b为例, 内置支持的模型不需要指定模型路径 - xinference launch --model-name chatglm3 --model-format pytorch --model-size-in-billions 6
- content_copydownload
- Use code with caution.Bash
- 如果需要指定模型路径
- xinference launch --model-name chatglm3 --model-format pytorch --model-size-in-billions 6 --model-path /path/to/your/chatglm3-6b
- content_copydownload
- Use code with caution.Bash
- 查看已启动的模型:
- xinference list
- content_copydownload
- Use code with caution.Bash
- 与模型交互(使用 curl 或 Python):
获取模型的endpoint和model_uid - $ xinference list +--------------------------------------+-----------------------------------------------------------------------+------------+ | model_uid | endpoint | model_name | +--------------------------------------+-----------------------------------------------------------------------+------------+ | 82e9895b6e474cb9b39987c47ab27439 | http://localhost:9997/v1/models/82e9895b6e474cb9b39987c47ab27439 | chatglm3 | +--------------------------------------+-----------------------------------------------------------------------+------------+
- content_copydownload
- Use code with caution.Bash
- 使用 curl:
- curl -X POST \ -H "Content-Type: application/json" \ -d '{ "prompt": "你好", "model": "chatglm3" }' \ http://localhost:9997/v1/chat/completions
- content_copydownload
- Use code with caution.Bash
- 使用 Python (OpenAI 客户端):
- from openai import OpenAI client = OpenAI( base_url="http://localhost:9997/v1", # 替换为您的 Xinference endpoint api_key="EMPTY", # Xinference 不需要 API key ) completion = client.chat.completions.create( model="82e9895b6e474cb9b39987c47ab27439", # 替换为您的 model_uid messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好!"} ] ) print(completion.choices[0].message)
- content_copydownload
- Use code with caution.Python
注意事项
- 模型下载: 首次部署模型时,Xinference 会自动下载模型文件。请确保您的网络连接良好,并有足够的存储空间。
- 硬件要求: 运行 LLMs 对硬件有一定的要求,特别是 GPU 内存。如果您的 GPU 内存不足,可以尝试使用量化后的模型(如 GPTQ 格式)或较小的模型。
- 模型路径: 命令行启动模型时,如果模型不在 xinference 的内置模型列表中,您需要指定 --model-path 为您的本地模型路径。
- 端口冲突: 如果默认端口 9997 被占用,您可以使用 --host 和 --port 参数指定其他主机和端口。
进阶使用
- 分布式部署: Xinference 支持分布式部署,可以参考官方文档了解更多信息:https://inference.readthedocs.io/en/latest/guides/distributed_deployment.html
- 自定义模型: 您可以部署自己训练的模型,具体方法请参考官方文档:https://inference.readthedocs.io/en/latest/guides/register_custom_model.html
- 模型加速: Xinference 支持多种模型加速技术,如 GGML、GPTQ 等,可以根据您的硬件和模型选择合适的加速方式。
希望这个详细的教程能帮助您在电脑上成功部署 Xinference!如果您在部署过程中遇到任何问题,欢迎随时提问。
相关推荐
- 教你把多个视频合并成一个视频的方法
-
一.情况介绍当你有一个m3u8文件和一个目录,目录中有连续的视频片段,这些片段可以连成一段完整的视频。m3u8文件打开后像这样:m3u8文件,可以理解为播放列表,里面是播放视频片段的顺序。视频片段像这...
- 零代码编程:用kimichat合并一个文件夹下的多个文件
-
一个文件夹里面有很多个srt字幕文件,如何借助kimichat来自动批量合并呢?在kimichat对话框中输入提示词:你是一个Python编程专家,完成如下的编程任务:这个文件夹:D:\downloa...
- Java APT_java APT 生成代码
-
JavaAPT(AnnotationProcessingTool)是一种在Java编译阶段处理注解的工具。APT会在编译阶段扫描源代码中的注解,并根据这些注解生成代码、资源文件或其他输出,...
- Unit Runtime:一键运行 AI 生成的代码,或许将成为你的复制 + 粘贴神器
-
在我们构建了UnitMesh架构之后,以及对应的demo之后,便着手于实现UnitMesh架构。于是,我们就继续开始UnitRuntime,以用于直接运行AI生成的代码。PS:...
- 挣脱臃肿的枷锁:为什么说Vert.x是Java开发者手中的一柄利剑?
-
如果你是一名Java开发者,那么你的职业生涯几乎无法避开Spring。它如同一位德高望重的老国王,统治着企业级应用开发的大片疆土。SpringBoot的约定大于配置、SpringCloud的微服务...
- 五年后,谷歌还在全力以赴发展 Kotlin
-
作者|FredericLardinois译者|Sambodhi策划|Tina自2017年谷歌I/O全球开发者大会上,谷歌首次宣布将Kotlin(JetBrains开发的Ja...
- kotlin和java开发哪个好,优缺点对比
-
Kotlin和Java都是常见的编程语言,它们有各自的优缺点。Kotlin的优点:简洁:Kotlin程序相对于Java程序更简洁,可以减少代码量。安全:Kotlin在类型系统和空值安全...
- 移动端架构模式全景解析:从MVC到MVVM,如何选择最佳设计方案?
-
掌握不同架构模式的精髓,是构建可维护、可测试且高效移动应用的关键。在移动应用开发中,选择合适的软件架构模式对项目的可维护性、可测试性和团队协作效率至关重要。随着应用复杂度的增加,一个良好的架构能够帮助...
- 颜值非常高的XShell替代工具Termora,不一样的使用体验!
-
Termora是一款面向开发者和运维人员的跨平台SSH终端与文件管理工具,支持Windows、macOS及Linux系统,通过一体化界面简化远程服务器管理流程。其核心定位是解决多平台环境下远程连接、文...
- 预处理的底层原理和预处理编译运行异常的解决方案
-
若文章对您有帮助,欢迎关注程序员小迷。助您在编程路上越走越好![Mac-10.7.1LionIntel-based]Q:预处理到底干了什么事情?A:预处理,顾名思义,预先做的处理。源代码中...
- 为“架构”再建个模:如何用代码描述软件架构?
-
在架构治理平台ArchGuard中,为了实现对架构的治理,我们需要代码+模型描述所要处理的内容和数据。所以,在ArchGuard中,我们有了代码的模型、依赖的模型、变更的模型等,剩下的两个...
- 深度解析:Google Gemma 3n —— 移动优先的轻量多模态大模型
-
2025年6月,Google正式发布了Gemma3n,这是一款能够在2GB内存环境下运行的轻量级多模态大模型。它延续了Gemma家族的开源基因,同时在架构设计上大幅优化,目标是让...
- 比分网开发技术栈与功能详解_比分网有哪些
-
一、核心功能模块一个基本的比分网通常包含以下模块:首页/总览实时比分看板:滚动展示所有正在进行的比赛,包含比分、比赛时间、红黄牌等关键信息。热门赛事/焦点战:突出显示重要的、关注度高的比赛。赛事导航...
- 设计模式之-生成器_一键生成设计
-
一、【概念定义】——“分步构建复杂对象,隐藏创建细节”生成器模式(BuilderPattern):一种“分步构建型”创建型设计模式,它将一个复杂对象的构建与其表示分离,使得同样的构建过程可以创建...
- 构建第一个 Kotlin Android 应用_kotlin简介
-
第一步:安装AndroidStudio(推荐IDE)AndroidStudio是官方推荐的Android开发集成开发环境(IDE),内置对Kotlin的完整支持。1.下载And...
- 一周热门
-
-
【验证码逆向专栏】vaptcha 手势验证码逆向分析
-
Psutil + Flask + Pyecharts + Bootstrap 开发动态可视化系统监控
-
一个解决支持HTML/CSS/JS网页转PDF(高质量)的终极解决方案
-
再见Swagger UI 国人开源了一款超好用的 API 文档生成框架,真香
-
网页转成pdf文件的经验分享 网页转成pdf文件的经验分享怎么弄
-
C++ std::vector 简介
-
飞牛OS入门安装遇到问题,如何解决?
-
系统C盘清理:微信PC端文件清理,扩大C盘可用空间步骤
-
10款高性能NAS丨双十一必看,轻松搞定虚拟机、Docker、软路由
-
python使用fitz模块提取pdf中的图片
-
- 最近发表
- 标签列表
-
- python判断字典是否为空 (50)
- crontab每周一执行 (48)
- aes和des区别 (43)
- bash脚本和shell脚本的区别 (35)
- canvas库 (33)
- dataframe筛选满足条件的行 (35)
- gitlab日志 (33)
- lua xpcall (36)
- blob转json (33)
- python判断是否在列表中 (34)
- python html转pdf (36)
- 安装指定版本npm (37)
- idea搜索jar包内容 (33)
- css鼠标悬停出现隐藏的文字 (34)
- linux nacos启动命令 (33)
- gitlab 日志 (36)
- adb pull (37)
- python判断元素在不在列表里 (34)
- python 字典删除元素 (34)
- vscode切换git分支 (35)
- python bytes转16进制 (35)
- grep前后几行 (34)
- hashmap转list (35)
- c++ 字符串查找 (35)
- mysql刷新权限 (34)