百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

比ollama性能强大更全面的Xinference模型平台的详细安装步骤

liuian 2025-03-29 19:27 72 浏览

Xinference 是一个性能强大且功能全面的平台,旨在让您轻松运行和管理各种大型语言模型(LLMs)、嵌入模型(embedding models)和多模态模型(multimodal models)。它具有以下特点:

  • 多模型支持: 支持各种开源 LLMs(如 LLaMA、Falcon、ChatGLM 等)、嵌入模型和多模态模型。
  • 分布式部署: 可以在单机、多机甚至集群上部署,实现高可用性和可扩展性。
  • 易于使用: 提供了简单的命令行界面(CLI)和 Web UI,方便您管理和使用模型。
  • 内置优化: 包含了多种模型推理优化技术,如 GGML、GPTQ 等,提高推理速度。
  • 兼容 OpenAI API: 提供了与 OpenAI API 兼容的接口,方便您将现有应用迁移到 Xinference。

部署步骤

  1. 安装 Python 环境 (建议使用 conda)
  2. 由于 Xinference 是 Python 项目,您需要先安装 Python 环境。强烈建议使用 conda 来管理 Python 环境,避免潜在的依赖冲突。
  3. 安装 Miniconda 或 Anaconda:
  4. Miniconda: https://docs.conda.io/en/latest/miniconda.html
  5. Anaconda: https://www.anaconda.com/products/distribution
  6. 下载对应 macOS (Apple Silicon) 的安装包,按照提示安装。安装完成后,打开终端,输入 conda --version,如果能看到版本号,则表示安装成功。
  7. 创建 conda 环境:
  8. conda create -n xinference python=3.10 # 建议使用 Python 3.10 conda activate xinference
  9. content_copydownload
  10. Use code with caution.Bash
  11. 安装 Xinference
  12. 有两种安装方式:
  13. 方式一:使用 pip 安装 (推荐)
  14. pip install "xinference[all]" # 安装所有依赖,包括 Web UI 和各种加速库
  15. content_copydownload
  16. Use code with caution.Bash
  17. 如果网络不好, 使用国内源
  18. pip install "xinference[all]" -i https://pypi.tuna.tsinghua.edu.cn/simple
  19. content_copydownload
  20. Use code with caution.Bash
  21. 方式二:从源码安装 (适合开发者)
  22. git clone https://github.com/xorbitsai/inference.git cd inference pip install -e ".[all]"
  23. content_copydownload
  24. Use code with caution.Bash
  25. 如果网络不好, 使用国内源
  26. pip install -e ".[all]" -i https://pypi.tuna.tsinghua.edu.cn/simple
  27. content_copydownload
  28. Use code with caution.Bash
  29. 启动 Xinference 服务
  30. 本地单机模式启动:
  31. xinference-local
  32. content_copydownload
  33. Use code with caution.Bash
  34. 这将启动一个本地 Xinference 服务,监听默认端口 9997。您可以通过浏览器访问 http://localhost:9997 来查看 Web UI。
  35. 部署和使用模型
  36. Xinference Web UI 提供了图形化界面,方便您部署和管理模型。您也可以使用命令行工具。
  37. Web UI 方式:
    1. 打开浏览器,访问 http://localhost:9997。
    2. 点击 "Launch Model" 按钮。
    3. 选择您想要部署的模型(例如,chatglm3-6b)。
    4. 填写模型相关参数(例如,模型路径、量化方式等)。如果模型不在本地, xinference将自动下载模型。
    5. 点击 "Launch" 按钮,等待模型加载完成。
    6. 模型加载完成后,您可以在 "Chat with Model" 页面与模型进行交互。
  38. 命令行方式:
    1. 启动一个模型:
      以chatglm3-6b为例, 内置支持的模型不需要指定模型路径
    2. xinference launch --model-name chatglm3 --model-format pytorch --model-size-in-billions 6
    3. content_copydownload
    4. Use code with caution.Bash
    5. 如果需要指定模型路径
    6. xinference launch --model-name chatglm3 --model-format pytorch --model-size-in-billions 6 --model-path /path/to/your/chatglm3-6b
    7. content_copydownload
    8. Use code with caution.Bash
    9. 查看已启动的模型:
    10. xinference list
    11. content_copydownload
    12. Use code with caution.Bash
    13. 与模型交互(使用 curl 或 Python):
      获取模型的endpoint和model_uid
    14. $ xinference list +--------------------------------------+-----------------------------------------------------------------------+------------+ | model_uid | endpoint | model_name | +--------------------------------------+-----------------------------------------------------------------------+------------+ | 82e9895b6e474cb9b39987c47ab27439 | http://localhost:9997/v1/models/82e9895b6e474cb9b39987c47ab27439 | chatglm3 | +--------------------------------------+-----------------------------------------------------------------------+------------+
    15. content_copydownload
    16. Use code with caution.Bash
    17. 使用 curl:
    18. curl -X POST \ -H "Content-Type: application/json" \ -d '{ "prompt": "你好", "model": "chatglm3" }' \ http://localhost:9997/v1/chat/completions
    19. content_copydownload
    20. Use code with caution.Bash
    21. 使用 Python (OpenAI 客户端):
    22. from openai import OpenAI client = OpenAI( base_url="http://localhost:9997/v1", # 替换为您的 Xinference endpoint api_key="EMPTY", # Xinference 不需要 API key ) completion = client.chat.completions.create( model="82e9895b6e474cb9b39987c47ab27439", # 替换为您的 model_uid messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好!"} ] ) print(completion.choices[0].message)
    23. content_copydownload
    24. Use code with caution.Python

注意事项

  • 模型下载: 首次部署模型时,Xinference 会自动下载模型文件。请确保您的网络连接良好,并有足够的存储空间。
  • 硬件要求: 运行 LLMs 对硬件有一定的要求,特别是 GPU 内存。如果您的 GPU 内存不足,可以尝试使用量化后的模型(如 GPTQ 格式)或较小的模型。
  • 模型路径: 命令行启动模型时,如果模型不在 xinference 的内置模型列表中,您需要指定 --model-path 为您的本地模型路径。
  • 端口冲突: 如果默认端口 9997 被占用,您可以使用 --host 和 --port 参数指定其他主机和端口。

进阶使用

  • 分布式部署: Xinference 支持分布式部署,可以参考官方文档了解更多信息:https://inference.readthedocs.io/en/latest/guides/distributed_deployment.html
  • 自定义模型: 您可以部署自己训练的模型,具体方法请参考官方文档:https://inference.readthedocs.io/en/latest/guides/register_custom_model.html
  • 模型加速: Xinference 支持多种模型加速技术,如 GGML、GPTQ 等,可以根据您的硬件和模型选择合适的加速方式。

希望这个详细的教程能帮助您在电脑上成功部署 Xinference!如果您在部署过程中遇到任何问题,欢迎随时提问。

相关推荐

教你把多个视频合并成一个视频的方法

一.情况介绍当你有一个m3u8文件和一个目录,目录中有连续的视频片段,这些片段可以连成一段完整的视频。m3u8文件打开后像这样:m3u8文件,可以理解为播放列表,里面是播放视频片段的顺序。视频片段像这...

零代码编程:用kimichat合并一个文件夹下的多个文件

一个文件夹里面有很多个srt字幕文件,如何借助kimichat来自动批量合并呢?在kimichat对话框中输入提示词:你是一个Python编程专家,完成如下的编程任务:这个文件夹:D:\downloa...

Java APT_java APT 生成代码

JavaAPT(AnnotationProcessingTool)是一种在Java编译阶段处理注解的工具。APT会在编译阶段扫描源代码中的注解,并根据这些注解生成代码、资源文件或其他输出,...

Unit Runtime:一键运行 AI 生成的代码,或许将成为你的复制 + 粘贴神器

在我们构建了UnitMesh架构之后,以及对应的demo之后,便着手于实现UnitMesh架构。于是,我们就继续开始UnitRuntime,以用于直接运行AI生成的代码。PS:...

挣脱臃肿的枷锁:为什么说Vert.x是Java开发者手中的一柄利剑?

如果你是一名Java开发者,那么你的职业生涯几乎无法避开Spring。它如同一位德高望重的老国王,统治着企业级应用开发的大片疆土。SpringBoot的约定大于配置、SpringCloud的微服务...

五年后,谷歌还在全力以赴发展 Kotlin

作者|FredericLardinois译者|Sambodhi策划|Tina自2017年谷歌I/O全球开发者大会上,谷歌首次宣布将Kotlin(JetBrains开发的Ja...

kotlin和java开发哪个好,优缺点对比

Kotlin和Java都是常见的编程语言,它们有各自的优缺点。Kotlin的优点:简洁:Kotlin程序相对于Java程序更简洁,可以减少代码量。安全:Kotlin在类型系统和空值安全...

移动端架构模式全景解析:从MVC到MVVM,如何选择最佳设计方案?

掌握不同架构模式的精髓,是构建可维护、可测试且高效移动应用的关键。在移动应用开发中,选择合适的软件架构模式对项目的可维护性、可测试性和团队协作效率至关重要。随着应用复杂度的增加,一个良好的架构能够帮助...

颜值非常高的XShell替代工具Termora,不一样的使用体验!

Termora是一款面向开发者和运维人员的跨平台SSH终端与文件管理工具,支持Windows、macOS及Linux系统,通过一体化界面简化远程服务器管理流程。其核心定位是解决多平台环境下远程连接、文...

预处理的底层原理和预处理编译运行异常的解决方案

若文章对您有帮助,欢迎关注程序员小迷。助您在编程路上越走越好![Mac-10.7.1LionIntel-based]Q:预处理到底干了什么事情?A:预处理,顾名思义,预先做的处理。源代码中...

为“架构”再建个模:如何用代码描述软件架构?

在架构治理平台ArchGuard中,为了实现对架构的治理,我们需要代码+模型描述所要处理的内容和数据。所以,在ArchGuard中,我们有了代码的模型、依赖的模型、变更的模型等,剩下的两个...

深度解析:Google Gemma 3n —— 移动优先的轻量多模态大模型

2025年6月,Google正式发布了Gemma3n,这是一款能够在2GB内存环境下运行的轻量级多模态大模型。它延续了Gemma家族的开源基因,同时在架构设计上大幅优化,目标是让...

比分网开发技术栈与功能详解_比分网有哪些

一、核心功能模块一个基本的比分网通常包含以下模块:首页/总览实时比分看板:滚动展示所有正在进行的比赛,包含比分、比赛时间、红黄牌等关键信息。热门赛事/焦点战:突出显示重要的、关注度高的比赛。赛事导航...

设计模式之-生成器_一键生成设计

一、【概念定义】——“分步构建复杂对象,隐藏创建细节”生成器模式(BuilderPattern):一种“分步构建型”创建型设计模式,它将一个复杂对象的构建与其表示分离,使得同样的构建过程可以创建...

构建第一个 Kotlin Android 应用_kotlin简介

第一步:安装AndroidStudio(推荐IDE)AndroidStudio是官方推荐的Android开发集成开发环境(IDE),内置对Kotlin的完整支持。1.下载And...