比ollama性能强大更全面的Xinference模型平台的详细安装步骤
liuian 2025-03-29 19:27 91 浏览
Xinference 是一个性能强大且功能全面的平台,旨在让您轻松运行和管理各种大型语言模型(LLMs)、嵌入模型(embedding models)和多模态模型(multimodal models)。它具有以下特点:
- 多模型支持: 支持各种开源 LLMs(如 LLaMA、Falcon、ChatGLM 等)、嵌入模型和多模态模型。
- 分布式部署: 可以在单机、多机甚至集群上部署,实现高可用性和可扩展性。
- 易于使用: 提供了简单的命令行界面(CLI)和 Web UI,方便您管理和使用模型。
- 内置优化: 包含了多种模型推理优化技术,如 GGML、GPTQ 等,提高推理速度。
- 兼容 OpenAI API: 提供了与 OpenAI API 兼容的接口,方便您将现有应用迁移到 Xinference。
部署步骤
- 安装 Python 环境 (建议使用 conda)
- 由于 Xinference 是 Python 项目,您需要先安装 Python 环境。强烈建议使用 conda 来管理 Python 环境,避免潜在的依赖冲突。
- 安装 Miniconda 或 Anaconda:
- Miniconda: https://docs.conda.io/en/latest/miniconda.html
- Anaconda: https://www.anaconda.com/products/distribution
- 下载对应 macOS (Apple Silicon) 的安装包,按照提示安装。安装完成后,打开终端,输入 conda --version,如果能看到版本号,则表示安装成功。
- 创建 conda 环境:
- conda create -n xinference python=3.10 # 建议使用 Python 3.10 conda activate xinference
- content_copydownload
- Use code with caution.Bash
- 安装 Xinference
- 有两种安装方式:
- 方式一:使用 pip 安装 (推荐)
- pip install "xinference[all]" # 安装所有依赖,包括 Web UI 和各种加速库
- content_copydownload
- Use code with caution.Bash
- 如果网络不好, 使用国内源
- pip install "xinference[all]" -i https://pypi.tuna.tsinghua.edu.cn/simple
- content_copydownload
- Use code with caution.Bash
- 方式二:从源码安装 (适合开发者)
- git clone https://github.com/xorbitsai/inference.git cd inference pip install -e ".[all]"
- content_copydownload
- Use code with caution.Bash
- 如果网络不好, 使用国内源
- pip install -e ".[all]" -i https://pypi.tuna.tsinghua.edu.cn/simple
- content_copydownload
- Use code with caution.Bash
- 启动 Xinference 服务
- 本地单机模式启动:
- xinference-local
- content_copydownload
- Use code with caution.Bash
- 这将启动一个本地 Xinference 服务,监听默认端口 9997。您可以通过浏览器访问 http://localhost:9997 来查看 Web UI。
- 部署和使用模型
- Xinference Web UI 提供了图形化界面,方便您部署和管理模型。您也可以使用命令行工具。
- Web UI 方式:
- 打开浏览器,访问 http://localhost:9997。
- 点击 "Launch Model" 按钮。
- 选择您想要部署的模型(例如,chatglm3-6b)。
- 填写模型相关参数(例如,模型路径、量化方式等)。如果模型不在本地, xinference将自动下载模型。
- 点击 "Launch" 按钮,等待模型加载完成。
- 模型加载完成后,您可以在 "Chat with Model" 页面与模型进行交互。
- 命令行方式:
- 启动一个模型:
以chatglm3-6b为例, 内置支持的模型不需要指定模型路径 - xinference launch --model-name chatglm3 --model-format pytorch --model-size-in-billions 6
- content_copydownload
- Use code with caution.Bash
- 如果需要指定模型路径
- xinference launch --model-name chatglm3 --model-format pytorch --model-size-in-billions 6 --model-path /path/to/your/chatglm3-6b
- content_copydownload
- Use code with caution.Bash
- 查看已启动的模型:
- xinference list
- content_copydownload
- Use code with caution.Bash
- 与模型交互(使用 curl 或 Python):
获取模型的endpoint和model_uid - $ xinference list +--------------------------------------+-----------------------------------------------------------------------+------------+ | model_uid | endpoint | model_name | +--------------------------------------+-----------------------------------------------------------------------+------------+ | 82e9895b6e474cb9b39987c47ab27439 | http://localhost:9997/v1/models/82e9895b6e474cb9b39987c47ab27439 | chatglm3 | +--------------------------------------+-----------------------------------------------------------------------+------------+
- content_copydownload
- Use code with caution.Bash
- 使用 curl:
- curl -X POST \ -H "Content-Type: application/json" \ -d '{ "prompt": "你好", "model": "chatglm3" }' \ http://localhost:9997/v1/chat/completions
- content_copydownload
- Use code with caution.Bash
- 使用 Python (OpenAI 客户端):
- from openai import OpenAI client = OpenAI( base_url="http://localhost:9997/v1", # 替换为您的 Xinference endpoint api_key="EMPTY", # Xinference 不需要 API key ) completion = client.chat.completions.create( model="82e9895b6e474cb9b39987c47ab27439", # 替换为您的 model_uid messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好!"} ] ) print(completion.choices[0].message)
- content_copydownload
- Use code with caution.Python
注意事项
- 模型下载: 首次部署模型时,Xinference 会自动下载模型文件。请确保您的网络连接良好,并有足够的存储空间。
- 硬件要求: 运行 LLMs 对硬件有一定的要求,特别是 GPU 内存。如果您的 GPU 内存不足,可以尝试使用量化后的模型(如 GPTQ 格式)或较小的模型。
- 模型路径: 命令行启动模型时,如果模型不在 xinference 的内置模型列表中,您需要指定 --model-path 为您的本地模型路径。
- 端口冲突: 如果默认端口 9997 被占用,您可以使用 --host 和 --port 参数指定其他主机和端口。
进阶使用
- 分布式部署: Xinference 支持分布式部署,可以参考官方文档了解更多信息:https://inference.readthedocs.io/en/latest/guides/distributed_deployment.html
- 自定义模型: 您可以部署自己训练的模型,具体方法请参考官方文档:https://inference.readthedocs.io/en/latest/guides/register_custom_model.html
- 模型加速: Xinference 支持多种模型加速技术,如 GGML、GPTQ 等,可以根据您的硬件和模型选择合适的加速方式。
希望这个详细的教程能帮助您在电脑上成功部署 Xinference!如果您在部署过程中遇到任何问题,欢迎随时提问。
相关推荐
- win10刻录光盘的方法和步骤(win10系统怎么刻录光盘)
-
1.打开Windows10中的“文件资源管理器”,找到要刻录的文件或文件夹。2.选中文件/文件夹,右键单击选中“发送到-->DVDRW驱动器”。3.确认要刻录的光盘的名称和格式(默...
- 惠普笔记本电脑官网驱动下载
-
HP惠普打印机驱动官网是存在的。因为HP惠普是一家著名的电脑及相关产品制造商,他们会提供各种驱动程序和软件以保证设备的兼容性和稳定性。HP惠普打印机驱动官网可以通过搜索引擎查找,也可以通过HP惠普的官...
- 2025win7专业版激活密钥(2020win7专业版永久激活码)
-
cad序列号和密钥是111-111111,可以通用的,但激活码则需要通过CAD2014注册机对申请号的换算才能得出结果,当然结果有很多,用户可以不断的Generate一个。cad序列号和密钥是111-...
- window7下载itunes什么版本(window7怎么下载itunes)
-
出现此问题一般是因为itunes没有正确安装,可以参考如下解决方法:1.请查看本机电脑数位,计算机---右键---属性---看是32的还是64的;2.官网下载数位对应的iTunes;3...
- u盘什么牌子的好(大容量的u盘什么牌子好)
-
十大耐用云U盘排行分别是:第一名闪迪第二名雷克沙第三名金士顿第四名三星第五名美商海盗船第六名东芝第七名惠普第八名威刚第九名台电第十名朗科。十大耐用云U盘排行分别是:第一名闪迪第二名雷克沙第三名金士顿第...
- 英文翻译器下载(英文翻译器软件下载)
-
APK(全称:Androidapplicationpackage,Android应用程序包)是Android操作系统使用的一种应用程序包文件格式,用于分发和安装移动应用及中间件。一个Android...
- oppo主题包下载(oppoi主题下载)
-
opporeno5壁纸可以选择主题商店下载。1、打开手机设置,点击【个性化定制】,选择壁纸。2、可以选择本地相册、静态壁纸、动态壁纸、ART+,还可以选择主题商店。3、选择自己喜欢的壁纸,点击设置即...
- 硬盘开盘恢复数据(硬盘开盘恢复数据怎样收费)
-
硬盘因为某些原因损坏,比如磁头损坏,用于驱动磁臂移动的电机烧毁等故障,可以通过打开硬盘盘体,更换相应的部件来维修的办法,以便进行数据恢复工作,这也就是一般所说的“开盘”。 开盘维修必须在无尘环境...
- 微软surface平板(微软surface平板电脑的降温散热是由风扇进行的吗)
-
可以。包括微软Surface平板电脑在内的一系列Windows平板,它们搭载的系统都是与电脑完全相同的Windows系统,其界面和操作方式都与电脑无异,并且全面支持电脑EXE应用程序,比如功能完整的O...
- 怎样恢复电脑删除的文件(怎样恢复电脑删除的文件记录)
-
文件误删了之后,先停止对电脑上其他文件的操作,然后判断该文件删除方式,如果是普通删除的文件可以打开回收站进行查看,之后进行还原的操作,如果是永久删除的文件,那可以借助到专业的数据恢复软件来进行恢复操作...
- win7纯净原版(win7旗舰纯净原版)
-
windows7ghost纯净版特色:1、专业为电脑制作,定制版系统使笔记本电脑运行更加可靠。2、安装盘经过多名电脑安装人员测试,稳定性和兼容性非常好。3、通过多台不同硬件型号的计算机测试,没有蓝屏,...
- 电脑摄像头驱动器怎么安装(电脑摄像头的驱动程序)
-
摄像头驱动的安装方法:首先,先取出摄像头,然后将USB端口插入电脑的端口中。当然,如果是需要长时间使用,建议将其插入后面板上。其次,初次使用摄像头时,系统可能会搜索驱动程序进行安装。那些免驱动的都可以...
- win10虚拟机装win7(win10虚拟机怎么装win7)
-
WIN7系统下是可以安装Win10虚拟机,用户可以按照以下方法安装:1、网上搜索下载安装360软件管家;2、在搜索栏里输入VM,然后在VMwareWorkstation旁点下载,系统会自动安装;3、安...
- 一周热门
-
-
飞牛OS入门安装遇到问题,如何解决?
-
如何在 iPhone 和 Android 上恢复已删除的抖音消息
-
Boost高性能并发无锁队列指南:boost::lockfree::queue
-
大模型手册: 保姆级用CherryStudio知识库
-
用什么工具在Win中查看8G大的log文件?
-
如何在 Windows 10 或 11 上通过命令行安装 Node.js 和 NPM
-
威联通NAS安装阿里云盘WebDAV服务并添加到Infuse
-
Trae IDE 如何与 GitHub 无缝对接?
-
idea插件之maven search(工欲善其事,必先利其器)
-
如何修改图片拍摄日期?快速修改图片拍摄日期的6种方法
-
- 最近发表
- 标签列表
-
- python判断字典是否为空 (50)
- crontab每周一执行 (48)
- aes和des区别 (43)
- bash脚本和shell脚本的区别 (35)
- canvas库 (33)
- dataframe筛选满足条件的行 (35)
- gitlab日志 (33)
- lua xpcall (36)
- blob转json (33)
- python判断是否在列表中 (34)
- python html转pdf (36)
- 安装指定版本npm (37)
- idea搜索jar包内容 (33)
- css鼠标悬停出现隐藏的文字 (34)
- linux nacos启动命令 (33)
- gitlab 日志 (36)
- adb pull (37)
- python判断元素在不在列表里 (34)
- python 字典删除元素 (34)
- vscode切换git分支 (35)
- python bytes转16进制 (35)
- grep前后几行 (34)
- hashmap转list (35)
- c++ 字符串查找 (35)
- mysql刷新权限 (34)
