当前位置: 首页 > news >正文

DeepSeek05-大模型WebUI

一、说明:

将DeepSeek部署到前台Web界面的方法主要有以下几种推荐方案,涵盖开源工具、第三方客户端及特定场景适配方案:

  • Open WebUI
  • Chatbox AI
  • Cherry Studio
  • SillyTavern

二、Open WebUI 安装配置教程

  • 特点:Open WebUI 是一个开源的、轻量化的 Web 界面,支持类似 ChatGPT 的交互体验。支持对话管理。

(一)Open WebUI(基于Docker部署)

  • 适用场景:需要快速搭建本地Web界面,且偏好Docker容器化管理的用户。
A. 环境准备
  • 操作系统:支持 Linux、Windows(WSL2)、macOS。
  • Docker:确保已安装 Docker 并正常运行。
    • 安装 Docker:官方安装指南
    • 验证 Docker 是否安装成功:
      docker --version
      
B. 安装 Open WebUI
  1. 拉取 Open WebUI 镜像并启动容器:

    docker run -d -p 3000:8080 \--add-host=host.docker.internal:host-gateway \-v open-webui:/app/backend/data \--name open-webui \--restart always \ghcr.io/open-webui/open-webui:main
    
    • -p 3000:8080:将容器内的 8080 端口映射到本地的 3000 端口。
    • -v open-webui:/app/backend/data:将数据持久化到 Docker 卷中。
    • --restart always:确保容器在系统重启后自动启动。
  2. 检查容器是否正常运行:

    docker ps
    

    如果看到 open-webui 容器状态为 Up,说明安装成功。


C. 访问 Open WebUI
  1. 打开浏览器,访问以下地址:
    http://localhost:3000
  2. 首次访问时,会提示创建管理员账户:
  • 输入邮箱和密码,完成注册。
  • 登录后即可进入 Open WebUI 主界面。

D. 配置模型(以 Ollama 为例)

Open WebUI 支持与 Ollama 集成,调用本地模型(如 DeepSeek)。

  1. 安装 Ollama
  • 下载并安装 Ollama:Ollama 官方安装指南。
  • 验证 Ollama 是否安装成功:
    ollama --version
    
  1. 加载模型
  • 下载 DeepSeek 模型(如 deepseek-r1:7b):
    ollama pull deepseek-r1:7b
    
  • 启动 Ollama 服务:
    ollama serve
    
  1. 在 Open WebUI 中配置 Ollama
  • 进入 Open WebUI 设置页面。
  • Model 选项卡中,填写 Ollama 的 API 地址(默认 http://localhost:11434)。
  • 选择已加载的模型(如 deepseek-r1:7b)。

E. 使用 Open WebUI
  • 对话功能:在聊天界面中输入问题,模型会实时响应。
  • 对话管理:支持保存、删除和导出对话记录。
  • 多模型切换:在设置中切换不同的模型(需提前加载)。

F. 常见问题
  1. 端口冲突
  • 如果 3000 端口被占用,可以修改 -p 参数,例如:
    docker run -d -p 5000:8080 ...
    
    然后访问 http://localhost:5000
  1. 数据备份
  • 数据存储在 Docker 卷中,备份路径为 /var/lib/docker/volumes/open-webui
  1. 性能优化
  • 如果模型响应慢,可以尝试升级硬件(如 GPU)或使用量化模型。

G. 参考链接
  • Open WebUI GitHub 仓库
  • Ollama 官方文档
  • Docker 官方文档

(二)Open WebUI(基于Docker部署)

以下是 Open WebUI 不使用 Docker 的本地安装部署教程,
适用于 Windows/Linux/macOS 系统。

A、环境准备
  1. 系统要求

    • 操作系统:Windows 10 及以上(需支持 WSL2)、Linux(推荐 Ubuntu 20.04+)、macOS。
    • 硬件配置:建议 16GB 内存,10 核 CPU(最低要求 8GB 内存)。
    • 依赖工具:需安装 Node.js(v16+)、Python 3.11、Git、包管理工具(如 npm、pip)。
  2. 安装 Ollama(模型运行环境):

    • 下载 Ollama 安装包:官网地址,按提示安装。
    • 验证安装:终端输入 ollama --version,显示版本即成功。
    • 配置模型路径(可选):
      # 修改默认模型存储路径(避免占用 C 盘)
      setx OLLAMA_MODELS "D:\ollama_models"  # Windows
      export OLLAMA_MODELS="/opt/ollama_models"  # Linux/macOS
      

B、安装 Open WebUI
步骤 1:克隆源码与配置环境
  1. 克隆 Open WebUI 仓库:
    git clone https://github.com/open-webui/open-webui.git
    cd open-webui
    
  2. 配置环境文件
    cp .env.example .env  # 复制示例环境文件
    
    修改 .env 中的 OLLAMA_API_BASE_URL,确保指向本地 Ollama 服务地址(默认 http://localhost:11434)。
步骤 2:构建前端
  1. 安装 Node.js 依赖并构建:
    npm install
    npm run build
    
    • 常见问题
      • Node 版本冲突:使用 nvm 管理 Node 版本(推荐 v18+)。
      • 构建失败:尝试清理缓存 npm cache clean --force 或升级 npm 版本。
步骤 3:配置后端
  1. 进入后端目录并安装 Python 依赖:
    cd backend
    pip install -r requirements.txt -U  # 使用国内镜像加速:-i https://pypi.tuna.tsinghua.edu.cn/simple
    
    • 虚拟环境推荐:使用 Conda 或 venv 隔离 Python 环境(避免依赖冲突):
      conda create -n openwebui python=3.11
      conda activate openwebui
      

C、启动 Open WebUI
  1. 启动服务

    • Windows:运行 start_windows.bat(需在 Conda 虚拟环境中执行)。
    • Linux/macOS:执行以下命令:
      cd backend
      python main.py  # 或通过脚本启动(如 start.sh)
      
    • 默认端口:前端访问地址为 http://localhost:8080
  2. 首次使用

    • 注册管理员账号(邮箱可随意填写,如 admin@example.com)。
    • 在设置中配置 Ollama 的 API 地址,选择已下载的模型(如 llama3deepseek-r1:7b)。

D、常见问题解决
  1. 依赖安装失败

    • 权限问题:使用 sudo(Linux/macOS)或管理员权限终端(Windows)。
    • pip 缓存路径冲突:修改 pip 缓存目录(避免占用系统盘):
      pip config set global.cache-dir "D:\pip_cache"  # Windows
      export PIP_CACHE_DIR="/opt/pip_cache"  # Linux/macOS
      
  2. Open WebUI 无法连接 Ollama

    • 检查 Ollama 服务是否运行:终端输入 ollama serve
    • 确保 .env 中的 OLLAMA_API_BASE_URL 与 Ollama 服务端口一致。
  3. 前端访问缓慢

    • 使用轻量级替代方案 ollama-webui-lite(仅需 Node.js):
      git clone https://github.com/ollama-webui/ollama-webui-lite.git
      cd ollama-webui-lite
      npm install
      npm run dev  # 访问 http://localhost:3000
      

E、进阶配置
  1. 离线部署

    • 提前下载模型文件(如 llama3:8b)并复制到 OLLAMA_MODELS 目录。
    • 在无网络环境中启动 Ollama 服务,Open WebUI 通过本地 API 调用模型。
  2. 多模型管理

    • 通过 Open WebUI 界面添加自定义模型(支持 OpenAI 兼容 API)。
    • 示例配置(兼容 DeepSeek、Kimi 等):
      model_list:- model_name: deepseek-r1litellm_params:model: deepseek-r1:7bapi_base: http://localhost:11434
      

F、参考链接
  • Open WebUI GitHub 仓库
  • Ollama 官方文档

三、Chatbox AI(Ollama + 图形化客户端)

以下是 Chatbox AI 的详细安装与配置教程,支持本地模型(如 DeepSeek)和云端 API 接入:

  • 特点:免费、图形化界面友好,支持多模型接入(包括本地Ollama服务)。
  • 优势:无需复杂配置,适合非技术用户,支持自定义提示词和对话历史管理。

(一)、环境准备

  1. 系统要求

    • 操作系统:Windows 10+/Linux/macOS(支持 M1/M2 芯片)。
    • 硬件配置:至少 8GB 内存(推荐 16GB),无需独立 GPU。
    • 依赖工具:Ollama(本地模型运行)、Node.js(可选,仅需开发版本)。
  2. 安装 Ollama(本地模型支持):

    • 下载并安装 Ollama:官方安装包。
    • 验证安装:
      ollama --version
      
    • 下载模型(如 DeepSeek):
      ollama pull deepseek-r1:7b
      

(二)、安装 Chatbox AI

方法 A:直接下载客户端(推荐)
  1. 下载客户端

    • 访问 Chatbox 官网 或 GitHub Releases 页面。
    • 选择对应操作系统的安装包(Windows:.exe,macOS:.dmg,Linux:.AppImage)。
  2. 安装并启动

    • 双击安装包,按提示完成安装。
    • 首次启动时选择语言(支持中文)。
方法 B:源码编译(开发者适用)
  1. 克隆仓库并安装依赖:
    git clone https://github.com/Bin-Huang/chatbox.git
    cd chatbox
    npm install
    
  2. 启动开发模式:
    npm run dev
    

(三)、配置本地模型(Ollama)

  1. 启动 Ollama 服务

    • 确保 Ollama 服务在后台运行:
      ollama serve  # 默认端口 11434
      
    • 验证服务状态:访问 http://localhost:11434,返回 Ollama is running 即成功。
  2. 在 Chatbox 中添加本地模型

    • 打开 Chatbox,进入 设置 > 模型管理
    • 点击 添加模型,填写以下信息:
      名称: DeepSeek-R1-7B
      模型类型: Ollama
      API 地址: http://localhost:11434
      模型名称: deepseek-r1:7b
      
    • 保存后即可在聊天界面选择该模型。

(四)、配置云端 API(可选)

  1. 支持平台

    • OpenAI、DeepSeek-API、Google Gemini 等。
    • 以 DeepSeek 为例:
      名称: DeepSeek-API
      模型类型: OpenAI-Compatible
      API 地址: https://api.deepseek.com/v1
      API Key: sk-xxxxxxxxxxxxxxxx  # 替换为实际 Key
      模型名称: deepseek-r1
      
  2. 切换模型

    • 在聊天界面左上角选择已配置的模型。

(五)、高级功能

  1. 对话管理

    • 支持对话历史导出(Markdown/JSON 格式)。
    • 快捷键:Ctrl+S 保存对话,Ctrl+E 导出。
  2. 自定义提示词

    • 内置模板库,或手动编写 System Prompt:
      你是一个 DeepSeek 助手,回答需简洁专业,避免冗余描述。
      
  3. 多会话并行

    • 点击界面左侧 + 号创建新会话,独立管理不同场景对话。

(六)、常见问题解决

  1. 无法连接 Ollama

    • 检查 Ollama 服务是否运行:ps aux | grep ollama(Linux/macOS)。
    • 确保防火墙开放 11434 端口。
  2. 模型响应缓慢

    • 降低参数设置:在模型配置中减少 max_tokens(如 512)。
    • 使用量化模型版本(如 deepseek-r1:7b-q4)。
  3. 客户端崩溃

    • 清除缓存:删除 ~/.config/Chatbox 目录(Linux/macOS)或 %AppData%/Chatbox(Windows)。
    • 重新安装客户端。

(七)参考链接

  • Chatbox GitHub 仓库
  • Ollama 模型库
  • DeepSeek 官方文档

四、Cherry Studio(多模型集成客户端)

  • 说明: 以下是 Cherry Studio 的详细安装与配置教程,支持多模型集成(如 DeepSeek)及高级 AI 功能:
  • 特点:功能全面,内置提示词库、文生图、文档处理等高级功能。
  • 概述部署步骤
    1. 安装Ollama并加载DeepSeek模型。
    2. 在Cherry Studio中添加Ollama服务,填写模型名称(如 deepseek-r1:1.5b)。
    3. 通过客户端界面直接调用模型。
  • 适用场景:需要结合多种AI功能(如文本生成、图像创作)的用户。

(一)、环境准备

  1. 系统要求

    • 操作系统:Windows 10+/Linux(Ubuntu 20.04+)/macOS(M1/M2 兼容)。
    • 硬件配置:推荐 16GB 内存,支持 CPU/GPU 运行(NVIDIA 显卡需安装 CUDA 11.8+)。
    • 依赖工具:Python 3.10+、Node.js v18+、Ollama(本地模型服务)。
  2. 安装 Ollama(本地模型支持):

    • 下载并安装 Ollama:官方安装包。
    • 验证服务运行:
      ollama serve  # 默认端口 11434
      
    • 下载 DeepSeek 模型:
      ollama pull deepseek-r1:7b
      

(二)、安装 Cherry Studio

方法 1:Docker 快速部署(推荐)
  1. 拉取镜像并启动容器:
    docker run -d -p 8080:8080 \-v cherry-studio-data:/app/data \--name cherry-studio \--restart always \ghcr.io/cherry-ai/cherry-studio:latest
    
    • 访问地址:http://localhost:8080
方法 2:源码安装(开发者适用)
  1. 克隆仓库并安装依赖:
    git clone https://github.com/cherry-ai/cherry-studio.git
    cd cherry-studio
    pip install -r requirements.txt
    
  2. 启动服务:
    python main.py  # 默认端口 8080
    

(三)、配置本地模型(Ollama)

  1. 添加 Ollama 服务

    • 进入 Cherry Studio 控制台,点击 模型管理 > 添加服务
    • 填写配置信息:
      服务类型: Ollama
      服务名称: DeepSeek-Local
      API 地址: http://localhost:11434
      模型名称: deepseek-r1:7b
      
  2. 测试模型连接

    • 模型测试 页面输入提示词(如 “你好”),查看响应是否正常。

(四)、配置云端 API

  1. 支持平台

    • DeepSeek API、OpenAI、Google Gemini 等。
    • 以 DeepSeek 为例:
      服务类型: DeepSeek
      服务名称: DeepSeek-Cloud
      API Key: sk-xxxxxxxxxxxxxxxx  # 替换为实际 Key
      模型名称: deepseek-r1
      
  2. 切换模型

    • 在对话界面左上角选择已配置的模型。

(五)、高级功能

  1. 提示词模板库

    • 使用预置模板(如代码生成、文案润色)或自定义模板:
      [角色设定]
      你是一名资深程序员,用 Python 解答问题,代码需包含详细注释。
      
  2. 文档处理

    • 上传 PDF/TXT 文件,通过对话界面提问实现内容解析。
    • 支持多文档并行分析。
  3. 图像生成

    • 集成 Stable Diffusion,在 创作 页面输入提示词生成图片。
    • 配置 SD 服务地址(需额外部署)。

(六)、常见问题解决

  1. Ollama 模型加载失败

    • 检查模型名称是否与 Ollama 本地库一致(区分大小写)。
    • 重启 Ollama 服务:ollama restart
  2. 服务端口冲突

    • 修改 Cherry Studio 启动端口:
      docker run -d -p 5000:8080 ...  # Docker 方式
      python main.py --port 5000     # 源码方式
      
  3. GPU 加速未生效

    • 确认 CUDA 版本与 PyTorch 匹配:
      nvidia-smi  # 查看 GPU 状态
      pip install torch==2.0.1+cu118  # 指定 CUDA 版本
      

(七)参考链接

  • Cherry Studio GitHub 仓库
  • Ollama 模型库
  • DeepSeek API 文档

五、Koboldcpp + SillyTavern(角色扮演专用前端)

  • 说明:以下是 SillyTavern 的详细安装与配置教程,支持本地模型集成与角色扮演功能,
    适用于 Windows/Linux/macOS 系统:
  • 特点:支持角色卡加载、语音合成、互动代码嵌入,适合深度定制化需求。
  • 部署步骤
    1. 下载GGUF格式的DeepSeek蒸馏模型(如 DeepSeek-R1-Distil-Qwen-7B)。
    2. 使用Koboldcpp加载模型并启动本地服务。
    3. 通过SillyTavern配置角色设定和世界观,实现沉浸式对话。
  • 优势:适合二次元、文学创作等场景,支持破限功能(如绕过部分模型限制)。

(一)、环境准备

  1. 系统要求

    • 操作系统:Windows 10+/Linux(Ubuntu 20.04+)/macOS(M1/M2 兼容)。
    • 依赖工具
      • Node.js v18+:需安装 LTS 版本。
      • Git:用于克隆仓库。
      • Python 3.10+(可选,部分扩展功能需要)。
  2. 安装 Node.js

    • Windows:从 Node.js 官网 下载安装包并运行。
    • Linux:使用包管理器安装(如 Ubuntu:sudo apt install nodejs npm)。
    • 验证安装:
      node --version  # 应显示 v18+
      

(二)、安装 SillyTavern

方法 1:通过 Git 克隆(推荐)
  1. 克隆仓库至本地:
    git clone https://github.com/SillyTavern/SillyTavern.git
    cd SillyTavern
    
  2. 安装依赖
    • Windows:双击运行 Start.bat,自动安装依赖并启动服务。
    • Linux/macOS:执行启动脚本:
      bash start.sh  # 或通过命令行手动安装:npm install
      
方法 2:ZIP 文件安装
  1. 从 GitHub Releases 下载压缩包并解压。
  2. 运行 Start.bat(Windows)或 start.sh(Linux/macOS)。

(三)、基本配置

  1. 修改配置文件

    • 打开 config.yaml,将 listen 地址改为 0.0.0.0/0 以允许外部访问:
      server:listen: 0.0.0.0/0port: 8000
      
    • 解决端口冲突:修改 port 值为非特权端口(如 8080)。
  2. 启动服务

    npm start  # 或运行 start.sh/start.bat
    
    • 访问地址:http://localhost:8000(默认端口)。

(四)、连接后端模型

1. 连接 Ollama(本地模型)
  1. 启动 Ollama 服务:
    ollama serve  # 默认端口 11434
    
  2. 在 SillyTavern 界面配置:
    • 进入 设置 > API 连接,选择 Ollama
    • 输入 API 地址 http://localhost:11434,选择已下载的模型(如 deepseek-r1:7b)。
2. 连接 Koboldcpp(本地大模型)
  1. 下载并启动 Koboldcpp:
    git clone https://github.com/LostRuins/koboldcpp.git
    cd koboldcpp
    python3 koboldcpp.py --model [模型路径].gguf
    
  2. 在 SillyTavern 中配置 API 地址为 http://localhost:5001

(五)、高级功能配置

1. 文字转语音(TTS)
  1. 部署 GPT-SoVITS 服务:
    git clone https://github.com/RVC-Boss/GPT-SoVITS.git
    pip install -r requirements.txt
    python app.py --port 9880
    
  2. 在 SillyTavern 中设置 TTS 地址为 http://localhost:9880
2. 群聊与角色扮演
  1. 导入角色卡(支持 .webp.png 格式)。
  2. 启用 群聊模式:创建多机器人房间,配置角色互动规则。

(六)、常见问题解决

  1. 无法访问服务

    • 检查防火墙是否开放端口(如 8000)。
    • 确保配置文件中的 listen 地址为 0.0.0.0/0
  2. 依赖安装失败

    • 使用国内镜像加速:
      npm config set registry https://registry.npmmirror.com
      
  3. 模型响应缓慢

    • 降低生成参数(如 max_tokens)或使用量化模型。

(七)、参考链接

  • SillyTavern GitHub 仓库
  • Ollama 模型库
  • Koboldcpp 部署指南

按此教程操作,即可快速部署 SillyTavern 并实现多模型交互与角色扮演功能。如有其他问题,可查阅官方文档或社区资源。


六、ChatGPT-Next-Web

(一) 前置条件

  1. 准备材料
    • OpenAI API Key:从 OpenAI 官网 获取
    • Node.js v18+:前往 Node.js 官网 安装
    • Git 客户端:用于克隆仓库

(二) 安装步骤

# 1. 克隆项目仓库
git clone https://github.com/Yidadaa/ChatGPT-Next-Web.git
cd ChatGPT-Next-Web# 2. 安装依赖(国内用户可切换镜像)
npm config set registry https://registry.npmmirror.com
npm install# 3. 配置环境变量
新建 .env.local 文件并添加:
OPENAI_API_KEY=sk-xxxxxx(你的API密钥)
CODE=访问密码(可选)# 4. 启动项目
npm run dev
  • 默认访问地址:http://localhost:3000

(三) 快速部署方案

方案一:Vercel 一键部署
1. 访问 GitHub 仓库点击 Fork
2. 在 Vercel 导入仓库时配置环境变量:- OPENAI_API_KEY- CODE(访问密码)
3. 点击 Deploy 完成部署
方案二:Docker 部署
docker run -d \\-p 3000:3000 \\-e OPENAI_API_KEY="sk-xxxxxx" \\-e CODE="your_password" \\yidadaa/chatgpt-next-web

(四) 高级配置

  1. 自定义模型
    修改 .env.local 文件添加:
    CUSTOM_MODELS=+gpt-4,-gpt-3.5-turbo

  2. HTTPS 支持

    • 通过 Nginx 配置 SSL 证书
    • 反向代理到本地 3000 端口
  3. 多语言切换
    在界面右下角设置中选择中文/英文


(五) 常见问题

  • API 连接失败
    检查 OPENAI_API_KEY 是否有效,或配置代理地址:
    BASE_URL=https://api.openai-proxy.com/v1

  • 端口冲突
    启动时指定新端口:
    PORT=8080 npm run dev

  • 国内部署加速
    使用 CDN 镜像:
    npm config set registry https://registry.npmmirror.com

(六)

应用场景
  1. 企业内部协作与共享
  • 通过部署私有化服务,企业可为员工提供统一的 AI 工具,支持多种模型(如 GPT-3.5、GPT-4)的快速切换,满足不同岗位需求(如文案生成、代码辅助、数据分析)。

  • 结合 API 密钥管理,可控制使用权限和成本,避免资源滥用。

  1. 教育领域辅助学习
  • 支持学生和教师进行多语言翻译、论文润色、编程问题解答等,内置的预制角色(如“学术助手”)可快速适配学习场景。

  • 提供流式响应和上下文压缩功能,适合长对话学习场景。

  1. 商业变现与客户服务
  • 通过搭建付费 GPT 网站,向用户提供按需服务(如问答、内容生成),并销售 API 密钥或订阅服务,形成商业模式。

  • 支持多语言界面和本地化部署,适合跨境客户服务或全球化业务。

  1. 个人开发者与创作者工具
  • 提供轻量级客户端(约 5MB),支持跨平台使用,适合个人开发者快速集成 AI 能力到本地应用中。

  • 创作者可利用其 Markdown 渲染和角色定制功能,生成结构化内容(如技术文档、小说大纲)。

  1. 多语言支持与全球化应用
  • 支持 11 种语言界面,结合多语言模型(如 Gemini Pro),可服务于跨境电商翻译、多语言客服等场景。
优点
  1. 部署便捷与低成本
  • 支持 Vercel 一键部署或 Docker 快速安装,无需服务器资源,适合技术新手。

  • 通过绑定域名和 CDN 加速,国内访问稳定性高,部署成本近乎为零。

  1. 交互体验优化
  • 界面设计简洁美观,响应速度快(首屏加载约 100KB),支持深色模式和 PWA 离线使用。

  • 流式响应与上下文自动压缩技术,提升长对话流畅度。

  1. 功能多样性与可扩展性
  • 支持多模型切换(GPT-3.5/4、Gemini)、API 代理配置和自定义角色模板,灵活适配不同需求。

  • 开源特性允许开发者二次开发,例如修改界面文字、集成私有模型。

  1. 隐私与数据安全
  • 数据默认存储在用户本地浏览器,避免云端泄露风险。
缺点
  1. 依赖外部 API 与模型限制
  • 需依赖 OpenAI 或其他第三方 API,若服务不稳定或区域受限,可能影响使用体验。

  • 模型本身的“幻觉问题”(生成虚假信息)和实时数据缺失,导致回答可能不准确。

  1. 配置复杂度
  • 高级功能(如多语言模型集成、HTTPS 反向代理)需要一定的技术背景,普通用户可能难以独立完成。
  1. 功能局限性
  • 缺乏原生图片识别、文件上传等扩展功能,需依赖外部插件或二次开发。

  • 模型推理速度受 API 性能限制,高并发场景下可能延迟较高。

  1. 安全风险
  • 若未设置访问密码(CODE 参数),公网部署可能导致 API 密钥被滥用。
总结
  • ChatGPT-Next-Web 凭借其低成本部署、优雅的交互设计和高度可定制性,成为企业和个人快速搭建私有化 AI 服务的优选工具。
    然而,其依赖外部 API 的局限性及模型本身的缺陷(如幻觉问题),仍需结合具体场景权衡使用。未来,随着多模态模型和本地化推理技术的进步,
    此类工具的应用潜力将进一步释放

七、第三方API客户端(无GPU替代方案)

  • 适用场景:本地硬件不足时,通过第三方API服务调用DeepSeek。
  • 推荐平台
    • 硅基流动:提供免费额度,注册后获取API Key,配置到Cherry Studio等客户端。
    • 其他免费API:部分平台提供短期免费服务,但需注意时效性和稳定性。
  • 注意事项:依赖网络,响应速度和功能可能弱于本地部署。

八、选择建议

综合引用

  • 优先本地部署:若硬件达标(如NVIDIA显卡+显存≥6GB),推荐 Open WebUIChatbox AI,兼顾易用性与隐私安全。
  • 角色扮演/创意场景:选择 Koboldcpp + SillyTavern,扩展性强。
  • 轻量级/无GPU用户:使用 第三方API客户端,但需关注成本与网络稳定性。

对比

工具名称优点缺点使用场景
OpenWebUI- 开源且免费
- 支持多种模型(如GPT、Llama等)
- 高度可定制化
- 需要一定的技术背景进行配置
- 依赖外部模型服务(如Ollama)
- 开发者或技术爱好者
- 需要高度定制化界面的用户
ChatboxAI- 界面简洁易用
- 支持多平台(Windows、macOS、Linux)
- 免费
- 功能相对基础
- 不支持高级定制化
- 普通用户或初学者
- 需要快速上手的聊天工具
CherryStudio- 提供丰富的API支持
- 支持多模型集成
- 商业支持
- 需要付费订阅
- 配置复杂,适合企业用户
- 企业级应用
- 需要集成多种AI模型的场景
SillyTavern- 专注于角色扮演和娱乐场景
- 社区活跃,插件丰富
- 免费开源
- 功能单一,不适合严肃场景
- 需要一定的技术背景进行配置
- 角色扮演爱好者
- 娱乐和创意写作场景

总结

  • Open WebUI : 适合技术背景较强的用户,尤其是需要高度定制化的场景。

  • Chatbox AI 适合普通用户,尤其是需要快速上手的简单聊天工具。

  • Cherry Studio 适合企业用户,尤其是需要多模型集成和商业支持的场景。

  • SillyTavern 适合角色扮演和娱乐场景,尤其是社区驱动的创意应用。

© 著作权归作者所有

相关文章:

DeepSeek05-大模型WebUI

一、说明: 将DeepSeek部署到前台Web界面的方法主要有以下几种推荐方案,涵盖开源工具、第三方客户端及特定场景适配方案: Open WebUIChatbox AICherry StudioSillyTavern 二、Open WebUI 安装配置教程 特点:Open WebUI 是一个开…...

自然语言处理NLP入门 -- 第八节OpenAI GPT 在 NLP 任务中的应用

在前面的学习中,我们已经了解了如何使用一些经典的方法和模型来处理自然语言任务,如文本分类、命名实体识别等。但当我们需要更强的语言生成能力时,往往会求助于更先进的预训练语言模型。OpenAI 旗下的 GPT 系列模型(如 GPT-3、GP…...

FFmpeg av_read_frame 和iOS系统提供的 AVAudioRecorder 实现音频录制的区别

1. 第一种方式:使用 FFmpeg 的 av_read_frame 特点 底层实现:基于 FFmpeg,这是一个强大的多媒体处理库,直接操作音频流。灵活性:非常灵活,可以处理多种音频格式、编解码器和输入设备。复杂性:需要手动管理音频流、数据包(AVPacket)、内存释放等,代码复杂度较高。跨平…...

【区块链】深入理解区块链中的 Gas 机制

🌈个人主页: 鑫宝Code 🔥热门专栏: 闲话杂谈| 炫酷HTML | JavaScript基础 ​💫个人格言: "如无必要,勿增实体" 文章目录 深入理解区块链中的 Gas 机制一、Gas 的基本概念1.1 为什么需要 Gas&#xff1f…...

2020 年英语(一)考研真题 笔记(更新中)

Section I Use of English(完型填空) 原题 Directions:Read the following text. Choose the best word (s) for each numbered blank and mark A, B, C or D on the ANSWER SHEET. (10 points) Even if families are less likely to si…...

mamba_ssm和causal-conv1d详细安装教程

1.前言 Mamba是近年来在深度学习领域出现的一种新型结构,特别是在处理长序列数据方面表现优异。在本文中,我将介绍如何在 Linux 系统上安装并配置 mamba_ssm 虚拟环境。由于官方指定mamba_ssm适用于 PyTorch 版本高于 1.12 且 CUDA 版本大于 11.6 的环境…...

leetcode-442.数组中重复的数据

leetcode-442.数组中重复的数据 文章目录 leetcode-442.数组中重复的数据1.题目描述:数组中重复的数据2.第一次代码提交:(不符合仅使用常量额外空间)3.最终代码提交:只使用常数额外空间、时间复杂度为 O(n) 的做法,即“标记法” 1…...

UniApp 按钮组件 open-type 属性详解:功能、场景与平台差异

文章目录 引言一、open-type 基础概念1.1 核心作用1.2 通用使用模板 二、主流 open-type 值详解2.1 contact - 客服会话功能说明平台支持代码示例 2.2 share - 内容转发功能说明平台支持注意事项 2.3 getUserInfo - 获取用户信息功能说明平台支持代码示例 2.4 getPhoneNumber -…...

Android13修改多媒体默认音量

干就完了! 设置音量为最大音量,修改如下: /framework/base/media/java/android/media/AudioSystem.java/** hide */public static int[] DEFAULT_STREAM_VOLUME new int[] {4, // STREAM_VOICE_CALL7, // STREAM_SYSTEM5, // STREAM_RING-5, // STREAM_MUSIC15, // STREAM…...

【银河麒麟高级服务器操作系统】服务器测试业务耗时问题分析及处理全流程分享

更多银河麒麟操作系统产品及技术讨论,欢迎加入银河麒麟操作系统官方论坛 https://forum.kylinos.cn 了解更多银河麒麟操作系统全新产品,请点击访问 麒麟软件产品专区:https://product.kylinos.cn 开发者专区:https://developer…...

HTTP 请求时传递多部分表单数据

HTTP 请求时传递多部分表单数据(multipart/form-data) --data-raw $------demo11111\r\nContent-Disposition: form-data; name"Filedata"; filename"截屏2025-02-27 15.45.46.png"\r\nContent-Type: image/png\r\n\r\n\r\n------d…...

【Python环境】配置极简描述

241220 241220 241220 Python环境配置 下载Python 稳定版本:Stable Releases【3.12.3】 下载地址:Python Releases for Windows | Python.org. 配环境 注意勾上Add Python 3.x to PATH,然后点“Install Now”即可完成安装。 配置完成&…...

1. HTTP 数据请求

相关资源: 图片素材📎图片素材.zip 接口文档 1. HTTP 数据请求 什么是HTTP数据请求: (鸿蒙)应用软件可以通过(鸿蒙)系统内置的 http 模块 和 Axios,通过 HTTP 协议和服务器进行通讯 学习核心Http请求技术: Http模块 - 属于鸿…...

基于深度学习+NLP豆瓣电影数据爬虫可视化推荐系统

博主介绍:资深开发工程师,从事互联网行业多年,熟悉各种主流语言,精通java、python、php、爬虫、web开发,已经做了多年的设计程序开发,开发过上千套设计程序,没有什么华丽的语言,只有…...

Apache Spark中的依赖关系与任务调度机制解析

Apache Spark中的依赖关系与任务调度机制解析 在Spark的分布式计算框架中,RDD(弹性分布式数据集)的依赖关系是理解任务调度、性能优化及容错机制的关键。宽依赖(Wide Dependency)与窄依赖(Narrow Dependency)作为两种核心依赖类型,直接影响Stage划分、Shuffle操作及容…...

SEO炼金术(4)| Next.js SEO 全攻略

在上一篇文章 SEO炼金术(3)| 深入解析 SEO 关键要素 中,我们深入解析了 SEO 关键要素,包括 meta 标签、robots.txt、canonical、sitemap.xml 和 hreflang,并探讨了它们在搜索引擎优化(SEO)中的作…...

DeepSeek开源周,第五弹再次来袭,3FS

Fire-Flyer 文件系统(3FS)总结: 一、核心特点 3FS 是一个专为 AI 训练和推理工作负载设计的高性能分布式文件系统,利用现代 SSD 和 RDMA 网络,提供共享存储层,简化分布式应用开发。其主要特点包括&#xf…...

conda怎么迁移之前下载的环境包,把python从3.9升级到3.10

克隆旧环境(保留旧环境作为备份) conda create -n cloned_env --clone old_env 在克隆环境中直接升级 Python conda activate cloned_env conda install python3.10 升级 Python 后出现 所有包导入失败 的问题,通常是因为依赖包与新 Pyth…...

一周一个Unity小游戏2D反弹球游戏 - 移动的弹板(鼠标版)

前言 本文将实现控制弹板移动,通过Unity的New Input System,可以支持鼠标移动弹板跟随移动,触控点击跟随移动,并且当弹板移动到边界时,弹板不会移动超过边界之外。 创建移动相关的InputAction 项目模版创建的时候默认会…...

wordpress子分类调用父分类名称和链接的3种方法

专为导航而生&#xff0c;在wordpress模板制作过程中常常会在做breadcrumbs导航时会用到&#xff0c;子分类调用父分类的名称和链接&#xff0c;下面这段简洁的代码&#xff0c;可以完美解决这个问题。 <?php echo get_category_parents( $cat, true, &raquo; ); ?…...

使用mermaid查看cursor程序生成的流程图

一、得到cursor生成的流程图文本 cursor写的程序正常运行后&#xff0c;在对话框输入框中输入诸如“请生成扫雷的代码流程图”&#xff0c;然后cursor就把流程图给生成了&#xff0c;但是看到的还是文本的样子&#xff0c;保留这部分内容待用 二、注册一个Mermaid绘图账号 …...

GC垃圾回收介绍及GC算法详解

目录 引言 GC的作用域 什么是垃圾回收&#xff1f; 常见的GC算法 1.引用计数法 2.复制算法 3.标记清除 4.标记整理 小总结 5.分代收集算法 ps:可达性分析算法&#xff1f; 可达性分析的作用 可达性分析与垃圾回收算法的关系 结论 引言 在编程世界中&#xff0c;…...

设计后端返回给前端的返回体

目录 1、为什么要设计返回体&#xff1f; 2、返回体包含哪些内容&#xff08;如何设计&#xff09;&#xff1f; 举例 3、总结 1、为什么要设计返回体&#xff1f; 在设计后端返回给前端的返回体时&#xff0c;通常需要遵循一定的规范&#xff0c;以确保前后端交互的清晰性…...

Pytorch为什么 nn.CrossEntropyLoss = LogSoftmax + nn.NLLLoss?

为什么 nn.CrossEntropyLoss LogSoftmax nn.NLLLoss&#xff1f; 在使用 PyTorch 时&#xff0c;我们经常听说 nn.CrossEntropyLoss 是 LogSoftmax 和 nn.NLLLoss 的组合。这句话听起来简单&#xff0c;但背后到底是怎么回事&#xff1f;为什么这两个分开的功能加起来就等于…...

Linux实操——在服务器上直接从百度网盘下载(/上传)文件

Linux Linux实操——在服务器上直接从百度网盘下载&#xff08;/上传&#xff09;文件 文章目录 Linux前言一、下载并安装bypy工具二、认证并授权网盘账号三、将所需文件转移至目的文件夹下四、下载文件五、上传文件六、更换绑定的百度云盘账户 前言 最近收到一批很大的数据&…...

【无标题】ABP更换MySql数据库

原因&#xff1a;ABP默认使用的数据库是sqlServer&#xff0c;本地没有安装sqlServer&#xff0c;安装的是mysql&#xff0c;需要更换数据库 ABP版本&#xff1a;9.0 此处以官网TodoApp项目为例 打开EntityFrameworkCore程序集&#xff0c;可以看到默认使用的是sqlServer&…...

nuxt常用组件库html-validator应用解析

html-validator 主要用于自动验证nuxt服务器呈现的HTML(SSR和SSG)&#xff0c;以检测可能导致水合错误的HTML常见问题&#xff0c;有助于减少水合错误&#xff0c;检测常见的可访问性错误。 安装 npx nuxilatest module add html-validator配置 若自动更新nuxt.config.ts配置文…...

思维训练(算法+技巧)

1.深度优先搜索&#xff1a;暴力求解&#xff0c;适合判断能不能走出迷宫 利用递归&#xff0c;有一个check【】数组来检查该节点是否经过 for循环该节点的邻接节点&#xff08;存在且没被访问&#xff09;&#xff0c;递归DFS&#xff08;该节点的某个邻接节点&#xff09; D…...

AIGC(生成式AI)试用 25 -- 跟着清华教程学习 - DeepSeek+DeepResearch让科研像聊天一样简单

目标&#xff1a;继续学习&#xff0c;以DeepSeek为主 个人理解&#xff1a; - 模型结合&#xff0c;充分发挥各模型的优势 - 关注应用&#xff0c;弱化理论&#xff0c;了解就好 - 多模态&#xff1a;多模态&#xff08;Multimodality&#xff09;是指结合多种不同类型的数据…...

Solr中得Core和Collection的作用和关系

Solr中得Core和Collection的作用和关系 一&#xff0c; 总结 在Apache Solr中&#xff0c;Core和Collection 是两个核心概念&#xff0c;他们分别用于单机模式和分布式模式&#xff08;SolrCloud&#xff09;中&#xff0c;用于管理和组织数据。 二&#xff0c;Core 定义&am…...

温湿度监控设备融入智慧物联网

当医院的温湿度监控设备融入智慧物联网&#xff0c;将会带来许多新的体验&#xff0c;可以帮助医院温湿度监控设备智能化管理&#xff0c;实现设备之间的互联互通&#xff0c;方便医院对温湿度数据进行统一管理和分析。 添加智慧物联网技术&#xff0c;实现对医院温湿度的实时…...

软件测试的七大误区

随着软件测试对提高软件质量重要性的不断提高&#xff0c;软件测试也不断受到重视。但是&#xff0c;国内软件测试过程的不规范&#xff0c;重视开发和轻视测试的现象依旧存在。因此&#xff0c;对于软件测试的重要性、测试方法和测试过程等方面都存在很多不恰当的认识&#xf…...

Mac 版 本地部署deepseek ➕ RAGflow 知识库搭建流程分享(附问题解决方法)

安装&#xff1a; 1、首先按照此视频的流程一步一步进行安装&#xff1a;(macos版&#xff09;ragflowdeepseek 私域知识库搭建流程分享_哔哩哔哩_bilibili 2、RAGflow 官网文档指南&#xff1a;https://ragflow.io 3、RAGflow 下载地址&#xff1a;https://github.com/infi…...

标记符号“<”和“>”符号被称为“尖括号”或“角括号”

你提到的“<”和“>”符号被称为“尖括号”或“角括号”。它们常用于编程语言中表示类型参数&#xff08;如泛型&#xff09;、HTML标签&#xff08;如<div>&#xff09;、数学中的不等式&#xff08;如< 5&#xff09;等。 好的&#xff0c;我来用通俗的方式解…...

DMA发送全部历史记录数据到串口

背景 博主参与的项目中&#xff0c;有个读取全部历史记录的功能&#xff0c;如果下位机在主程序中将全部历史记录单纯地通过串口传输会比较占用cpu资源&#xff0c;影响主程序中别的功能。最后商量得出以下实现方案&#xff1a; 定义两个发送缓冲区DMATxbuf1和DMATxbuf2&…...

js基础案例

1.弹出警告框&#xff0c;显示Hello JS 2.在页面输出内容&#xff08;内容在body标签里面&#xff09; 3.在控制台输出内容 4.js代码是自上而下执行 5.将js代码编写到标签的onclick属性中&#xff0c;当点击时&#xff0c;js代码才会执行 6.将js写到超链接的href属性中&#xf…...

机器学习之集成学习思维导图

学习笔记—机器学习-集成学习思维导图 20250227&#xff0c;以后复习看&#xff08;周老师的集成学习&#xff09; PS&#xff1a;图片看不清&#xff0c;可以下载下来看。 往期思维导图&#xff1a; 机器学习之集成学习Bagging&#xff08;随机深林、VR-树、极端随机树&…...

学生考勤请假管理系统

在当今信息化时代&#xff0c;传统的纸质考勤和请假管理方式已难以满足高校日益增长的管理需求。手工记录效率低下、容易出错&#xff0c;且难以进行数据统计和分析&#xff0c;无法为教学管理提供有效的决策支持。因此&#xff0c;开发一套高效、便捷、安全的学生考勤请假管理…...

算法之领域算法

领域算法 ♥一些领域算法知识体系♥ | Java 全栈知识体系...

服务 ‘Sql Server VSS writer‘ (SQLWriter) 在安装 LocalDB 时无法启动

安装Microsoft Visual C 2015-2019 Redistributable (x64)...

GDidees CMS v3.9.1本地文件泄露漏洞(CVE-2023-27179)

漏洞简介&#xff1a; GDidees CMS v3.9.1及更低版本被发现存在本地文件泄露漏洞&#xff0c;漏洞通过位于 /_admin/imgdownload.php 的 filename 参数进行利用。 漏洞环境&#xff1a; 春秋云镜中的漏洞靶标&#xff0c;CVE编号为CVE-2023-27179 漏洞复现: 进入靶场发现没…...

PyQT(PySide)的上下文菜单策略设置setContextMenuPolicy()

在 Qt 中&#xff0c;QWidget 类提供了几种不同的上下文菜单策略&#xff0c;这些策略通过 Qt::ContextMenuPolicy 枚举类型来定义&#xff0c;用于控制控件&#xff08;如按钮、文本框等&#xff09;在用户右键点击时如何显示上下文菜单。 以下是 Qt::ContextMenuPolicy 枚举中…...

【AI深度学习基础】NumPy完全指南进阶篇:核心功能与工程实践(含完整代码)

NumPy系列文章 入门篇进阶篇终极篇 一、引言 在掌握NumPy基础操作后&#xff0c;开发者常面临真实工程场景中的三大挑战&#xff1a;如何优雅地处理高维数据交互&#xff1f;如何在大规模计算中实现内存与性能的平衡&#xff1f;怎样与深度学习框架实现高效协同&#xff1f;…...

爬虫获取微店商品快递费 item_feeAPI 接口的完整指南

在电商运营中&#xff0c;快递费用的计算是影响用户体验和商家成本的重要因素。通过获取快递费数据&#xff0c;商家可以优化定价策略、提升用户体验&#xff0c;甚至实现个性化的营销方案。本文将详细介绍如何通过爬虫技术调用微店的快递费 API 接口&#xff0c;获取商品的快递…...

etcd 3.15 三节点集群管理指南

本文档旨在提供 etcd 3.15 版本的三节点集群管理指南&#xff0c;涵盖节点的新增、删除、状态检查、数据库备份和恢复等操作。 1. 环境准备 1.1 系统要求 操作系统&#xff1a;Linux&#xff08;推荐 Ubuntu 18.04 或 CentOS 7&#xff09; 内存&#xff1a;至少 2GB 磁盘&a…...

Python 数据可视化(一)熟悉Matplotlib

目录 一、安装包 二、先画个折线图 1、修改标签文字和线条粗细 2、内置样式 3、scatter() 绘制散点图 4、scatter() 绘制多个点 5、设置样式 6、保存绘图 数据可视化指的是通过可视化表示来探索和呈现数据集内的规律。 一、安装包 win R 打开终端 安装 Matplotlib&…...

使用自动化运维工具 Ansible 集中化管理服务器

一、概述 Ansible 是一款为类 Unix 系统开发的自由开源的配置和自动化工具 官方网站:https://www.ansible.com/ Ansible 成立于 2013 年,总部设在北卡罗来纳州达勒姆,联合创始人 ad Ziouani 和高级副总裁 Todd Barr都是红帽的老员工。Ansible 旗下的开源软件 Ansible 十分…...

STL 算法库中的 min_element 和 max_element

在 C STL中&#xff0c;min_element 和 max_element 是两个非常实用的算法函数&#xff0c;用于快速找到容器或范围内的最小值和最大值&#xff0c;这里以min为例。 头文件&#xff1a;<algorithm> 语法&#xff1a; template <class ForwardIterator> ForwardIt…...

YOLOv11-ultralytics-8.3.67部分代码阅读笔记-ops.py

ops.py ultralytics\models\utils\ops.py 目录 ops.py 1.所需的库和模块 2.class HungarianMatcher(nn.Module): 3.def get_cdn_group(batch, num_classes, num_queries, class_embed, num_dn100, cls_noise_ratio0.5, box_noise_scale1.0, trainingFalse): 1.所需的库…...

翻译: 深入分析LLMs like ChatGPT 一

大家好&#xff0c;我想做这个视频已经有一段时间了。这是一个全面但面向普通观众的介绍&#xff0c;介绍像ChatGPT这样的大型语言模型。我希望通过这个视频让大家对这种工具的工作原理有一些概念性的理解。 首先&#xff0c;我们来谈谈你在这个文本框里输入内容并点击回车后背…...