本地 Ollama 服务使用教程-外网访问教程:基于 Frp 实现内网穿透完整配置

AI-摘要
28.7Blog GPT
AI初始化中...
介绍自己 🙈
生成本文简介 👋
推荐相关文章 📖
前往主页 🏠
前往爱发电购买
本地 Ollama 服务使用教程-外网访问教程:基于 Frp 实现内网穿透完整配置
28.7的博客Frp 原理详解与本地 Ollama 穿透配置
一、Frp 基本概念
Frp(Fast Reverse Proxy) 是一款开源反向代理工具,核心功能是实现内网穿透。
它能在内外网之间搭建稳定的“数据隧道”,让处于内网或防火墙后的设备(如家庭电脑、私有服务器),可被外网设备直接访问。
二、Frp 系统组成
Frp 依赖“服务端-客户端”两个核心组件协同工作,二者分工明确,共同完成内网穿透流程。
| 组件类型 | 部署位置 | 核心功能 |
|---|---|---|
| Frp 服务端 | 具有公网 IP 的服务器(如云服务器) | 1. 监听预设端口,接收外网用户的连接请求; 2. 作为“中转站”,将请求转发给对应内网客户端。 |
| Frp 客户端 | 内网中需被访问的设备(如本地电脑) | 1. 主动连接 Frp 服务端,建立持久通信隧道; 2. 将内网服务(如 Ollama)的流量转发至服务端。 |
三、本地 Ollama 搭建与 Frp 穿透配置
以下步骤以轻量模型 qwen2.5-coder:0.5b 为例,实现“外网访问本地 Ollama 服务”的完整流程。
1. 下载并安装 Ollama
1.1 安装 Ollama 客户端
- 访问 Ollama 官网,根据本地系统(Windows/macOS/Linux)下载对应安装包。
- 双击安装包完成安装,安装后 Ollama 会自动注册为系统服务(默认后台运行)。
1.2 Ollama 核心命令操作
通过命令行(Windows 终端、macOS 终端)执行以下命令,完成模型管理与服务启动。
拉取模型:从 Ollama 仓库下载目标模型(以
qwen2.5-coder:0.5b和llama2为例)1
2
3
4# 拉取 qwen2.5-coder:0.5b 模型
ollama pull qwen2.5-coder:0.5b
# 拉取 llama2 模型(补充完整命令,原文档此处省略前缀)
ollama pull llama2运行模型:启动模型并进入交互模式
1
ollama run qwen2.5-coder:0.5b
查询本地模型:查看已下载的所有模型
1
ollama list
删除模型:移除不需要的本地模型(替换
<model-name>为实际模型名,如qwen2.5-coder:0.5b)1
ollama rm <model-name>
1.3 Ollama 可视化 UI(Ollama Page Assist)
若需图形化界面操作,可使用 Ollama Page Assist 工具(需额外安装或通过浏览器插件获取),界面示例如下:
2. Frp 客户端配置(核心步骤)
找到 Frp 客户端的配置文件(默认命名为 frpc.ini),按以下格式修改,实现“本地 Ollama 端口 → 公网端口”的映射。
1 | [common] |
3. 服务启动与穿透验证
3.1 启动 Frp 客户端
- 确保 Frp 服务端已提前启动(若为自己的云服务器,需先部署
frps并配置)。 - 在本地设备的命令行中,进入
frpc所在目录,执行启动命令:1
2# Windows/macOS/Linux 通用命令(需指定配置文件路径)
./frpc -c ./frpc.ini # 若 frpc.ini 在当前目录,可直接执行;否则写完整路径(如 C:\frp\frpc.ini) - 启动成功提示:命令行显示
start proxy success即表示隧道已建立。
3.2 验证外网访问
- 本地验证:先在本地通过
http://127.0.0.1:11434确认 Ollama 服务正常(可通过浏览器或curl测试)。 - 外网验证:在外部设备(如手机流量、其他网络的电脑)上,通过以下地址访问:
1
http://[Frp服务端公网IP]:[remote_port] # 示例:http://123.45.67.89:1000
- 验证成功标志:外部设备可正常连接 Ollama 服务(如通过 API 调用模型、或访问可视化 UI)。
4. 关键注意事项
- 端口开放:Frp 服务端需在防火墙/安全组中开放两个端口——
server_port(如 7000)和remote_port(如 1000),否则外网无法连接。 - 服务端配置:若使用自建 Frp 服务端,需确保
frps.ini与客户端配置匹配(尤其是bind_port对应server_port、token一致)。 - Ollama 服务状态:启动 Frp 前,需确认 Ollama 服务已正常运行(可通过
ollama list命令验证服务是否存活)。
评论
匿名评论隐私政策
✅ 你无需删除空行,直接评论以获取最佳展示效果









