本地 Ollama 服务使用教程-外网访问教程:基于 Frp 实现内网穿透完整配置

Frp 原理详解与本地 Ollama 穿透配置

一、Frp 基本概念

Frp(Fast Reverse Proxy) 是一款开源反向代理工具,核心功能是实现内网穿透
它能在内外网之间搭建稳定的“数据隧道”,让处于内网或防火墙后的设备(如家庭电脑、私有服务器),可被外网设备直接访问。

二、Frp 系统组成

Frp 依赖“服务端-客户端”两个核心组件协同工作,二者分工明确,共同完成内网穿透流程。

组件类型 部署位置 核心功能
Frp 服务端 具有公网 IP 的服务器(如云服务器) 1. 监听预设端口,接收外网用户的连接请求;
2. 作为“中转站”,将请求转发给对应内网客户端。
Frp 客户端 内网中需被访问的设备(如本地电脑) 1. 主动连接 Frp 服务端,建立持久通信隧道;
2. 将内网服务(如 Ollama)的流量转发至服务端。

三、本地 Ollama 搭建与 Frp 穿透配置

以下步骤以轻量模型 qwen2.5-coder:0.5b 为例,实现“外网访问本地 Ollama 服务”的完整流程。

1. 下载并安装 Ollama

1.1 安装 Ollama 客户端

  1. 访问 Ollama 官网,根据本地系统(Windows/macOS/Linux)下载对应安装包。
  2. 双击安装包完成安装,安装后 Ollama 会自动注册为系统服务(默认后台运行)。

1.2 Ollama 核心命令操作

通过命令行(Windows 终端、macOS 终端)执行以下命令,完成模型管理与服务启动。

  • 拉取模型:从 Ollama 仓库下载目标模型(以 qwen2.5-coder:0.5bllama2 为例)

    1
    2
    3
    4
    # 拉取 qwen2.5-coder:0.5b 模型
    ollama pull qwen2.5-coder:0.5b
    # 拉取 llama2 模型(补充完整命令,原文档此处省略前缀)
    ollama pull llama2

    Ollama 模型拉取命令执行示例

  • 运行模型:启动模型并进入交互模式

    1
    ollama run qwen2.5-coder:0.5b

    Ollama 运行模型交互界面示例

  • 查询本地模型:查看已下载的所有模型

    1
    ollama list

    Ollama 本地模型列表查询示例

  • 删除模型:移除不需要的本地模型(替换 <model-name> 为实际模型名,如 qwen2.5-coder:0.5b

    1
    ollama rm <model-name>

    Ollama 模型删除命令执行示例

1.3 Ollama 可视化 UI(Ollama Page Assist)

若需图形化界面操作,可使用 Ollama Page Assist 工具(需额外安装或通过浏览器插件获取),界面示例如下:

  • Ollama Page Assist 主界面
  • Ollama Page Assist 模型交互界面

2. Frp 客户端配置(核心步骤)

找到 Frp 客户端的配置文件(默认命名为 frpc.ini),按以下格式修改,实现“本地 Ollama 端口 → 公网端口”的映射。

1
2
3
4
5
6
7
8
9
10
11
12
[common]
# 基础通信配置(需与 Frp 服务端保持一致)
server_addr = xxx.xxx.xxx.xxx # 你的 Frp 服务端公网 IP(如 123.45.67.89)
server_port = 7000 # Frp 服务端的“控制端口”(默认 7000,需开放防火墙)
token = your_secure_token # 身份验证令牌(自定义复杂字符串,服务端/客户端需相同)

[ollama_tcp]
# Ollama 穿透规则(名称可自定义,建议见名知义)
type = tcp # 传输协议(Ollama 基于 TCP 通信,固定为 tcp)
local_ip = 127.0.0.1 # 本地 Ollama 服务 IP(本地服务固定填 127.0.0.1)
local_port = 11434 # 本地 Ollama 监听端口(默认 11434,可在 Ollama 配置中修改)
remote_port = 1000 # 服务端开放的“外网访问端口”(自定义,如 1000,需开放防火墙)

3. 服务启动与穿透验证

3.1 启动 Frp 客户端

  1. 确保 Frp 服务端已提前启动(若为自己的云服务器,需先部署 frps 并配置)。
  2. 在本地设备的命令行中,进入 frpc 所在目录,执行启动命令:
    1
    2
    # Windows/macOS/Linux 通用命令(需指定配置文件路径)
    ./frpc -c ./frpc.ini # 若 frpc.ini 在当前目录,可直接执行;否则写完整路径(如 C:\frp\frpc.ini)
  3. 启动成功提示:命令行显示 start proxy success 即表示隧道已建立。

3.2 验证外网访问

  1. 本地验证:先在本地通过 http://127.0.0.1:11434 确认 Ollama 服务正常(可通过浏览器或 curl 测试)。
  2. 外网验证:在外部设备(如手机流量、其他网络的电脑)上,通过以下地址访问:
    1
    http://[Frp服务端公网IP]:[remote_port]  # 示例:http://123.45.67.89:1000
  3. 验证成功标志:外部设备可正常连接 Ollama 服务(如通过 API 调用模型、或访问可视化 UI)。
    Frp 穿透成功后外网访问示例

4. 关键注意事项

  1. 端口开放:Frp 服务端需在防火墙/安全组中开放两个端口——server_port(如 7000)和 remote_port(如 1000),否则外网无法连接。
  2. 服务端配置:若使用自建 Frp 服务端,需确保 frps.ini 与客户端配置匹配(尤其是 bind_port 对应 server_porttoken 一致)。
  3. Ollama 服务状态:启动 Frp 前,需确认 Ollama 服务已正常运行(可通过 ollama list 命令验证服务是否存活)。