当前位置:主页 > 聚焦 > 正文

Ollama宣布成为OpenClaw官方模型提供商:一条命令接入,支持云端与本地模型混合调用

发布时间:2026-03-16 已有: 位 网友关注

  币界网消息,据 1M AI News 监测,本地大模型运行工具 Ollama 今日宣布正式成为 OpenClaw 的官方模型提供商。用户执行 openclaw onboard --auth-choice ollama 即可完成接入,所有 Ollama 模型将与 OpenClaw 无缝协作。Ollama 此次接入提供「Cloud + Local」混合模式,用户可同时使用 Ollama 云端托管的模型和本地运行的模型。OpenClaw 的引导向导会自动检测本地已安装的 Ollama 模型,并通过 Ollama 原生 API 支持流式传输和工具调用。OpenClaw 创始人 Peter Steinberger 参与了此次集成的审核工作。

温馨提示:所有理财类资讯内容仅供参考,不作为投资依据。