OpenManus 本地部署! 完全免费,对接 Ollama 本地大模型,真香!

短短 3 天,39K Stars,Manus 开源版 OpenManus 彻底爆火!完全免费,无需等待,无需任何费用,无需APIKEY,直接对接我们本地的开源大模型!通过调用本地的 Ollama ,不要太香!

99a75eb2f320250311100209

本地部署过程:

提前准备安装 python 3.12 【点击下载】和 conda 【点击前往

下面我会提供两种不同的安装方法,分别适合Windows 和 macOS 、Linux用户

方法 1:使用 conda ( 适合 Windows 用户)

1、创建一个新的 conda 环境:

conda create -n open_manus python=3.12
conda activate open_manus

2、克隆存储库:

git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus

3、安装依赖项:

pip install -r requirements.txt

4、安装Ollama 本地部署AI大模型

Ollama 官方下载:【点击前往

由于本地对接的AI模型,必须使用有函数调用的模型才可以, 比如 qwen2.5-coder:14b、qwen2.5-coder:14b-instruct-q5_K_S、qwen2.5-coder:32b 都可以,视觉模型可以使用 minicpm-v

本地模型安装命令:

ollama run qwen2.5-coder:14b

视觉模型安装命令:

ollama run minicpm-v

当然你可以安装任何你想要的,只要支持函数调用的模型就可以, 只需在安装命令 ollama run 后面跟上模型名称即可!

5、修改配置文件

在安装目录下,找到 OpenManus\config\config.example.toml  ,把config.example.toml 改成 config.toml

然后将里面的内容改成如下:

# Global LLM configuration
[llm]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."
max_tokens = 4096
temperature = 0.0

# [llm] #AZURE OPENAI:
# api_type= 'azure'
# model = "YOUR_MODEL_NAME" #"gpt-4o-mini"
# base_url = "{YOUR_AZURE_ENDPOINT.rstrip('/')}/openai/deployments/{AZURE_DEPOLYMENT_ID}"
# api_key = "AZURE API KEY"
# max_tokens = 8096
# temperature = 0.0
# api_version="AZURE API VERSION" #"2024-08-01-preview"

# Optional configuration for specific LLM models
[llm.vision]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."

注意:里面的模型文件名称要改成你自己安装的,后面的视觉模型可以和上面的一致,也可以自定义其它的视觉模型!

如果你在中国大陆,可能需要把代码里的 localhost 改成 127.0.0.1 

最后运行即可

python main.py

详细的使用教程如下:

运行以后就可以进行使用了!它就可以完全自动调用浏览器,打开并浏览,查询并收集需要的信息

a546c03f8820250311104635

7d4bf5486a20250311104636

下次打开运行的命令如下:

conda activate open_manus
cd OpenManus
python main.py

方法 2:使用 uv(适合macOS用户)

1、安装 uv(快速 Python 包安装程序和解析器):

curl -LsSf https://astral.sh/uv/install.sh | sh

2、克隆存储库:

git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus

3、创建一个新的虚拟环境并激活它:

Windows 系统

uv venv
.venv\Scripts\activate

macOS系统

uv venv
source .venv/bin/activate

4、安装依赖:

uv pip install -r requirements.txt

5、安装Ollama 本地部署AI大模型

更多内容,详细见零度教程

官方开源项目:【链接直达

如何卸载已安装过的模型?在CMD终端下,通过命令:

ollama list  # 查询已安装的模型
ollama rm 模型名称  # 卸载并删除模型

600d7f407320250311105906

比如需要删除gemma2:27b 模型,那么只需输入:

ollama rm gemma2:27b

即可删除模型

THE END
喜欢就支持一下吧
点赞1927 分享
相关推荐
MIT天体物理学正在寻找暗物质的踪迹-零度博客

MIT天体物理学正在寻找暗物质的踪迹

麻省理工学院(MIT)的粒子物理学家Kerstin Perez正在寻找暗物质的踪迹。这种看不见的物质体现了宇宙中84%的物质,并被认为是一种强大的宇宙“胶水”,使整个星系不至于旋转分离。然而,这些粒...
admin的头像-零度博客admin
1.5W+2251
Chrome 金丝雀版 !开发者专用的谷歌浏览器Canary版本-零度博客

Chrome 金丝雀版 !开发者专用的谷歌浏览器Canary版本

  Chrome 金丝雀版官方下载: 简体中文版:https://www.google.com/intl/zh-CN/chrome/canary/ 繁体中文版:https://www.google.com/intl/zh-TW/chrome/canary/  
admin的头像-零度博客admin
1.7W+2250
这6款绝对可以堪称神器的PC软件!-零度博客

这6款绝对可以堪称神器的PC软件!

  1.Spacedesk 投屏: https://www.spacedesk.net 2.AllDup 去重软件: http://www.alldup.de 3.Ditto 剪贴板增强工具: https://ditto-cp.sourceforge.io 4.TestDisk U盘数据恢复工具: ...
admin的头像-零度博客admin
1.3W+6540
Kreemo开发出全球首个显示屏内置型透明天线-零度博客

Kreemo开发出全球首个显示屏内置型透明天线

据韩媒报道,近日,韩国公司Kreemo开发出全球首个显示屏内置型透明天线。据悉,Kreemo正在与四大北美客户密切讨论以将该技术商业化。作为全球领先的5G毫米波天线解决方案提供商,Kreemo开发的透...
admin的头像-零度博客admin
1.5W+2251
Windows 11  新功能探索,这样的系统你喜欢吗? | 零度解说-零度博客
Umi-OCR 支持离线使用的批量图文识别软件,免费开源!-零度博客

Umi-OCR 支持离线使用的批量图文识别软件,免费开源!

免费,开源,可批量的离线OCR软件 适用于 Windows7 x64 、Linux x64   免费:本项目所有代码开源,完全免费。 方便:解压即用,离线运行,无需网络。 高效:自带高效率的离线OCR引擎,内置...
admin的头像-零度博客admin
2.3W+3252
NFT 为什么这么火?手把手教你制作属于自己的NFT,并在网上出售它! | 零度解说-零度博客
Windows 11  王炸更新! 系统全面接入 ChatGPT 和 New Bing,更强劲的 Windows Copilot 已上线, AI 时代来了! | 零度解说-零度博客

Windows 11 王炸更新! 系统全面接入 ChatGPT 和 New Bing,更强劲的 Windows Copilot 已上线, AI 时代来了! | 零度解说

https://youtu.be/cPSJ4HK1-1s   ------------------ Windows Copilot 和 最新版Windows 11 ISO下载:https://www.freedidi.com/9560.html
admin的头像-零度博客admin
1.3W+6539
HttpGuard 防御CC攻击!效果非常不错,完全免费开源-零度博客

HttpGuard 防御CC攻击!效果非常不错,完全免费开源

HttpGuard 下载链接:【网盘下载】、【百度网盘】 Lua 开启防御代码 lua_package_path “/usr/local/nginx/conf/waf/?.lua”; lua_shared_dict limit 10m; init_by_lua_file /usr/local/nginx/c...
admin的头像-零度博客admin
2.1W+2177