Jack Dorsey是Twitter(现名X)、Square(现名Block)和Bluesky的创始人。今年7月,他在X上发布了一条颇为神秘的声明:"goose + qwen3-coder = wow"。
从那时起,人们对Goose和Qwen3-coder的兴趣不断增长。Goose由Dorsey的公司Block开发,是一个开源智能体框架,类似于Claude Code。Qwen3-coder是一个专注于编程的大语言模型,类似于Sonnet-4.5。两者都是免费的。
互联网上的说法是,它们结合在一起可以创建一个完全免费的Claude Code竞争对手。但真的可以吗?我决定亲自验证一下。
本文是探讨Goose(智能体框架)、Ollama(大语言模型服务器)和Qwen3-coder(大语言模型)集成的三篇文章中的第一篇。
在本文中,我将展示如何让所有工具正常运行。在下一篇文章中,我将深入解释这三个工具在AI智能体编程过程中各自扮演的角色。最后,我将尝试使用这些工具构建一个功能完整的iPad应用程序。
好,让我们开始吧。我在Mac上构建,但你也可以在Windows或Linux机器上安装这三个工具。
安装步骤
你需要先下载Goose和Ollama。稍后将在Ollama中下载Qwen3-coder模型。
我最初先下载并安装了Goose,但无法让它与Ollama通信。你能猜到我做错了什么吗?没错,我还没有下载和设置Ollama。
我的建议是先安装Ollama。我使用的是MacOS,但你可以使用任何你喜欢的系统。你也可以安装命令行版本的Ollama,但我更喜欢应用程序版本。
下载Ollama后,双击安装程序。应用程序加载后,你会看到一个类似聊天的界面。右侧会显示模型,我的默认是gpt-oss-20b。
点击它,会弹出一个模型列表。我选择了Qwen3-coder:30b,其中30b指的是模型参数数量。这是一个经过编码优化的模型,拥有约300亿个参数。
注意,模型在被要求回答提示之前不会下载。我输入了"test"这个词,模型就开始下载了。
请注意,这个模型有17GB,所以要确保你有足够的存储空间。这一要求凸显了整个项目的一大优势:你的AI是本地运行的,在你的机器上运行,你不会向云端发送任何内容。
安装Qwen3-coder后,你需要让Ollama实例对计算机上的其他应用程序可见。从菜单栏的Ollama菜单中选择设置。
打开"Expose Ollama to the network"选项。我让Ollama安装在.ollama目录中。这种方法会隐藏目录,所以请记住那里有一个17GB的文件。
最后,我将上下文长度设置为32K。我的机器有128GB RAM,所以如果开始耗尽上下文,我会提高它。但我想看看这种方法在较小的上下文空间下效果如何。
另外请注意,我没有登录Ollama。你可以创建一个账户并使用一些云服务。但我们试图完全免费且完全在本地计算机上完成,所以我尽可能避免登录。
Ollama和Qwen3-coder的设置就是这样。使用Goose时需要启动并运行Ollama,但在此之后你可能不会与它有太多交互。
配置Goose
接下来,让我们安装Goose。运行安装程序。与Ollama一样,有多个Goose实现方式。我选择了MacOS Apple Silicon桌面版本。
首次启动Goose时,会看到欢迎屏幕。你有几个配置选项,但由于我们要实现全免费设置,请转到"Other Providers"部分并点击"Go to Provider Settings"。
在这里,你会看到一个非常长的各种智能体工具和大语言模型列表。向下滚动,找到Ollama并点击配置。
完成该步骤后,系统会要求你配置Ollama。这里我有点困惑,因为我以为"配置Ollama"意味着我实际上在配置Ollama。并非如此。你实际上是在配置连接,在这种情况下是连接到Ollama。
系统会要求你选择一个模型。再次选择qwen3-coder:30b。
选择Ollama和qwen3-coder:30b后,点击选择模型。
恭喜你!你现在已经安装并配置了一个在计算机上运行的本地编码智能体。
使用体验
与几乎所有其他聊天机器人一样,你需要在提示区域输入提示。但首先,最好让Goose知道你将使用的目录。在我的初始测试中,我将Goose设置为从临时文件夹工作。
作为测试,我使用了我的标准测试挑战——构建一个简单的WordPress插件。在第一次运行中,Goose/Qwen3失败了。它生成了一个插件,但无法工作。
在第二次和第三次尝试中,在向Goose/Qwen3解释了什么不起作用之后,它又失败了两次。
到第三次尝试时,它运行了随机化,但没有完全遵循指示,这在某种程度上违背了原始插件的全部目的。
Goose花了五轮才做对,而且它对自己预期的正确性非常满意。
我对这种方法的看法是什么?Goose花了五次尝试才让我的小测试正常工作,我对此感到失望。当我用这个任务测试一堆免费聊天机器人时,除了Grok和早期版本的Gemini,所有机器人都在第一次尝试时就完成了我的小测试。
但聊天机器人编码和智能体编码之间的一个重大区别是,像Claude Code和Goose这样的智能体编码工具可以处理实际的源代码。因此,重复修正确实会改进实际的代码库。
我的同事Tiernan Ray在他的16GB M1 Mac上尝试Ollama时,发现性能难以忍受。但我在配备128GB RAM的M4 Max Mac Studio上运行这个设置。我甚至同时打开了Chrome、Fusion、Final Cut、VS Code、Xcode、Wispr Flow和Photoshop。
到目前为止,我只运行了一个相当简单的编程测试,但我发现整体性能相当不错。我没有看到在我的Mac Studio上运行Goose的本地实例与使用AI公司庞大基础设施的本地/云混合产品(如Claude Code和OpenAI Codex)在提示响应时间上有明显差异。
但这些仍然是第一印象。一旦我用一个大项目进行测试,我将能够更好地告诉你,我是否认为这个免费解决方案可以取代昂贵的替代品,如Claude Code的每月100美元Max计划或OpenAI的每月200美元Pro计划。
你是否尝试过使用Goose、Ollama或Qwen等工具在本地运行专注于编码的大语言模型?设置进展如何,你在什么硬件上运行?如果你使用过Claude或OpenAI Codex等云选项,本地性能和输出质量相比如何?请在下面的评论中告诉我们。
Q&A
Q1:Goose和Qwen3-coder是什么?它们是免费的吗?
A:Goose是由Block公司开发的开源智能体框架,类似于Claude Code。Qwen3-coder是一个专注于编程的大语言模型,类似于Sonnet-4.5。两者都是完全免费的,可以在本地计算机上运行,不需要向云端发送任何数据。
Q2:使用Goose和Qwen3-coder需要什么样的硬件配置?
A:这取决于你的使用需求。测试显示,在16GB RAM的M1 Mac上性能可能难以忍受,但在配备128GB RAM的M4 Max Mac Studio上运行流畅。Qwen3-coder:30b模型大小为17GB,所以至少需要足够的存储空间。建议使用性能较好的硬件以获得更好的体验。
Q3:Goose和Qwen3-coder的编码效果如何?能替代付费工具吗?
A:在初步测试中,Goose需要五次尝试才能完成一个简单的WordPress插件,表现不如某些免费聊天机器人。但智能体编码工具的优势在于可以直接处理源代码,重复修正会改进代码库。从响应速度看,本地运行与Claude Code等付费工具差异不大。是否能完全替代付费工具还需要更大项目的验证。