docs/src/sidebar/itwanger/ai/glm5-turbo-pingce.md
大家好,我是二哥呀。
刚刚,GLM-5-Turbo 正式发布,这是全球首个龙虾大模型。实测后发现,OpenClaw 有了他之后,能力提升的不是一星半点。
作为龙虾的重度患者,哦不,重度使用者,开心那 😄
注意注意,更新澳龙(AutoClaw)到最新版,已经默认配置好了 GLM-5-Turbo 模型。
工具调用更稳、指令遵循更强、长任务持续执行不中断。
我拿两个真实 case 测了一把:一个是用 AutoClaw 把派聪明 RAG 项目的前端自动化打包部署到服务器,另一个是自动生成派聪明的邀请码,并推送到飞书群。
GLM-5-Turbo 全程没掉链子,一口气跑完。
如果你天天用龙虾干活,这篇文章会告诉你为什么 GLM-5-Turbo 这么强,以及到底怎么用。
系好安全带,我们发车,滴滴滴。
先说说 GLM-5-Turbo 的核心卖点。
说真的,通用模型在多步龙虾任务中经常失忆,就连 GPT-5.4 都未能幸免,GLM-5-Turbo 这次主打“一次跑通、持久续航”。
这不是夸张,是我实测后的真实感受。
来,咱跑个分。
基于 ZClawBench 的评测结果显示,GLM-5-Turbo在OpenClaw场景中的表现相比GLM-5提升显著,在多项关键任务上整体领先于多家主流模型。
在我的实际体验当中,GLM-5-Turbo 的“一次跑通”能力非常强,基本上一次命令就可以满足我的预期,甚至超出我的预期。
调教的次数明显变少了。
这意味着什么?
意味着你不用反复调试、不用中途干预、不用盯着屏幕等它崩溃。
给一个指令,它就能一口气跑完。
在聊实测案例之前,先说说怎么把龙虾装到你的电脑上。
AutoClaw 是国内首个支持一键安装的本地版 OpenClaw。安装过程跟下载 APP 一样简单,macOS 和 Windows 都支持。
并且支持飞书全自动接入,也就是说,接入飞书的过程,你可以全程托管给澳龙,不用自己去飞书上手动创建应用、开通机器人权限、建立长连接等等。
全程澳龙帮你搞定,对于小白用户来说,真的太爽了,真正实现了 Auto。
我第一次体验的时候,下巴是掉到桌子上的。
啊啊啊,还能这样啊!
第一步:访问 AutoClaw 官网,点击“下载安装”。
第二步:下载安装包,双击运行。
第三步:启动 AutoClaw,登录智谱账号。
整个过程大概 1 分钟,不需要配置环境、不需要折腾命令行、不需要懂技术。
如果你本地已经安装了 OpenClaw,澳龙可以直接识别,然后一键导入。
这里可以选择把我们之前给 OpenClaw 的能力全部接管过来。
最新版 AutoClaw 已经内置了 GLM-5-Turbo 模型,开箱即用。
如果你有其他模型的 Coding Plan,也可以在设置里添加。
几个关键配置:
①、工作目录:设置龙虾的工作空间,默认是用户目录下的 .autoclaw 文件夹。
②、**浏览器 Agent:**如果需要龙虾操作浏览器,可以打开这个 Skills。
③、用量统计:查看 Token 用量汇总,不用害怕龙虾偷偷跑我们的 token 了。
④、Gateway 端口:OpenClaw 原生默认的端口是 18787,为了避免冲突,我这里改成了 18888。这样你的原生 OpenClaw 和澳龙就都可以运行了。
安装好 AutoClaw 后,就可以开始养虾了。接下来分享我实测的两个案例。
派聪明是我一直在维护的一个 RAG 项目,前端用的是 Vue3 + Vite,每次更新都要手动打包、上传服务器、解压、验证。
流程不复杂,但很烦。
所以我就萌生了一个大胆的项目,把整个流程直接交给 AutoClaw + GLM-5-Turbo 不就行了吗?
说干就干。
我给龙虾的指令是这样的:
帮我把派聪明 RAG 项目的前端打包,地址是 xxx 然后上传到服务器指定位置,最后用本地浏览器验证有没有部署成功。服务器地址是 xxx,用户名是 xxx,密码在环境变量里。
当然了,为了保证安全,我们先到腾讯云官方创建一个 SSH 的密钥对。把私钥保存到我们本地的一个指定文件夹,不告诉 AutoClaw,嘿嘿
点击确定,会生成一份密钥文件,保存到我们本地的一个文件夹。
然后点击绑定实例。
注意,这一步会强制服务器关机。
这个任务涉及多个步骤:执行打包命令、SSH 连接服务器、上传文件、解压文件、打开浏览器验证。
每个步骤都可能出错,需要模型能够稳定执行。
GLM-5-Turbo 先拆解了任务:
pnpm build整个过程大概 1 分钟,GLM-5-Turbo 一步一步执行,没有跳过任何步骤,也没有在中间卡住。
我们登录服务器验证一下。
已经能看到上传的文件了,但为了保证安全,解压删除 dist 目录的权限我们就不让 AutoClaw 来做了,我们主动来做一下。
浏览器打开后,GLM-5-Turbo 截图确认页面正常加载,然后给我汇报:
前端已成功部署到服务器,访问地址 xxx,页面加载正常,部署完成。
如果要用浏览器打开的话,需要 Chrome 先安装 AutoGLM 的扩展插件(当然也可以安装OpenClaw内置的 Playwright)。
注意看,现在已经是 AutoGLM 在接管我们的浏览器了。
帮忙填一下用户名和密码(当然你也可以告诉AutoClaw,但不建议),来看看更新的效果。
嗯嗯嗯,确实没问题。整个流程几乎没有手动干预,比我手动操作快得多。
相信大家都感受到了,这才是龙虾的真正威力,去融入到你真实的使用场景中去,真正帮你提高生产力。
这个过程放在以前,真挺麻烦的。
现在有了 AutoClaw,只需要告诉他一个指令,他就能记住,然后自己默默把这些事情全部干了。
并且给你反馈。
派聪明 RAG 系统有个邀请码机制,那我就想,通过AutoClaw去生成邀请码,然后发送到飞书群。
打开派聪明 smart.paicoding.com 的邀请码管理,生成一个10次的邀请码发到我的飞书
注意,AutoClaw还贴心的帮我们把飞书的 webhook 写入到了 TOOLS.md 当中,这样下一次就可以直接创建了。
回到飞书群,确认一下。
当然了,龙虾能干活,吃 token 也不在话下。
一个典型的龙虾任务,比如完成我们前面这个派聪明 RAG 项目的前端打包验证,可能涉及数十轮工具调用与上下文衔接,token 消耗量不小。
那为了让企业和个人实现龙虾“token 自由”,智谱这次还贴心地推出了基于 GLM-5-Turbo 的龙虾套餐。
(偷偷说一句,之前抢不到 Coding Plan 套餐的小伙伴,可以试试龙虾套餐,也是完美适配 Claude Code 的 😄)
进阶版包含 1 亿的 token,足够团队高强度使用了,生产力提升嘎嘎香:
第一,团队协作效率提升。以前每个人都要自己装龙虾、自己配置环境、自己管理 API Key。现在统一用企业账号,管理员一键分配,团队成员开箱即用。
第二,成本可控。个人用龙虾,token 消耗很难预估,月底账单可能吓一跳。企业套餐有额度管理和预警机制,不会超支。
第三,安全合规。企业数据不能随便传到云端,龙虾套餐支持私有化部署,数据不出内网。
如果你刚好在求职面试,这次的 GLM-5-Turbo+AutoClaw 的任务还可以体现到简历上。
项目名称:派聪明 RAG 自动化运维平台
项目描述:基于 GLM-5-Turbo + OpenClaw 构建自动化部署和运维工作流,实现前端一键打包部署、邀请码自动化管理,部署时间从 30 分钟缩短到 5 分钟。
核心职责:
如果面试官问“你用龙虾做了什么”,可以按这个结构回答:
背景:派聪明 RAG 项目之前每次部署都要手动打包、上传、解压、验证,一个流程下来半小时,还容易出错。
方案:我用 GLM-5-Turbo + OpenClaw 构建了自动化部署工作流。GLM-5-Turbo 的 Tool Calling 能力很强,能稳定调用 SSH、文件传输、浏览器这些工具,不会中途崩溃。
效果:部署时间从 30 分钟缩短到 5 分钟,零人工干预。后来又扩展到邀请码管理、定时任务等场景,运维工作量减少了 80%。
亮点:GLM-5-Turbo 是智谱专门为龙虾场景优化的模型,一次跑通率比通用模型高一倍。我用下来确实稳定,长任务不会中断。
问题一:你们团队是怎么使用龙虾的?
先从痛点入手。我们团队之前部署前端要半小时,我就先让龙虾帮我们自动化部署,让大家尝到甜头。然后逐步扩展到邀请码管理、定时任务等场景。关键是让团队成员感受到效率提升。
问题二:龙虾的维护成本高吗?
初期投入确实需要时间学习,但长期来看是值得的。一个成熟的龙虾任务,维护成本大概每周 1-2 小时,但节省的时间是几十小时级别的。
折腾 GLM-5-Turbo 这一天,我有一个很深的感受:国产模型真的支棱起来了。
在真实场景里,把活干好,这才是一个 Agent 该干的事。
而 Agent 的核心能力,就是工具调用、指令遵循、长任务执行。GLM-5-Turbo 在这三件事上做到了极致。
想想看,以前部署一个前端项目,你要打开终端、敲命令、等打包、登录服务器、上传文件、解压、验证。一套流程下来,半小时没了。
现在呢?
【给龙虾一句话,1 分钟搞定。你可以眼睛闭上休息10分钟,回来发现部署完成了。】
(多出来的9分钟就当摸鱼了)这就是效率。
如果你也在用龙虾干活,不妨试试 GLM-5-Turbo。不是为了支持国产,而是因为它真的好用。一次跑通率超高,长任务不中断,工具调用稳如老狗。
有问题评论区见,我们下期聊!