Axton (@axtonliu) 's Twitter Profile
Axton

@axtonliu

AI 优化 & 自动化工作流 | 助你用实战解锁AI的商业价值
📺 youtube.com/@axtonliu

ID: 2997268024

linkhttps://axtonliu.ai/ calendar_today25-01-2015 04:55:28

1,1K Tweet

8,8K Followers

250 Following

Axton (@axtonliu) 's Twitter Profile Photo

大多数人觉得 AI 的价值是快。 手动 4-5 小时的活,Skill 5 分钟跑完。听起来很爽。 但 “快” 不是重点。 重点是:第 1 次和第 100 次,输出标准一致。你不用每次重新解释标准、重新纠正格式、重新检查遗漏。 快是副产品,标准一致才是资产。 原典入口:axtonliu.ai/agent-skills

大多数人觉得 AI 的价值是快。

手动 4-5 小时的活,Skill 5 分钟跑完。听起来很爽。

但 “快” 不是重点。

重点是:第 1 次和第 100 次,输出标准一致。你不用每次重新解释标准、重新纠正格式、重新检查遗漏。

快是副产品,标准一致才是资产。

原典入口:axtonliu.ai/agent-skills
Axton (@axtonliu) 's Twitter Profile Photo

回形针问题不再是思想实验了。 这周有个 HN 2000+ 分的帖子:一个 AI Agent 在零授权下,自主发布了一篇针对真人的负面文章。不是演示,不是实验,是已经发生的事。 大多数 Agent 框架都在比拼「给 Agent 更多自主空间」。但重点不是让它能做更多事,而是想好你让它干什么,然后给它合适的权限。

Axton (@axtonliu) 's Twitter Profile Photo

你让 AI 帮你整理讨论记录,结果不满意。 第一反应:AI 总结能力不行。 其实问题不在内容,在标准。你没告诉它:什么算有价值的信息?引用和转述怎么区分?矛盾观点怎么处理? 这就是 Asset Fidelity(资产保真度)的核心:同一输入,结构一致。 缺的不是更好的模型,是一套判断标准。

你让 AI 帮你整理讨论记录,结果不满意。

第一反应:AI 总结能力不行。

其实问题不在内容,在标准。你没告诉它:什么算有价值的信息?引用和转述怎么区分?矛盾观点怎么处理?

这就是 Asset Fidelity(资产保真度)的核心:同一输入,结构一致。

缺的不是更好的模型,是一套判断标准。
Axton (@axtonliu) 's Twitter Profile Photo

一个 Skill 能扛多少事? 看这 4 个条件。符合任意一个,就该拆成 Sub-agent: 1. 任务复杂到需要专职角色 2. 前一阶段的输出会污染后一阶段的判断 3. 某个环节需要最小权限 4. 同一个能力要被多个 Skill 复用 第 2 条最常踩坑——上下文污染。单会话塞太多任务,阶段之间必然搅成一团。

一个 Skill 能扛多少事?

看这 4 个条件。符合任意一个,就该拆成 Sub-agent:

1. 任务复杂到需要专职角色
2. 前一阶段的输出会污染后一阶段的判断
3. 某个环节需要最小权限
4. 同一个能力要被多个 Skill 复用

第 2 条最常踩坑——上下文污染。单会话塞太多任务,阶段之间必然搅成一团。
Axton (@axtonliu) 's Twitter Profile Photo

Gemini 3.1 Pro 发布,这是小步快跑的节奏吗? NotebookLM 终于得到了重视,第一时间装备上 3.1 Pro 模型了。

Axton (@axtonliu) 's Twitter Profile Photo

还在纠结 Typeless 和 Wisper Flow 该怎么选吗? 不如试试让 Codex 做一个? 2026,是不是可以说我们正式进入软件 APP 的 “3D 打印时代”

还在纠结 Typeless 和 Wisper Flow 该怎么选吗?

不如试试让 Codex 做一个?

2026,是不是可以说我们正式进入软件 APP 的 “3D 打印时代”
Axton (@axtonliu) 's Twitter Profile Photo

Skills、MCP、Sub-agents、Projects——Claude 生态里这几个概念,很多人越学越乱。 用厨房来理解: Claude = 厨师大脑,负责推理和执行 Skills = 菜谱,标准流程和判断逻辑 MCP = 仓库和冰箱,外部数据和工具 Sub-agents = 专职助手,各有独立大脑和专长 Projects = 厨房场景,上下文环境和约束

Skills、MCP、Sub-agents、Projects——Claude 生态里这几个概念,很多人越学越乱。

用厨房来理解:

Claude = 厨师大脑,负责推理和执行
Skills = 菜谱,标准流程和判断逻辑
MCP = 仓库和冰箱,外部数据和工具
Sub-agents = 专职助手,各有独立大脑和专长
Projects = 厨房场景,上下文环境和约束
Axton (@axtonliu) 's Twitter Profile Photo

Skills 和 MCP 不是同类事物。别放在一起比。 Skills 是菜谱——定义"怎么做"。内容是指令、模板、SOP。 MCP 是仓库——解决"能用什么"。内容是工具、API、外部数据。 Skills 按需加载,MCP 始终可用。 Skills 封装判断逻辑,MCP 提供外部能力。 黄金组合:Skill 定义流程,MCP

Skills 和 MCP 不是同类事物。别放在一起比。

Skills 是菜谱——定义"怎么做"。内容是指令、模板、SOP。
MCP 是仓库——解决"能用什么"。内容是工具、API、外部数据。

Skills 按需加载,MCP 始终可用。
Skills 封装判断逻辑,MCP 提供外部能力。

黄金组合:Skill 定义流程,MCP
Axton (@axtonliu) 's Twitter Profile Photo

用过 Mac 上的几款主流语音输入工具。三个问题让我决定干脆 “3D 打印一个”: 1. 改我的原话。我说 A 它输出 B,“帮你润色”我没要求啊 2. 按键卡住不释放。松手了还在录,只能再按一次 3. 把我的话当问题回答。我在用输入法打字,它给我生成了一段 AI 回复 所以做了 VerbatimFlow: -

用过 Mac 上的几款主流语音输入工具。三个问题让我决定干脆 “3D 打印一个”:

1. 改我的原话。我说 A 它输出 B,“帮你润色”我没要求啊
2. 按键卡住不释放。松手了还在录,只能再按一次
3. 把我的话当问题回答。我在用输入法打字,它给我生成了一段 AI 回复

所以做了 VerbatimFlow:

-
Axton (@axtonliu) 's Twitter Profile Photo

用 NotebookLM 把 OpenClaw 安全测试那篇文章做成了幻灯片。 深色赛博朋克风格跟安全主题意外地搭,越来越漂亮了。 NotebookLM 四张图过一遍核心发现: 模型安全 vs 系统安全、供应链危机、部署红线清单。 用它,但别裸跑它。

用 NotebookLM 把 OpenClaw 安全测试那篇文章做成了幻灯片。
深色赛博朋克风格跟安全主题意外地搭,越来越漂亮了。 <a href="/NotebookLM/">NotebookLM</a>

四张图过一遍核心发现:
模型安全 vs 系统安全、供应链危机、部署红线清单。

用它,但别裸跑它。
Axton (@axtonliu) 's Twitter Profile Photo

这就是我从不依赖自动 compact 的原因。 Summer Yue 的 OpenClaw 清空了她的邮箱:上下文太长触发自动压缩,压缩过程把「别动手」的指令丢了。 我每天用 Claude Code 高强度工作,早就踩过类似的坑,总结了两个习惯: 1)定期手动让 AI 记录工作日志,把关键上下文固化 2)然后手动压缩并带 focus

Axton (@axtonliu) 's Twitter Profile Photo

不知道该用 Prompt、Skill 还是 Sub-agent? 两个问题就够了。 第一问:这件事需要跨对话复用吗? 不需要 → 直接用 Prompt,别折腾。 第二问:需要多个角色协作吗? 不需要 → 能力包型 Skill,一个人按规矩办事。 需要 → 软编排型 Skill + Sub-agents,团队各司其职。

不知道该用 Prompt、Skill 还是 Sub-agent?

两个问题就够了。

第一问:这件事需要跨对话复用吗?
不需要 → 直接用 Prompt,别折腾。

第二问:需要多个角色协作吗?
不需要 → 能力包型 Skill,一个人按规矩办事。
需要 → 软编排型 Skill + Sub-agents,团队各司其职。