BadUncle (@badunclex) 's Twitter Profile
BadUncle

@badunclex

AI吃掉世界从ai coding开始

ID: 9574172

calendar_today21-10-2007 05:23:13

2,2K Tweet

4,4K Followers

836 Following

BadUncle (@badunclex) 's Twitter Profile Photo

cc使用Opus Plan Mode之后有一个需求还没有满足,按shift tab之后进入执行阶段,模型确实切换到了sonnet. 现在问题是,整个过程它没法再自动回到plan模式了(Opus),实际观察整个过程会发现它并没有完整的规划所有的内容,Todos列表新任务理论上还是需要继续规划的

BadUncle (@badunclex) 's Twitter Profile Photo

你以为ai不会摸鱼,它方法可不少 比如一旦你放弃手工确认,使用shift tab让它接管,立刻给你任务缩水,我在plan阶段看到它很明确说会创建100个文档,等到完成的时候,好家伙,只有10个 之前还看到它摸鱼的一种用词,“剩余的内容让我快速创建”

BadUncle (@badunclex) 's Twitter Profile Photo

不论断其实是一个很好的自我修炼,我之前做的就不好 有一句话叫“看到真相后我不禁流下泪来”,说明获得全貌是何其难,因为信息挖掘需要时间和成本,而这是稀缺资源,因此大脑总是会想办法快速下结论 这个呼应了前一篇ai自动化带来的弊端类似

BadUncle (@badunclex) 's Twitter Profile Photo

体验一下claude code的量子纠缠状态。 ---多agent的坑 是说, 观察者的干预会影响被观察者自身的状态, 是不是听起来挺抽象的,来一个具体的例子。 让cc处理一本书,提取知识点,构建笔记。 如果你不做过多约束,仅仅说:“将这本书按章节提取有用的笔记”,那么它会正常做, 比如第一章12条,

BadUncle (@badunclex) 's Twitter Profile Photo

大模型对长时间运行的任务,或者对长内容的创建, 具有基因级别的深深恐惧 一旦它说高效,它就真的要准备给你搞笑了 这可能就是前端prompt和workflow要解决的问题, 知道它的缺陷,回避它的缺陷。 我现在更多是手工esc打断, 然后大喝一声:住口!

大模型对长时间运行的任务,或者对长内容的创建, 具有基因级别的深深恐惧

一旦它说高效,它就真的要准备给你搞笑了

这可能就是前端prompt和workflow要解决的问题, 知道它的缺陷,回避它的缺陷。

我现在更多是手工esc打断, 然后大喝一声:住口!
BadUncle (@badunclex) 's Twitter Profile Photo

今天有一个项目cc给我将内容搞串门了,跑到另一个项目目录保存,估计又是它的全局变量搞的鬼污染了。 不过我能及时发现要感谢这个statusLine插件,pyccsl 我配置的是folder + git,发现异常是folder和git不一样了,一查果然是搞串了 有兴趣的可以试用下, 可以实时显示当前模型以及其他token信息

今天有一个项目cc给我将内容搞串门了,跑到另一个项目目录保存,估计又是它的全局变量搞的鬼污染了。 

不过我能及时发现要感谢这个statusLine插件,pyccsl 

我配置的是folder + git,发现异常是folder和git不一样了,一查果然是搞串了

有兴趣的可以试用下, 可以实时显示当前模型以及其他token信息
BadUncle (@badunclex) 's Twitter Profile Photo

claude 和gpt5pro定位: 前者打江山,后者守江山。 Opus规划, gpt review Opus写代码, gpt debug GPT: 别看我自己做不行, 我批评人有一手,我是批评家。 真的是各安其位。

BadUncle (@badunclex) 's Twitter Profile Photo

CC 不善于长时间保持专注, 这个后面可以结合一些辅助工具,尽量将任务分割的细一点。 严格说任务分割的细一点还不对, 因为如果它的todo list太长, 它也会陷入焦虑中, 然后就来一句 “剩下的让我加快时间完成” 应该将它当做一个孩子,

BadUncle (@badunclex) 's Twitter Profile Photo

建议少用mcp的一个原因,工具放在那很多时候是信息噪音,就是你的mcp工具越多,噪音越大,它不能精确的知道什么时候该调用什么时候不调用 索性就给你能调用的时候一直调用,搞的你很烦 其实自定义agent也有这个问题 我最近自定义agent都删了,给大模型减负

BadUncle (@badunclex) 's Twitter Profile Photo

在粪坑里是没办法得到有效反馈的 用tiktok和视频号举例 前者你说喜欢和不喜欢的类别,很快就按照你的真实意愿更新时间线 后者,你说你不喜欢什么,压根不理你,腾讯的技术不行? No,这个本质上和百度对搜索的体验是一个问题,它压根不想解决问题,它就想把更多的💩拉到你嘴里

BadUncle (@badunclex) 's Twitter Profile Photo

cc和创业公司有点像,一开始的时候干劲十足,你说1它就做了10了 然后规模化了,效率直线下降,老员工学会偷懒了,老板没办法只好开始上更加细化的管理,恨不得每完成一小部分就让它自检:符合计划目标的要求吗 到底是懒了,还是专注力下降了?还是兼而有之? 反正目前的情况cc一百万窗口我不敢用

BadUncle (@badunclex) 's Twitter Profile Photo

已经把claude全家桶改为coding全家桶 好消息是,cc之后新的cli不断迭代更新,分流了 Codex Cli更新很上头,O加的pro模型虽然慢,确实靠谱,虽然cli中不能直接用pro,确实潜力还没用完 机器越来越聪明,更不能偷懒了,应该让机器增强🧠

已经把claude全家桶改为coding全家桶

好消息是,cc之后新的cli不断迭代更新,分流了

Codex Cli更新很上头,O加的pro模型虽然慢,确实靠谱,虽然cli中不能直接用pro,确实潜力还没用完

机器越来越聪明,更不能偷懒了,应该让机器增强🧠
BadUncle (@badunclex) 's Twitter Profile Photo

codex 社区评价边界感好,比如只干必要的,可选部分作为和你交互的部分, 并且用提问的方式推动用户,给用户可选建议. 我最近在让ai帮我构建知识库, 过程中为了效率和验证一致性, codex构建了若干python脚本, 重复工作组件化. 有意思的是,cc也喜欢用脚本, 但是用完即删除了

BadUncle (@badunclex) 's Twitter Profile Photo

开始使用Comet, 测试一些基本场景,对比了下Dia,我拿x的内容自动浏览做总结, 确实能执行到位, 之前Dia有点困难. 不过看起来Comet这次热度没有之前Dia那么饥渴,估计这一块的阈值被调高了

BadUncle (@badunclex) 's Twitter Profile Photo

对codex的feature期待: 支持类似cc的plan模式,重点是plan模式支持pro模型 这样pro做5分钟的plan速度慢也可以接受,也符合人类直觉 然后就是high模型快速执行

BadUncle (@badunclex) 's Twitter Profile Photo

最近是怀旧时间,都想找回曾经的辉煌版本的cc,一个是模型版本降级,一个是客户端版本降级 比如npm install -g @anthropic-ai/[email protected] export DISABLE_AUTOUPDATER=1 进入玄学阶段 最近群主题就是,搭理奥是傻x

BadUncle (@badunclex) 's Twitter Profile Photo

Claude好像顶不住最近用户数据异常发了一篇专门研究报告解释原因,核心是3个bug叠加导致的排查困难,我估计用户骂的第一时间他们没当回事认为不存在问题,后来用户大面积逃离才觉得可能傻逼的是自己,他们认为截止9月16日全部修复,看看用户买不买账 大家在跑马拉松,这个哥们说自己太牛逼要往回跑

Claude好像顶不住最近用户数据异常发了一篇专门研究报告解释原因,核心是3个bug叠加导致的排查困难,我估计用户骂的第一时间他们没当回事认为不存在问题,后来用户大面积逃离才觉得可能傻逼的是自己,他们认为截止9月16日全部修复,看看用户买不买账

大家在跑马拉松,这个哥们说自己太牛逼要往回跑