Jerome.Y. (@alterxyz4) 's Twitter Profile
Jerome.Y.

@alterxyz4

Technical Philosopher | DevRel & User @dify_ai | 实现与哲学工作 | 翻译与被翻译者 | 这里当草稿本随便写写,仅代表个人

ID: 1904556522900013056

linkhttps://alterxyz.github.io/gitblog/ calendar_today25-03-2025 15:30:41

930 Tweet

182 Followers

150 Following

Jerome.Y. (@alterxyz4) 's Twitter Profile Photo

Cloudflare 是真的技术人文又强又黑 - 黑科技比如熔岩灯和他家人机验证系统.. 人文侧面比如他家定价 - 赛博菩萨, blog.cloudflare.com/unpacking-clou… 这篇文章里的 "...benefit all our customers, and even many who aren't our customers."

Jerome.Y. (@alterxyz4) 's Twitter Profile Photo

这个思路确实也不错的, 用已有的模板 (第一方或者 UGC) 然后根据情况再微调. 现在有个小问题是 Dify 是真不收集那种数据和用户的模板/DSL 🤡...

Jerome.Y. (@alterxyz4) 's Twitter Profile Photo

看着像 CLAUDE.md 的 跨平台版, 以及结合了可复用的偏好 资料 prompt instruction workflow 小工具 (都是文件形态).

Shelly (@0xshellywang) 's Twitter Profile Photo

𝗖𝘆𝗱𝗶𝗮𝗿 C 大补充说得好。Workflow 确实是奔着结果去的。但结果这个东西,就像钓鱼,你能控制鱼竿、鱼线、鱼饵,就是控制不了鱼。 这里面有个特别有意思的现象。同样一套 workflow 的组件,给十个人用,能跑出十种效果。不是工具不一样,是人不一样。就像 Vibe

ginobefun (@hongming731) 's Twitter Profile Photo

本周 BestBlogs 精选内容已邮件推送,欢迎阅读 bestblogs.dev/newsletter/iss… ----------------------------- 🚀 模型与研究亮点: ✨ Anthropic 发布了 Claude Haiku 4.5 ,该小模型以其接近顶尖的编码性能、显著的成本效益和更快的处理速度,重新定义了高智能 AI 的可及性与效率。 🎬 谷歌 DeepMind

本周 BestBlogs 精选内容已邮件推送,欢迎阅读 bestblogs.dev/newsletter/iss…

-----------------------------

🚀 模型与研究亮点:

✨ Anthropic 发布了 Claude Haiku 4.5 ,该小模型以其接近顶尖的编码性能、显著的成本效益和更快的处理速度,重新定义了高智能 AI 的可及性与效率。
🎬 谷歌 DeepMind
Jerome.Y. (@alterxyz4) 's Twitter Profile Photo

人和 agent 都很像, 消息给到位, 性能才能高. 不过人自带一套远超目前 context engineering 能实现的上下文切分和管理啥的, 包括但不限于 “轻重缓急” 的区分上. 也可能是和当下 LLM 朝生暮死之类的(我们)实现属性有关?

ginobefun (@hongming731) 's Twitter Profile Photo

在与礼来首席数字官的访谈中,Dario Amodei 提出了一个极具冲击力的观点,直指当前企业实施 AI 时最大的一个悖论。这个反共识的观点是:不要用今天的 AI 能力去优化昨天的流程,而要用明天的 AI 潜力去设计明天的流程。 大多数公司都在做前者,Dario Amodei

在与礼来首席数字官的访谈中,Dario Amodei 提出了一个极具冲击力的观点,直指当前企业实施 AI 时最大的一个悖论。这个反共识的观点是:不要用今天的 AI 能力去优化昨天的流程,而要用明天的 AI 潜力去设计明天的流程。

大多数公司都在做前者,Dario Amodei
Bear Liu (@bearbig) 's Twitter Profile Photo

我发现医生其实挺像人工智能的,也会“智能调档”。 像你去医院看病,如果医生发现你不太懂医学的东西,他们说话就会特别简单,尽量用最白话的方式跟你解释,不让你听着一头雾水。 但要是你表现得懂点,比如能跟上几个术语,医生立马换模式,开始讲得更专业了,有时候连病名都不翻译了,直接上干货。

即刻精选 (@jike_collection) 's Twitter Profile Photo

因为它没有把短期记忆存进长期记忆的机制。它所谓的“长期记忆”,只是那几千亿个固定的参数。 而在人类大脑中,“海马体”会在睡眠时把当天的记忆整理、归档、保存。AI没有这一环节,所以你没法“教”它任何东西。每次对话,都是从零开始。 除了记不住,它还学得很笨。

宝玉 (@dotey) 's Twitter Profile Photo

OpenAI 发表了一篇《怎样才算好文档》的指南,很值得学习,最核心的一点:写文档是一种同理心的体现 很多开发者在写文档的时候估计都没有站在阅读这些文档的开发者的角度去思考这个问题,比如大家吐槽良多的支付宝的文档、微信的开发文档😂 里面有几个要点: - 让文档易于“扫读” →

Yangyi (@yangyixxxx) 's Twitter Profile Photo

共有知识和公共知识看起来只有一个差别 就是有没有人公开的说出一句大家都知道的废话 但造成的结果却天差地别 在multiagents的协同中,一样也会出现这个情况 当上下文管理出现问题时,比如该私发的却广播了,这种情况对系统结果的影响也是巨大的 我觉得设计multiagent之所以难

Jerome.Y. (@alterxyz4) 's Twitter Profile Photo

multi agent 做到后面是仿生(人)和仿社会(政治)这两个作为核心。 人和社会里会犯的错,agent multi-agent 一样会犯,会需要应对。 这是大半年前和同事讨论时,我个人的观点…

Jerome.Y. (@alterxyz4) 's Twitter Profile Photo

File based agent 是个很第一性原则的实现 今天在被问到一个新东西我打算要怎么实现我就说用个类cc的加一些文件夹就完事了😂

wwwyesterday (@wwwyesterday) 's Twitter Profile Photo

deepseek ocr 代表着一种类人路线,在这个方向上应该有很多其他的方法会逐渐涌现。 其实我是很想看到那种超人方法的,但感觉上好像不太做得到。 因为我们使用的语言本身就是人类在使用的,没有超脱人这个范畴,在语言当中找出语言之外的东西我觉得挺难。

汉松 (@yonah_x) 's Twitter Profile Photo

我们团队开源了 Multi-Agent 强化学习的框架 MrlX,它能够让你同时训练多个 Agent 模型。 当我们试图让大模型变得更聪明时,大多数人都在做同样的事:训练一个模型,让它自己跟自己对话,希望它能学会反思验证,能学会使用工具。 但如果你仔细想想,这其实很奇怪。

我们团队开源了 Multi-Agent 强化学习的框架 MrlX,它能够让你同时训练多个 Agent 模型。

当我们试图让大模型变得更聪明时,大多数人都在做同样的事:训练一个模型,让它自己跟自己对话,希望它能学会反思验证,能学会使用工具。

但如果你仔细想想,这其实很奇怪。