loonggg (@kengguanglong) 's Twitter Profile
loonggg

@kengguanglong

自由职业者,我是行痴,字知无畏,号默庵,少年痴行 → 壮岁无畏 → 暮年归默!是一名「知识挖掘师」兼「知识布道师」,关注我,带你一起探寻财富与精神自由之路。

ID: 771113795850678272

calendar_today31-08-2016 22:33:50

240 Tweet

75 Followers

206 Following

loonggg (@kengguanglong) 's Twitter Profile Photo

给大家推荐一个开源项目,叫 CleanMyPc。 Atlas for Mac,一款原生的 macOS 应用。它主要解决的问题很明确:你的 Mac 为什么越来越慢,磁盘为什么越来越满,系统为什么越来越乱。找到原因之后,它还能帮你安全地处理这些问题,而且所有操作都可以恢复,不用担心误删。 目前这个 MVP

loonggg (@kengguanglong) 's Twitter Profile Photo

DESIGN.md 正式发布为开放标准了,期待 Codex、Claude Code、Cursor 这些工具能尽快跟进支持。 这个规范的核心思路是做一个双层结构:上层给机器读,下层给人读。 先说机器层。文件顶部用 YAML Front Matter 定义精确的设计

DESIGN.md 正式发布为开放标准了,期待 Codex、Claude Code、Cursor 这些工具能尽快跟进支持。

这个规范的核心思路是做一个双层结构:上层给机器读,下层给人读。

先说机器层。文件顶部用 YAML Front Matter 定义精确的设计
loonggg (@kengguanglong) 's Twitter Profile Photo

OpenAI 今天放了个大招:ChatGPT 里可以直接创建「工作区智能体」了。 简单说就是,你可以在 ChatGPT 里搭一个 AI

loonggg (@kengguanglong) 's Twitter Profile Photo

这个开源项目太特么厉害了,叫 Anything to NotebookLM,是一个多源内容智能处理器,一个开源的 Agent Skill 。 它做的事情很简单也很强大:用自然语言把任何内容转换成任何格式。 比如你跟它说,把这篇微信公众号文章生成一期播客,它就能自动抓取文章内容,上传到 Google

loonggg (@kengguanglong) 's Twitter Profile Photo

每次一个生图模型火爆,都会有很多人使用生图模型来制作各种各样的信息图,Nano Banana Pro 火的时候,各种信息图,各种密密麻麻的文字 PPT ,我想问一句:有人看吗? 现在 GPT Image 2 火了,又来一遍。 AI

loonggg (@kengguanglong) 's Twitter Profile Photo

凌晨 OpenAI 放了个大的,GPT-5.5 正式发布,是 GPT-5 系列迄今为止最大的一次更新。 一句话总结这次升级的核心:用更少的 token,干更难的活。 在第三方评测机构 Artificial Analysis 的 Coding Agent 排行榜上,GPT-5.5

loonggg (@kengguanglong) 's Twitter Profile Photo

发现一个宝藏笔记应用,叫 Tolaria,macOS 上的,专门为 AI 协作场景设计的。可以理解为一个轻量版的 Obsidian。 如果你感觉 Notion 的体验很好,但又不想把数据全交给云端。你喜欢 Obsidian 支持本地存储,但感觉它体积臃肿,用起来也不够顺手。那 Tolaria 几乎就是为你这类人量身定做的。

发现一个宝藏笔记应用,叫 Tolaria,macOS 上的,专门为 AI 协作场景设计的。可以理解为一个轻量版的 Obsidian。

如果你感觉 Notion 的体验很好,但又不想把数据全交给云端。你喜欢 Obsidian 支持本地存储,但感觉它体积臃肿,用起来也不够顺手。那 Tolaria 几乎就是为你这类人量身定做的。
loonggg (@kengguanglong) 's Twitter Profile Photo

你有没有发现,那些做副业真赚到钱的人,没有一个是想清楚了才动手的。他们起步的时候跟你一样迷茫,甚至比你还糙。区别在于,人家已经干了三个月,你还在收藏第 200 篇《副业入门指南》。

loonggg (@kengguanglong) 's Twitter Profile Photo

最近有很多人加我微信,来咨询去除AI味的方法。我的答案还是老样子,依然是那个观点:AI味的本质,就是AI不停地写车轱辘话,也就是正确的废话,看着有道理,其实没有什么用。这是因为你没有给AI足够的上下文和资料,AI只能写这种车轱辘话,所以这才是AI味的本质。

loonggg (@kengguanglong) 's Twitter Profile Photo

Every 的播客最近聊了一个特别好的比喻:AI 工作流就像一个三明治。AI 是中间的馅料,人类是两头的面包。 这个比喻来自 Kieran Klaassen,他是 Every 旗下产品 Cora 的总经理,也是「复合工程」方法论的创造者。他在用 AI

Every 的播客最近聊了一个特别好的比喻:AI 工作流就像一个三明治。AI 是中间的馅料,人类是两头的面包。

这个比喻来自 Kieran Klaassen,他是 Every 旗下产品 Cora 的总经理,也是「复合工程」方法论的创造者。他在用 AI
loonggg (@kengguanglong) 's Twitter Profile Photo

AI 能力的提升越来越多地来自「把模型包进智能体循环里」,让它能搜索、合成、自我审查、反复迭代。单纯提升模型本身的能力是一条路,把模型变成一个能自我纠错的工作流是另一条路,而后者正在成为主流。

loonggg (@kengguanglong) 's Twitter Profile Photo

DeepSeek 今天正式发布了 V4 预览版,同步开源。这次更新有几个值得关注的点。 首先是百万上下文成为标配。DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合他们自研的 DSA 稀疏注意力技术,实现了

loonggg (@kengguanglong) 's Twitter Profile Photo

腾讯的混元 Hy3 Preview 昨天正式亮相了。这个模型由腾讯首席 AI 科学家姚顺雨主导,他说这是混元大模型重建的第一步。去年年底姚顺雨加入腾讯,负责 AI Infra 和大语言模型,今年 1 月底才启动训练,三个月就完成了从训练到上线,速度很快。 但比起速度,Hy3 Preview

腾讯的混元 Hy3 Preview 昨天正式亮相了。这个模型由腾讯首席 AI 科学家姚顺雨主导,他说这是混元大模型重建的第一步。去年年底姚顺雨加入腾讯,负责 AI Infra 和大语言模型,今年 1 月底才启动训练,三个月就完成了从训练到上线,速度很快。

但比起速度,Hy3 Preview