君子中庸 (@chinese_xu) 's Twitter Profile
君子中庸

@chinese_xu

君子中庸,小人反中庸。己所不欲勿施于人。

ID: 112932815

linkhttp://www.ba2ops.com calendar_today10-02-2010 04:55:41

90,90K Tweet

12,12K Takipçi

430 Takip Edilen

Yangyi (@yangyixxxx) 's Twitter Profile Photo

很多人说,大模型时代创业很容易死。其实这也分怎么做,非要去跟openAI卷,那确实是容易死。 AI时代你只要搞明白,输入端和输出端,至于里面的黑盒技术怎么变化,无关紧要。 这就意味着,如果你是从底层往上做,盒子随便换,表现层也可以随便换,但本质从没发生过改变 我举个例子,比如invideo

AIGCLINK (@aigclink) 's Twitter Profile Photo

牛,Anthropic开源了一套追踪大模型思路的工具:电路追踪,把AI的“大脑”打开 通过生成归因图来展示模型内部的决策过程,揭示模型内部是怎样一步步决定最终输出的 可以通过修改特征值,观察模型输出的变化来测试假设 用Neuronpedia给的交互式前端,还可以直观的探索分析归因图 #Anthropic

牛,Anthropic开源了一套追踪大模型思路的工具:电路追踪,把AI的“大脑”打开

通过生成归因图来展示模型内部的决策过程,揭示模型内部是怎样一步步决定最终输出的

可以通过修改特征值,观察模型输出的变化来测试假设

用Neuronpedia给的交互式前端,还可以直观的探索分析归因图

#Anthropic
yetone (@yetone) 's Twitter Profile Photo

终于找到一个现实世界中验证我之前的这个表达的情况了,就是阿里云由于长期在他们的样例代码中硬编码 secret key,不仅仅容易导致用户把硬编码的密钥提交在 git 中,更严重的是还会导致大模型生成阿里云相关代码的时候都是驱使你去硬编码密钥 mp.weixin.qq.com/s/Pi91QVkDjPKL…

终于找到一个现实世界中验证我之前的这个表达的情况了,就是阿里云由于长期在他们的样例代码中硬编码 secret key,不仅仅容易导致用户把硬编码的密钥提交在 git 中,更严重的是还会导致大模型生成阿里云相关代码的时候都是驱使你去硬编码密钥

mp.weixin.qq.com/s/Pi91QVkDjPKL…
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞 (@tangsoft) 's Twitter Profile Photo

生命为何能涌现为一个“稳定的可计算结构”? 作者的核心命题是—— “生命并不是一个谜,而是一个可计算的涌现结构。” 这个观点融合了: •物理信息论(Landauer) •自动机理论(冯·诺依曼) •自组织系统理论(Prigogine、Pross) •极简语言实验(BFF) 并最终指向一个令人激动的问题: 🌱

A股证券交易员 (@andrew_fdwt) 's Twitter Profile Photo

比亚迪李云飞:最近好多朋友给我说,看到大量的文章、评论还有视频,都暗指我们是“汽车圈恒大”!说实话,我很困惑,感觉又好气又好笑!这一切源于上周长城汽车魏总的惊人言论:“现在汽车产业里边的“恒大”,已经存在了,只不过没爆而已”。

比亚迪李云飞:最近好多朋友给我说,看到大量的文章、评论还有视频,都暗指我们是“汽车圈恒大”!说实话,我很困惑,感觉又好气又好笑!这一切源于上周长城汽车魏总的惊人言论:“现在汽车产业里边的“恒大”,已经存在了,只不过没爆而已”。
马东锡 NLP 🇸🇪 (@dongxi_nlp) 's Twitter Profile Photo

「RLVR, Table Reasoning」 Table-R1: Inference-Time Scaling for Table Reasoning Inference-Time Scaling 并非数学或coding的专属,在高结构化数据推理中,也可把“想得更久”转化为性能。 跳出math和coding的盒子,作者首次将 ITS 系统性地迁移到结构化数据(如 tabular data)推理的研究。

「RLVR, Table Reasoning」

Table-R1: Inference-Time Scaling for Table Reasoning

Inference-Time Scaling 并非数学或coding的专属,在高结构化数据推理中,也可把“想得更久”转化为性能。

跳出math和coding的盒子,作者首次将 ITS 系统性地迁移到结构化数据(如 tabular data)推理的研究。
Tanishq Mathew Abraham, Ph.D. (@iscienceluvr) 's Twitter Profile Photo

How much do language models memorize? "We formally separate memorization into two components: unintended memorization, the information a model contains about a specific dataset, and generalization, the information a model contains about the true data-generation process. When we

How much do language models memorize?

"We formally separate memorization into two components: unintended memorization, the information a model contains about a specific dataset, and generalization, the information a model contains about the true data-generation process. When we
张蔓蔓 (@zhangmanman555) 's Twitter Profile Photo

“我也没眨眼啊……”小学生成功挑战“五人车轮跳”,节奏丝滑无比,这些小朋友的左右手协调能力太强了👍

凡人小北 (@fanrenxiaobei) 's Twitter Profile Photo

Google 最近有点疯。I/O 刚甩出一堆 AI… 结果这两天,我在 GitHub 看到它又丢了个狠东西: Gemini Fullstack LangGraph Quickstart 我原本以为是那种“又一个 AI demo 项目”,结果一跑…靠,这套结构直接能改成一个 Perplexity mini。 从提问 → 拆 query → 多轮搜索 → 反思 → 再查 →