Smiling (@smiling_xu) 's Twitter Profile
Smiling

@smiling_xu

0x82a6d364a7A4b1ecD715a4BFA107855B9E55B088

ID: 3608984175

calendar_today10-09-2015 12:21:39

385 Tweet

49 Takipçi

344 Takip Edilen

小元 (@btcxiaoyuan) 's Twitter Profile Photo

接下来布局两个币: 1,GAL (web3系列,目前底部) 挂单:2.1附近 2,NEAR (钱包币系列,目前底部) 挂单:2.1附近 以上两个盈亏自己看着来,亏了就吃土,赚了点帝王蟹!

令狐 (@socolcn) 's Twitter Profile Photo

1/ 错过了 $ARB 空投? 不用焦虑,我们发现了 6 位聪明的空投猎人,他们获得了几乎所有的大型空投。 包括: $ARB、$OP、$BLUR、$SOS、$LOOKS、$ENS、$DYDX、$1INCH、$UNI、$HOP、$FORTH、$GTC。 关注他们,以防错过下一次空投。

1/ 错过了 $ARB 空投?

不用焦虑,我们发现了 6 位聪明的空投猎人,他们获得了几乎所有的大型空投。

包括:

$ARB、$OP、$BLUR、$SOS、$LOOKS、$ENS、$DYDX、$1INCH、$UNI、$HOP、$FORTH、$GTC。

关注他们,以防错过下一次空投。
jiayuan (@tisoga) 's Twitter Profile Photo

再来推荐一下 The Great CEO Within 这本书,first time founder 必读。 系统介绍了创业早期到中期阶段要做的所有事情: - 个人习惯 - 团队习惯 - 组织架构 - 协作方式 - 融资、招聘、销售流程 作者 Matt Mochary 曾是 OpenAI 创始人 Sam Altman 的导师。

再来推荐一下 The Great CEO Within 这本书,first time founder 必读。

系统介绍了创业早期到中期阶段要做的所有事情:
- 个人习惯
- 团队习惯
- 组织架构
- 协作方式
- 融资、招聘、销售流程

作者 Matt Mochary 曾是 OpenAI 创始人 Sam Altman 的导师。
倪爽 (@nishuang) 's Twitter Profile Photo

如果想学会 ChatGPT、把它作为竞争工具,推荐这个 Prompt Engineering 基础教程 learningprompt.wiki 我也断断续续在这儿学习来着 如果真的想学一个知识、技能、方法、方法论…最基础的方法是找到一手的人、学习一手资料 比如学 GPT,可以学习 GPT 专家、开发者、创业公司,或者用 GPT

如果想学会 ChatGPT、把它作为竞争工具,推荐这个 Prompt Engineering 基础教程

learningprompt.wiki

我也断断续续在这儿学习来着

如果真的想学一个知识、技能、方法、方法论…最基础的方法是找到一手的人、学习一手资料

比如学 GPT,可以学习 GPT 专家、开发者、创业公司,或者用 GPT
黄赟 (@huangyun_122) 's Twitter Profile Photo

这是吴恩达 ChatGPT Prompt 最后一次课的总结: mp.weixin.qq.com/s?__biz=MzI2Nj… 本节课分享两个技巧: transforming & expanding transforming, 转换。自然语言的转换和计算机语言的转换;文本格式到范式化转换。细分都是赛道 expanding: 即无中生有。我用了令狐冲的例子,笑死

这是吴恩达 ChatGPT Prompt 最后一次课的总结:

mp.weixin.qq.com/s?__biz=MzI2Nj…

本节课分享两个技巧: transforming & expanding 

transforming, 转换。自然语言的转换和计算机语言的转换;文本格式到范式化转换。细分都是赛道

expanding: 即无中生有。我用了令狐冲的例子,笑死
AlexZ 🦀 (@blackanger) 's Twitter Profile Photo

在学习完吴恩达老师课程之后,又发现了哈佛大学 CS50 利用 GPT-4 打造智能程序的课程,这不是巧了吗?正好学完 Prompt 知识就无缝衔接上这个课程了,于是又做了 CS50 的思维导图。

在学习完吴恩达老师课程之后,又发现了哈佛大学 CS50 利用 GPT-4 打造智能程序的课程,这不是巧了吗?正好学完 Prompt 知识就无缝衔接上这个课程了,于是又做了 CS50 的思维导图。
AlexZ 🦀 (@blackanger) 's Twitter Profile Photo

CS50 这门课程里,Ted 有个重要的观点:Python 将在未来几年内将变得不再重要。原因见思维导图。

GPTDAOCN-e/acc (@gptdaocn) 's Twitter Profile Photo

LLaMa已经被超越了。一种全新的大型语言模型,名为Falcon 40B,现在领先于开放排行榜。 这个新模型有一些特别的特性: - 被调整以高效推理(意味着它在处理和生成响应时效率更高) - 类似于Unity的许可证,允许商业使用(这意味着开发者可以在他们的商业项目中使用这个模型) -

LLaMa已经被超越了。一种全新的大型语言模型,名为Falcon 40B,现在领先于开放排行榜。

这个新模型有一些特别的特性:
- 被调整以高效推理(意味着它在处理和生成响应时效率更高)
- 类似于Unity的许可证,允许商业使用(这意味着开发者可以在他们的商业项目中使用这个模型)
-
GPTDAOCN-e/acc (@gptdaocn) 's Twitter Profile Photo

羊驼家族的开源llm狂欢就要开始了👏 自动测试分数达到ChatGPT的99.3%,人类难以分辨两者的回答…… 这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。 更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从>780GB降低到<48GB。

羊驼家族的开源llm狂欢就要开始了👏
自动测试分数达到ChatGPT的99.3%,人类难以分辨两者的回答……

这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。

更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从&gt;780GB降低到&lt;48GB。
AI Will (@financeyf5) 's Twitter Profile Photo

思想树(🌲Tree-of-Thought)是LLM领域的最新尝试,提升了解决问题的能力。 在实验24点游戏案例里,ChatGPT 解决问题的成功率从 4% 提高到 74%。 这里有最新的 4 步Prompt,让你在你的ChatGPT里也可以实践这个方法 发现思想之树的力量

思想树(🌲Tree-of-Thought)是LLM领域的最新尝试,提升了解决问题的能力。

在实验24点游戏案例里,ChatGPT 解决问题的成功率从 4% 提高到 74%。

这里有最新的 4 步Prompt,让你在你的ChatGPT里也可以实践这个方法

发现思想之树的力量
Miles Deutscher (@milesdeutscher) 's Twitter Profile Photo

The SEC has named these 19 tokens as securities throughout the Binance + Coinbase filings. This could have massive implications for these tokens, and the industry as a whole. Some quick thoughts.👇 (1/9)

The SEC has named these 19 tokens as securities throughout the Binance + Coinbase filings.

This could have massive implications for these tokens, and the industry as a whole.

Some quick thoughts.👇 (1/9)
GPTDAOCN-e/acc (@gptdaocn) 's Twitter Profile Photo

训练自己的大语言模型(LLM)的九大理由 1.、数据隐私:你的数据在自己的控制之下,不会被泄露给竞争对手或遭受第三方数据泄露的风险。 2.、所有权:你的团队能够自行构建和控制模型,同时建立和增强自己的AI技术和专业知识。

训练自己的大语言模型(LLM)的九大理由

1.、数据隐私:你的数据在自己的控制之下,不会被泄露给竞争对手或遭受第三方数据泄露的风险。

2.、所有权:你的团队能够自行构建和控制模型,同时建立和增强自己的AI技术和专业知识。
GPTDAOCN-e/acc (@gptdaocn) 's Twitter Profile Photo

如何使用Lamini准备数据并训练大型语言模型 你可以使用Lamini训练大型语言模型,通过编写代码将你的数据从数据仓库或数据湖中获取。

如何使用Lamini准备数据并训练大型语言模型

你可以使用Lamini训练大型语言模型,通过编写代码将你的数据从数据仓库或数据湖中获取。
GPTDAOCN-e/acc (@gptdaocn) 's Twitter Profile Photo

GPT-4在由麻省理工学院(MIT)数学和计算机科学的30个必修课程组成的4450个问题的考试中,得分完美(100%): arxiv.org/abs/2306.08997

GPT-4在由麻省理工学院(MIT)数学和计算机科学的30个必修课程组成的4450个问题的考试中,得分完美(100%):

arxiv.org/abs/2306.08997
GPTDAOCN-e/acc (@gptdaocn) 's Twitter Profile Photo

复旦团队:全参数微调用于资源有限的大语言模型 单台机器能够微调65B参数的LLaMA 这项技术使得一个只有8块RTX 3090显卡(每块显存24GB)的单一机器能够完全微调一个拥有65B参数的模型。 代码库:github.com/OpenLMLab/LOMO 文章链接:arxiv.org/abs/2306.09782

复旦团队:全参数微调用于资源有限的大语言模型 

单台机器能够微调65B参数的LLaMA

这项技术使得一个只有8块RTX 3090显卡(每块显存24GB)的单一机器能够完全微调一个拥有65B参数的模型。

代码库:github.com/OpenLMLab/LOMO
文章链接:arxiv.org/abs/2306.09782