taku minmin (@takuminmin0718) 's Twitter Profile
taku minmin

@takuminmin0718

技術の無駄遣い
uts1 (推10, 工) | AcademiX Base
DeepLearning | Rust | Ruby | cansat | G検定2021#1 | 科甲12th | UTokyoGSC-Next 5期生

ID: 1472351877610491911

calendar_today18-12-2021 23:44:09

2,2K Tweet

445 Followers

769 Following

taku minmin (@takuminmin0718) 's Twitter Profile Photo

ある程度毎日やることがあった方が楽かもしれない、多分大学毎日行ってる時の方がなんだかんだ元気かも

Trude⚙😈 (@gertrud_violett) 's Twitter Profile Photo

3Dプリンター作れる風洞のデータが公開されてるんだけど。。。??? nagare-giken.jp/mywindtunnel/ これ。。。? jstage.jst.go.jp/article/jaweam…

3Dプリンター作れる風洞のデータが公開されてるんだけど。。。???
nagare-giken.jp/mywindtunnel/

これ。。。?
jstage.jst.go.jp/article/jaweam…
からあげ (@karaage0703) 's Twitter Profile Photo

Dockerでuvを使う場合は、公式のイメージを使う方法もあったりします > uv + Ruff + mypyで構築する超軽量Python開発環境 - イメージサイズ削減・型安全性確保を実現|SIOS Tech. Lab tech-lab.sios.jp/archives/50142

DLHacks (@dl_hacks) 's Twitter Profile Photo

拡散モデルがなぜ簡単に“暗記”へ転ばないのか。今回の発表では、学習そのものが正則化として働き、まず汎化が立ち上がり、その後に暗記が始まるという二段階の時間スケール(τ_gen と τ_mem)を示しました。 docswell.com/s/DeepLearning…

Daisuke Okanohara / 岡野原 大輔 (@hillbig) 's Twitter Profile Photo

現在の拡散生成モデルはノイズ加えたデータから元のデータxを予測するのではなく、ノイズεを予測したり、速度vを予測するのが一般的である。しかし、観測空間が高次元のとき、元のデータは低次元多様体に属するのが期待されるのに対し、ノイズや速度は高次元データであり予測が難しい。この論文では改

Nobu-Kobayashi (@nyaa_toraneko) 's Twitter Profile Photo

Ryzen系のCPUにNVIDIAのビデオボードを積んでると、元からオンボードについている2GB VRAMが遊んでることが多い。 これ、活用できる方法ないかな、とChatGPTに相談してみたら 「RDP専用に割り振ると、メインボードのVRAM節約になるよ」 とのことだったので試してみたら、悪くない。

しゅんけー「📕Pythonで学ぶ画像生成」発売中! (@shunk031) 's Twitter Profile Photo

機械学習のコードにぴったりなデザインパターンすぎる 俺が一番好きなデザインパターン「Strategy Pattern」の話|かみけん zenn.dev/zozotech/artic… #zenn

からあげ (@karaage0703) 's Twitter Profile Photo

パソコンの大掃除したい人向け記事 > AI関係の開発者向けディスク容量削減方法|からあげ zenn.dev/karaage0703/ar… #zenn

りょうま@バックエンドエンジニア (@engineer_ryoma) 's Twitter Profile Photo

CloudFrontとS3の繋ぎこみをする際に、なまじS3から403エラーが返ってくるもんだから、権限周りにあたりをつけてポリシーのデバッグをし続けて3時間ぐらい溶かしたことあるエンジニア、この世に2300人ぐらいにいるはず。S3はnot found でも403エラーを返す生き物なんです。これテストに出ます。

からあげ (@karaage0703) 's Twitter Profile Photo

からあげ × #NVIDIAGTC にオンラインで参加して、DGX Sparkを当てよう🎉 抽選で1名様にNVIDIA DGX Sparkが当たる! ✅応募方法 ①この投稿をいいね&リポスト ②nvidia.com/ja-jp/gtc/?nci… からGTCに無料で参加登録 ③forms.gle/55n8raV3NZifvm… から、基調講演視聴のスクリーンショットを送り応募完了🎁

からあげ × #NVIDIAGTC にオンラインで参加して、DGX Sparkを当てよう🎉
抽選で1名様にNVIDIA DGX Sparkが当たる!

✅応募方法
①この投稿をいいね&リポスト
②nvidia.com/ja-jp/gtc/?nci… からGTCに無料で参加登録
③forms.gle/55n8raV3NZifvm… から、基調講演視聴のスクリーンショットを送り応募完了🎁
Yulu Gan (@yule_gan) 's Twitter Profile Photo

Simply adding Gaussian noise to LLMs (one step—no iterations, no learning rate, no gradients) and ensembling them can achieve performance comparable to or even better than standard GRPO/PPO on math reasoning, coding, writing, and chemistry tasks. We call this algorithm RandOpt.

Simply adding Gaussian noise to LLMs (one step—no iterations, no learning rate, no gradients) and ensembling them can achieve performance comparable to or even better than standard GRPO/PPO on math reasoning, coding, writing, and chemistry tasks. We call this algorithm RandOpt.