Moto Fukao (@moto_f) 's Twitter Profile
Moto Fukao

@moto_f

Engineer, AI

#Obsidian

ID: 89463834

calendar_today12-11-2009 15:02:11

1,1K Tweet

173 Takipçi

179 Takip Edilen

数理の弾丸⚡️YouTubeでAI解説 (@_mathbullet) 's Twitter Profile Photo

DeepSeek-AIの新手法 mHC(manifold-constrained hyper-connections)を、背景から手法の詳細までみっちり解説しました!! 直観的にも数理的にも理解できる構成にしているので、キャッチアップにぜひ活用してください🥳 youtu.be/IBBI0HueYyo

Moto Fukao (@moto_f) 's Twitter Profile Photo

この説明が秀逸 ``` while 1 response = llm.call(prompt, messages) if !response.toolCalls: return for toolCall in toolCalls: messages.append(toolCall.execute) ``` zenn.dev/layerx/article…

Moto Fukao (@moto_f) 's Twitter Profile Photo

20年前に携帯代として¥10,000/月は当たり前だったのに同等額のAI代が高いと感じてしまうケチな自分がいる

Moto Fukao (@moto_f) 's Twitter Profile Photo

コンペに参加してみてファインチューニングの難しさがわかったので、こういうニュースの技術的な凄さを実感する

Moto Fukao (@moto_f) 's Twitter Profile Photo

Llamaとllama.cppは完全に別物 Llama(大文字)→ Metaが開発したモデルシリーズ llama.cpp(小文字)→ Georgi Gerganovの個人プロジェクト

Moto Fukao (@moto_f) 's Twitter Profile Photo

記事を書くときにあえて校正せず、むしろ誤字を残してAIによる記事じゃないことを暗に伝える

Moto Fukao (@moto_f) 's Twitter Profile Photo

むかしはプログラミングにおいて物理メモリの使い方が大切だったように、現代ではコンテキストウィンドウを無駄に使わないことがとても大切

Moto Fukao (@moto_f) 's Twitter Profile Photo

LLMはステートレスなテキストサービスだ Deep research とかTool Useとか継続学習とか複雑なことをやってそうだけどLinuxで動くサービスとしてのインターフェースは変わらない

Andrej Karpathy (@karpathy) 's Twitter Profile Photo

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating

Moto Fukao (@moto_f) 's Twitter Profile Photo

AIの進化を阻んでいるのVRAMのサイズ TurboQuantはそのボトルネックを解消する技術 2020年のGPT-3から2026年のClaude Codeにいたるまで最前線のモデルは、3桁ビリオン規模に留まっているのはコスト的にそれ以上VRAMを積めないから

Moto Fukao (@moto_f) 's Twitter Profile Photo

夕方老眼ってカメラの被写界深度に通じてるんだ 瞳孔=絞り 暗くなると瞳孔が大きくなりピントが合いづらくなる 朝からの時間経過による疲労とのダブルパンチを受ける