acc-mu3n (@acceleratedmu3n) 's Twitter Profile
acc-mu3n

@acceleratedmu3n

Software Engineer/CUDA/GPU/Deep Learning
日常のつぶやきと技術的な何か

ID: 1430878682814373894

calendar_today26-08-2021 13:04:08

3,3K Tweet

379 Takipçi

919 Takip Edilen

NVIDIA AI Developer (@nvidiaaidev) 's Twitter Profile Photo

Dynamo 0.4 is here and delivers 4x inference performance on Blackwell with disaggregated serving. ⚡️ New features include: • SLO-based disaggregated autoscaling • New disaggregated sizing tool • Real time LLM specific observability metrics • Fault tolerance inflight

Dynamo 0.4 is here and delivers 4x inference performance on Blackwell with disaggregated serving. ⚡️

New features include:
• SLO-based disaggregated autoscaling 
• New disaggregated sizing tool 
• Real time LLM specific observability metrics 
• Fault tolerance inflight
acc-mu3n (@acceleratedmu3n) 's Twitter Profile Photo

最近、自分のキャパを超えたものを捌き続けなくてはいけず、悩んでましたが、昨日は特にボロボロでした。 今日はもう少し頑張りたい。

acc-mu3n (@acceleratedmu3n) 's Twitter Profile Photo

時々個人が特定出来るpostをしてしまってはいるものの、アホな投稿をし過ぎていて公式アカとしてBioに晒すのは憚れる

Kazuki Fujii (@okoge_kaz) 's Twitter Profile Photo

AWSでH100を1枚単位で借りられるようになったようです👀 従来は、8GPU 1 Instance単位でないと借りられなかったので、利用を控えていた方多いと思いますが、これは朗報ですね。 aws.amazon.com/jp/about-aws/w…

Bryce Adelstein Lelbach (@blelbach) 's Twitter Profile Photo

Want to learn CUDA? We're teaching tutorials at NDC TechTown in Norway this September: CUDA C++ (Sep 22): nvda.ws/45EITdZ CUDA Python (Sep 23): nvda.ws/45C5uId Through hands-on exercises, we'll teach you how to write, benchmark, profile, and optimize GPU code!

Want to learn CUDA? We're teaching tutorials at NDC TechTown in Norway this September:

CUDA C++ (Sep 22): nvda.ws/45EITdZ
CUDA Python (Sep 23): nvda.ws/45C5uId

Through hands-on exercises, we'll teach you how to write, benchmark, profile, and optimize GPU code!
Oleksii Kuchaiev (@kuchaev) 's Twitter Profile Photo

We are excited to release Nvidia-Nemotron-Nano-V2 model! This is a 9B hybrid SSM model with open base model and training data. This model also supports runtime "thinking" budget control. HF collection with base and post trained models: huggingface.co/collections/nv…

We are excited to release Nvidia-Nemotron-Nano-V2 model! This is a 9B hybrid SSM model with open base model and training data. This model also supports runtime "thinking" budget control. HF collection with base and post trained models: huggingface.co/collections/nv…
Pavlo Molchanov (@pavlomolchanov) 's Twitter Profile Photo

📢New efficient Hybrid-SLM from NVIDIA-Nemotron-Nano-v2-9B: ❗️6x faster than Qwen3-8B because of Hybrid (Mamba2+Attention) design. We tried something new: pretrain & align a 12B reasoning model → compress to 9B. First real stab at reasoning-model compression. Key takeaways

📢New efficient Hybrid-SLM from NVIDIA-Nemotron-Nano-v2-9B:
❗️6x faster than Qwen3-8B because of Hybrid (Mamba2+Attention) design.

We tried something new: pretrain & align a 12B reasoning model → compress to 9B. 

First real stab at reasoning-model compression.

Key takeaways
Shinnosuke Furuya (@sfuruyaz) 's Twitter Profile Photo

今年の「不老」ユーザ会、NVIDIAからは第2回でも登場した村上が講演します。みなさまぜひご参加を。 LLM開発を支えるエヌビディアの生成AIエコシステム / 村上 真奈(エヌビディア合同会社)

Naoaki Okazaki (@chokkanorg) 's Twitter Profile Photo

事後学習済みLLM向け評価フレームワーク swallow-evaluation-instruct を開発し、MIT Licenseで公開しました。日本語と英語の高難易度ベンチマークに対応しており、統一された条件のもとで最先端LLMの性能を適切に測定できる新しい評価基盤です。 GitHub: github.com/swallow-llm/sw…

Daisuke Okanohara / 岡野原 大輔 (@hillbig) 's Twitter Profile Photo

Nemotron Nano 2 9B-v2はMamba-Transformerのハイブリット型言語モデルで、長い思考トレースの生成コストを抑え、22GB GPU1枚で128kトークン長の推論を実現、同規模モデルと比べ6倍のスループットを実現。事前・事後学習データセットが大幅に改善され、長文理解・数学・コードの性能が特に強い

理化学研究所(理研) (@riken_jp) 's Twitter Profile Photo

理化学研究所、富士通およびNVIDIAとの国際連携による「富岳NEXT」開発体制を始動 riken.jp/pr/news/2025/2…