動詞 (@img_5955) 's Twitter Profile
動詞

@img_5955

AI/MLエンジニア | co-author of StreamDiffusion | 今興味のあるもの → 生成AIのパーソナライゼーション, 画像生成の制御性, 画像の審美性評価, 推論高速化, Tuning-free Adaptation, V&L, ランニング, カラオケ, 映画

ID: 1717501450958577664

linkhttp://bento.me/verb calendar_today26-10-2023 11:20:39

679 Tweet

603 Followers

144 Following

AK (@_akhaliq) 's Twitter Profile Photo

LVCD Reference-based Lineart Video Colorization with Diffusion Models discuss: huggingface.co/papers/2409.12… We propose the first video diffusion framework for reference-based lineart video colorization. Unlike previous works that rely solely on image generative models to colorize

動詞 (@img_5955) 's Twitter Profile Photo

だんだん地声とミックスボイスの境界が曖昧になってきた。そろそろショボめの声区融合が為されそう

動詞 (@img_5955) 's Twitter Profile Photo

Diffusersならqkv fusionとか使ってもっと速い推論設定ができるのでそっちの方もそのうち出したい

Photogenic Weekend (@photogenicweeke) 's Twitter Profile Photo

追記.vaeは私のミスです済みません。taef1_decoder.pthとtaef1_encoder.pth 2つ必要(^^; で、flux1-dev-fp8動きました!途中OOM出ますが、無視して再挑戦何度かすると動きます。832x1216が5秒ちょい♪(#RTX4090) > 動詞 さん #flux1-dev-fp8 #AI美女 #AIグラビア

追記.vaeは私のミスです済みません。taef1_decoder.pthとtaef1_encoder.pth 2つ必要(^^; で、flux1-dev-fp8動きました!途中OOM出ますが、無視して再挑戦何度かすると動きます。832x1216が5秒ちょい♪(#RTX4090) &gt; <a href="/IMG_5955/">動詞</a> さん
#flux1-dev-fp8
#AI美女 #AIグラビア
動詞 (@img_5955) 's Twitter Profile Photo

torch.compileを使うと入力のshapeが変わるたびにコンパイル走ったり、Windowsで動作しなかったりでかなり厄介なので、torch.jit.script + CUDA Graphで高速化してみたいけど、そこまで低レイヤー触れるか不安だな…

Photogenic Weekend (@photogenicweeke) 's Twitter Profile Photo

てことで追記の追記(笑)。#flux1-dev-fp8 / リアル系の場合、vaeはae、#FluxAccelerator の #mmdit_skip_blocks は3,12。nodeエラー時はキャッシュクリア、OOMの時は再Queue。これで行けます!但し今のところLoRAは使えません(Bypass部分)。これで約6秒。無しより3秒近く速い(#RTX4090)♪ 動詞

てことで追記の追記(笑)。#flux1-dev-fp8 / リアル系の場合、vaeはae、#FluxAccelerator の #mmdit_skip_blocks は3,12。nodeエラー時はキャッシュクリア、OOMの時は再Queue。これで行けます!但し今のところLoRAは使えません(Bypass部分)。これで約6秒。無しより3秒近く速い(#RTX4090)♪
<a href="/IMG_5955/">動詞</a>
動詞 (@img_5955) 's Twitter Profile Photo

アイコンをGitHubのものと同じにした。これが今までAIで生成してきた画像で一番好きかも

おばけ👻 (@triwave33) 's Twitter Profile Photo

社内勉強会でLLMの推論効率(高速)化に関するサーベイを発表したら割と好評だったので公開しました。ユーザがLLMをトークン課金で安く(高い?)使えている裏側にはこんな技術がありますよ、って内容です speakerdeck.com/taturabe/llmno…