rejasupotaro (@rejasupotaro) 's Twitter Profile
rejasupotaro

@rejasupotaro

Relevant or Not

ID: 235544534

calendar_today08-01-2011 13:26:46

20,20K Tweet

2,2K Takipçi

401 Takip Edilen

rejasupotaro (@rejasupotaro) 's Twitter Profile Photo

家のインターネットが壊れたので出社しているけど「一週間ぶりの高速インターネットは気持ちがいいなァ!」「どうだ!AIには出社なんて芸当はできないだろう!」って自分を鼓舞しながら仕事をしている

rejasupotaro (@rejasupotaro) 's Twitter Profile Photo

非エンジニアリング部門へのAI導入の手助け、聞こえはいいけど行き着く先は人減らしだと思うと暗い気持ちになると思ったけど、そもそもソフトウェアエンジニアはAI以前から手作業の自動化をし続けてきたのに何を今さら、というのは視点だった

rejasupotaro (@rejasupotaro) 's Twitter Profile Photo

AIと仕事をしていると淡白な会話が癖になって、いつか他の人間にもそう接するようになってしまうことを恐れて「すごい!」「素晴らしい!」「時間を取ってくれてありがとう!」と話し掛けながら作業している

Eugene Yan (@eugeneyan) 's Twitter Profile Photo

It's an honor to host the RecSys x LLMs track at AI Engineer SF! In this talk, I discuss semantic IDs, LLM-based data augmentation, and foundation rankers. Slides: eugeneyan.com/speaking/aie-2… Talk: youtube.com/watch?v=2vlCqD… This is my talk's semantic ID: 2vlCqD6igVA. I wish knew

rejasupotaro (@rejasupotaro) 's Twitter Profile Photo

Beyond Matryoshkaと見てオッてなったけど、Sparse Encodingは新しいアイデアではないしユースケースが違うもの比べている気がする。Retrievalで使うならCSRがいいってこと? arxiv.org/abs/2503.01776

rejasupotaro (@rejasupotaro) 's Twitter Profile Photo

Deep Learningが出たとき、Transformerが出たとき、Vibe Codingが出たときそれぞれおしまい感があったが結局まだ仕事があるなガハハと言っているけど、仕事の内容は確実に変わり抽象度が上がった結果RetrievalとRerankingチームはマージされ、いずれRecSysともマージされるのではという雰囲気がある

rejasupotaro (@rejasupotaro) 's Twitter Profile Photo

猫の写真を見せると「ぽっちゃりしてるね」と言われるのでその度「このタイプの猫は骨格ががっしりしてて毛の密度も高いので太って見えるんだよね〜」と返していたんだけど、先日医者に「ちょっとお肉が付いてますね」と言われてしまいダイエット中の猫

猫の写真を見せると「ぽっちゃりしてるね」と言われるのでその度「このタイプの猫は骨格ががっしりしてて毛の密度も高いので太って見えるんだよね〜」と返していたんだけど、先日医者に「ちょっとお肉が付いてますね」と言われてしまいダイエット中の猫
rejasupotaro (@rejasupotaro) 's Twitter Profile Photo

Rerankerをカスケードしたときにcostとefficiencyがどうなるのか知りたいのだけど、この実験だとL1で20件、L2で10件くらいの小さいdoc数で検証していて一般的に言えるのか気になる。著者らがAmazon所属なので御社のデータの実験結果も見たいな〜 amazon.science/publications/c…

Yohei KIKUTA (@yohei_kikuta) 's Twitter Profile Photo

私の著書「原論文から解き明かす生成AI」が技術評論社より本日発売です。 Transformer・GPT・拡散モデル・(推論時含む)スケーリング則など、生成AIの土台を原論文を読み解くことで理解しようという、類書が少ないタイプの本になっています。 是非読んでみてください! gihyo.jp/book/2025/978-…

rejasupotaro (@rejasupotaro) 's Twitter Profile Photo

Dense Retrievalではドット積の表現能力が実際に取り得るrelevanceの組み合わせの自由度よりも本質的に低いので、モデルの規模や学習方法に関わらず絶対に表現できない組み合わせが存在すると、おもしろい arxiv.org/abs/2508.21038

rejasupotaro (@rejasupotaro) 's Twitter Profile Photo

キャットタワーを買おうと思っていたけどクローゼットの扉を外したら無料でキャットタワーになった

キャットタワーを買おうと思っていたけどクローゼットの扉を外したら無料でキャットタワーになった