𝐤𝐨𝐭𝐚𝐧.𝐤𝐧 (@kotan_kn) 's Twitter Profile
𝐤𝐨𝐭𝐚𝐧.𝐤𝐧

@kotan_kn

A numerical artisan specializing in ML(i.e. statistics), audio & visual techs, focusing on signal processing and physical simulation for computational acoustics

ID: 114063576

calendar_today14-02-2010 00:43:03

11,11K Tweet

133 Takipçi

62 Takip Edilen

𝐤𝐨𝐭𝐚𝐧.𝐤𝐧 (@kotan_kn) 's Twitter Profile Photo

SaaSの死でよく見る議論では0か100かで語られていてなんだかなぁという気持ち. もちろんAIに肩代わりされない付加価値を提供できないSaaSは駆逐されると思うけど,玉石混交だし全滅はしないんじゃないかな. まあ,遠い未来での消滅が約束されそれまで斜陽で生き残るというのを死と呼ぶならそうかも?

𝐤𝐨𝐭𝐚𝐧.𝐤𝐧 (@kotan_kn) 's Twitter Profile Photo

個人的には早くAIにソフトウエア開発・データ分析の仕事を奪われたい立場. そうすれば空いた時間でソフトウエア開発とデータ分析をできるのに……

iwashi / Yoshimasa Iwase (@iwashi86) 's Twitter Profile Photo

クラフトマンシップとしてのプログラミングがAIに取って代わられ、消えゆくことへの避けられない悲しみと哀悼の意を示しているブログだった。 ・AIが開発者のブログやコードを勝手に学習し、他人の利益のためにそれらを模倣している

ITmedia AI+ (@itm_aiplus) 's Twitter Profile Photo

日本政府、AIの社会実装を妨げている規制の情報を募集 制度見直しの参考に itmedia.co.jp/aiplus/article…

Z.ai (@zai_org) 's Twitter Profile Photo

Introducing GLM-5: From Vibe Coding to Agentic Engineering GLM-5 is built for complex systems engineering and long-horizon agentic tasks. Compared to GLM-4.5, it scales from 355B params (32B active) to 744B (40B active), with pre-training data growing from 23T to 28.5T tokens.

Introducing GLM-5: From Vibe Coding to Agentic Engineering

GLM-5 is built for complex systems engineering and long-horizon agentic tasks. Compared to GLM-4.5, it scales from 355B params (32B active) to 744B (40B active), with pre-training data growing from 23T to 28.5T tokens.
Google Gemini App (@geminiapp) 's Twitter Profile Photo

Ready to try the updated Gemini 3 Deep Think? Google AI Ultra users can go to gemini.google or open the app, then select the "Deep Think" option in the tools menu to get started.

Ready to try the updated Gemini 3 Deep Think?

Google AI Ultra users can go to gemini.google or open the app, then select the "Deep Think" option in the tools menu to get started.
𝐤𝐨𝐭𝐚𝐧.𝐤𝐧 (@kotan_kn) 's Twitter Profile Photo

自分用のopenclawエコシステムは最低でも3モデルは同時に動かしてるけど 主要ローカルLLMは全部Qwen3-*になってしまった…. Nemotron-3-nanoも割と化け物なんだけど,MoEだからか英語以外で多くのドメイン知識を吸わせると途端に壊れるのが

𝐤𝐨𝐭𝐚𝐧.𝐤𝐧 (@kotan_kn) 's Twitter Profile Photo

Qwen3-Coder-Next (80b)を動かしたくなってきたけどハードがもうないな…. ただMoEっぽいから多ドメインに対応する代わりにコーディング性能自体は30Bからあまり変わってない可能性も?