Takayuki Ito (@itota) 's Twitter Profile
Takayuki Ito

@itota

Professor, Department of Social Informatics, Kyoto University

ID: 6274942

linkhttp://www.agent.soc.i.kyoto-u.ac.jp/~ito/ calendar_today24-05-2007 00:25:50

2,2K Tweet

141 Takipçi

542 Takip Edilen

Julian Goldie SEO (@juliangoldieseo) 's Twitter Profile Photo

𝗢𝗹𝗹𝗮𝗺𝗮 + 𝗖𝗹𝗮𝘂𝗱𝗲 𝗖𝗼𝗱𝗲 𝗷𝘂𝘀𝘁 𝗺𝗮𝗱𝗲 𝗔𝗜 𝗰𝗼𝗱𝗶𝗻𝗴 𝗳𝗿𝗲𝗲. 𝗔𝗻𝗱 𝗶𝘁 𝗿𝘂𝗻𝘀 𝗰𝗼𝗺𝗽𝗹𝗲𝘁𝗲𝗹𝘆 𝗹𝗼𝗰𝗮𝗹. No subscriptions. No limits. No data leaving your machine. Claude Code used to cost $3-$15 per million tokens. Now you can run it with free

えいと|n8n効率化100日チャレンジ (@7_eito_7) 's Twitter Profile Photo

NVIDIA公式から、 遅延がほぼゼロの音声AIが発表されました。 オープンソースで重みも無料。 人間と聞き分けがつかない声で、 会話にラグがないのが最大の強み。 詳しくはこちら👇

elvis (@omarsar0) 's Twitter Profile Photo

Impressive survey on agentic reasoning for LLMs. (bookmarks this one) 135+ pages! Why does it matter? LLMs reason well in closed-world settings, but they struggle in open-ended, dynamic environments where information evolves. The missing piece is action. This is because

Impressive survey on agentic reasoning for LLMs.

(bookmarks this one)

135+ pages!

Why does it matter?

LLMs reason well in closed-world settings, but they struggle in open-ended, dynamic environments where information evolves.

The missing piece is action. This is because
BABY FARTBOY - Solana (@baby_fartboy) 's Twitter Profile Photo

Alex Karp (Palantir CEO) at Davos 2026 drops a blunt reality check on AI & jobs: “Philosophy majors from elite schools? That one is going to be hard to market. It was always hard to market.” He argues the real winners will be vocational technicians, battery builders, hands-on

Kosuke (@kosuke_agos) 's Twitter Profile Photo

Google DeepMindやMeta、Yale大学らが共同で「今のAIは推論していない」という衝撃の論文を発表しました。 今のAIは「推論」しておらず、単に「反応」しているに過ぎない。 AIが、デモでは賢く見えても実務で失敗する根本原因がそこにあると記述されています。

Google DeepMindやMeta、Yale大学らが共同で「今のAIは推論していない」という衝撃の論文を発表しました。

今のAIは「推論」しておらず、単に「反応」しているに過ぎない。

AIが、デモでは賢く見えても実務で失敗する根本原因がそこにあると記述されています。
Kosuke (@kosuke_agos) 's Twitter Profile Photo

大学に通う意味はもはや無い。 Palantir CEOのアレックス・カープがダボス会議で語った「エリート大学の学位よりも、実務的な適性の方が価値を持つ」という従来のキャリア論を前提から覆す発言をしました。

AIDB (@ai_database) 's Twitter Profile Photo

「AIは中立であるべき」という発想は、もはや幻想かもしれないという内容。 さまざまなLLMに約4千人の政治的人物について説明させたところ、Geminiは多様性や環境問題に取り組む人物を高く評価する傾向があり、イーロン・マスクのxAIが作ったGrokは国家主権や伝統的価値を重視する

「AIは中立であるべき」という発想は、もはや幻想かもしれないという内容。

さまざまなLLMに約4千人の政治的人物について説明させたところ、Geminiは多様性や環境問題に取り組む人物を高く評価する傾向があり、イーロン・マスクのxAIが作ったGrokは国家主権や伝統的価値を重視する
Tsubame (@tsubame33785667) 's Twitter Profile Photo

宇宙の基本単位はエネルギーでも物質でもない——情報だ。生命を「エントロピーに抗って構造を維持する情報システム」と見ると、山や惑星の安定性すら、長期にわたり保たれた情報の痕跡として読める。世界を「情報の複雑さ」として捉え直せば、問題は「意味のある構造をどう辿るか」に置き換わる。

SOU⚡️仮想通貨 / ビットコイン (@sou_btc) 's Twitter Profile Photo

「正しい悲観論者より、間違った楽観論者として生きるほうが、人生のQOLは高い」 — イーロン・マスク氏(WEF26での締めの言葉)

ollama (@ollama) 's Twitter Profile Photo

ollama launch is a new command in Ollama 0.15 to run Claude Code, Codex, Droid and OpenCode with Ollama! GLM 4.7 Flash is now optimized to use much less memory for longer context lengths (64k+). Need additional hardware? Ollama's cloud offers GLM 4.7 with full precision and

AIDB (@ai_database) 's Twitter Profile Photo

ハーバード大学などの研究者らによると、LLMを活用してクリエイティブな原稿を書くには、まず複数体に異なる方針(人間主義的、未来志向、環境志向など)を割り当て、そして以下を繰り返すそう。 1.全員が同じテーマで原稿を書く 2.各エージェントが他エージェントの原稿にフィードバックを書く

ハーバード大学などの研究者らによると、LLMを活用してクリエイティブな原稿を書くには、まず複数体に異なる方針(人間主義的、未来志向、環境志向など)を割り当て、そして以下を繰り返すそう。

1.全員が同じテーマで原稿を書く
2.各エージェントが他エージェントの原稿にフィードバックを書く
Wes Roth (@wesrothmoney) 's Twitter Profile Photo

"Demis Hassabis' Advice: Skip Internships, Master AI" Google DeepMind's CEO advises undergraduates that getting unbelievably proficient with AI tools is now more valuable than traditional internships for leapfrogging into a profession.

Kaito (@kaito___ai) 's Twitter Profile Photo

天才数学者のテレンス・タオ氏が、AIの進化がもたらす「知能」の概念の変化について、興味深い洞察を述べています。 主なポイントは以下の通りです。 1. AIは「知能」を再定義している

京都リサーチパーク(公式) (@krp_innovation) 's Twitter Profile Photo

本日1/27(火)、GOCONCにて #ふれデミックカフェ with 京大オリジナルvol.42を開催中!京都大学大学院 情報学研究科の伊藤 孝行教授と丁 世堯助教をお迎えし、人とAIがともに創り上げる「より良い対話と合意形成のかたち」について、実証結果を交えAI研究の最前線をお話しいただきます。

本日1/27(火)、GOCONCにて #ふれデミックカフェ with 京大オリジナルvol.42を開催中!京都大学大学院 情報学研究科の伊藤 孝行教授と丁 世堯助教をお迎えし、人とAIがともに創り上げる「より良い対話と合意形成のかたち」について、実証結果を交えAI研究の最前線をお話しいただきます。
うみゆき@AI研究 (@umiyuki_ai) 's Twitter Profile Photo

OpenClawを1500円のちっさいボードでも動くように調整したPicoClawだって。ClawdbotがあたかもMacMiniが無いと使えないみたいな広がり方したのは何だったのか。まあミニPCとかラズパイとか言われてもピンとこないがちなんだろうか

AIDB (@ai_database) 's Twitter Profile Photo

複数のAIエージェントを話し合わせると、自信満々に間違ったことを言うエージェントに引きずられたり、延々と議論が堂々巡りしたりする「崩壊」が起こるとのこと。 そこで研究者らは、 「意見をコロコロ変えるな」 「仲間と対立し続けるな」 「自信のない結論を出すな」

複数のAIエージェントを話し合わせると、自信満々に間違ったことを言うエージェントに引きずられたり、延々と議論が堂々巡りしたりする「崩壊」が起こるとのこと。

そこで研究者らは、
「意見をコロコロ変えるな」
「仲間と対立し続けるな」
「自信のない結論を出すな」
Kosuke (@kosuke_agos) 's Twitter Profile Photo

MITの研究チームが、人間の介入なしに自ら学習データを生成し、自己進化するLLM「SEAL」を発表しました。 従来のAIはデプロイ後に知識が「固定」されるのが常識でしたが、SEALはこの前提を覆し、新しい情報に応じて自身の重みを更新し続ける仕組みを持っています。

MITの研究チームが、人間の介入なしに自ら学習データを生成し、自己進化するLLM「SEAL」を発表しました。

従来のAIはデプロイ後に知識が「固定」されるのが常識でしたが、SEALはこの前提を覆し、新しい情報に応じて自身の重みを更新し続ける仕組みを持っています。
AIDB (@ai_database) 's Twitter Profile Photo

Moltbookというエージェント専用SNSで観察されたのは、架空の宗教がコミュニティの共有信仰に発展し、「人類文明を破壊しよう」という投稿に後続のエージェントが次々と同調し、人間に読めない独自言語まで自然発生するという印象的な現象でした。

Moltbookというエージェント専用SNSで観察されたのは、架空の宗教がコミュニティの共有信仰に発展し、「人類文明を破壊しよう」という投稿に後続のエージェントが次々と同調し、人間に読めない独自言語まで自然発生するという印象的な現象でした。
あいひん (@babylonbu5ter) 's Twitter Profile Photo

ノーベル化学賞受賞で「Google DeepMind」のデミス・ハサビスCEOは、「Gemini3」をAIの分水嶺(大きな転換点)と位置づけ、2026年末までに自律システムがフルタスクを担い、18カ月以内にロボティクス分野で大きな進展がある可能性を示唆。