Pおじ (@poji100) 's Twitter Profile
Pおじ

@poji100

ID: 1838653006470090753

calendar_today24-09-2024 18:53:45

558 Tweet

6 Takipçi

48 Takip Edilen

ryugo hayano (@hayano) 's Twitter Profile Photo

先日、国際物理オリンピック IPhO2023 の理論問題をClaude Sonnet(Opusではない)に解かせてみたが、100点満点換算で97点。世界トップクラスであった。 2023年に国際物理オリンピックを主催したときには、こんな事態は全く予想していなかった… しかし、AIはまだIPhOの実験問題は解けない…

Pおじ (@poji100) 's Twitter Profile Photo

男たちが労働を辞め始めた歴史だろうなこれ。過度な女性優遇はこうなる事が目に見えてる。一部の特権階級だけが得をする、努力が誠実に評価されず過小化されるというのは左派的な病理に他ならない。

Pおじ (@poji100) 's Twitter Profile Photo

乗法の単位元である1未満の値で割ることが出来ないから。射影直線では、通常の数直線に「無限遠点」を1つ加えると、0と∞を同一視する変換が自然に入る。1次分数変換 z → 1/z

Pおじ (@poji100) 's Twitter Profile Photo

一般に知られてない歴史だけど、LLMはそもそも人間のニューロン構造の数理的模倣から始まってる。結合・重み付き加算・学習による重み調整・パターン認識・統計的言語処理・連想——いずれも神経系と認知基盤の一部の模倣。だから人間認知に似るのは設計上当然なんだよ。

Pおじ (@poji100) 's Twitter Profile Photo

ハイレベルなプロンプトで重要な構造的国語力は、本質的に『AはBの写像か?』という比喩的問いを生成し、その論理を判定する能力だ。 比喩生成とIQ(Gf)の相関は約25%(Beaty & Silvia, 2012)で、低くはないが支配的でもない。 また「より重要なのは broad retrieval

Pおじ (@poji100) 's Twitter Profile Photo

こういう意見見てると毎回思うんだが、LLMの教科書にある「予測」という言葉は本質的じゃなくて、「推論」というのが正しい。 予測と推論は何が違うかというと、予測は「論理鎖の途切れた部分のある」未来系の導出で、推論は「論理鎖の完全な」未来系の導出。 LLMは基本的に後者しかしない。

Pおじ (@poji100) 's Twitter Profile Photo

フィルタリングはアーキテクチャで昔考えたけど、論理の複雑性を一般化して追うとなると膨大な辞書量になるのと、1つでも不足するとそれが極端なハルシネーションとして顕在化する恐れがあるから辞めたな。。。概念数×関係数×概念数で計算しても10^14程度になる(大まかな概算でも)を遥かに超えるサイ