ガロア第一論文と乗数イデアル他関連資料スレ18 (458レス)
前次1-
抽出解除 レス栞

リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
222: 132人目の素数さん [] 06/28(土)04:49:47.36 ID:FdhAL5xc(1)
そもそも学歴だけで評価することはない
294: 現代数学の系譜 雑談 ◆yH25M02vWFhP [] 07/05(土)12:39:00.36 ID:M5qP1slu(1/3)
これいいね

https://xenospectrum.com/what-is-pochomkin-understanding-the-decisive-weakness-of-llm-exposed-by-harvard-university-and-others/
XenoSpectrum
AIは「賢いフリ」をしていた──ハーバード大などが暴いたLLMの決定的弱点「ポチョムキン理解」とは?
Y Kobayashi
2025年7月4日

大規模言語モデル(LLM)は、流暢な会話をこなし、専門的な質問にも答える。その驚くべき能力に、私たちは「AIは本当に理解しているのではないか」という期待を抱きがちだ。しかし、その知性は本物なのだろうか? こうした我々の抱く最もな疑問に対し、2025年6月26日に発表された一つの研究論文が1つの答えを与えてくれるかもしれない。

ハーバード大学、MIT、シカゴ大学の世界トップクラスの研究者たちが共同で発表したこの論文は、LLMが概念を「理解しているフリ」をするという、根源的な欠陥を白日の下に晒した。本稿では、この「ポチョムキン理解」と名付けられた現象の核心に迫り、それが私たちのAIに対する見方、そして人工知能の未来に何を意味するのかを解説する。

賢いフリをするAI──「ポチョムキン理解」という新たな弱点

AIは「知っている」のに「できない」――韻律詩が暴いた矛盾

この一連のやり取りは、人間からすれば到底理解しがたい。

1.概念を正確に説明できる。
2.しかし、その概念を実践できない。
3.さらに、自分の実践が間違っていることを正しく認識できる。

これは人間には到底考えられない、深刻な「内部的な非一貫性(internal incoherence)」を示している。説明する知識(宣言的知識)と、それを使う知識(手続き的知識)が完全に分離してしまっている。まるで、料理のレシピを暗唱できるが、キッチンに立つと何も作れない料理人のようだ。しかも、自分が作った料理がレシピ通りでないことだけは正確に分かる、という奇妙な状況なのである。

主要LLMは軒並み不合格?驚きの実験結果

なぜベンチマークは「見せかけの理解」を見抜けなかったのか

AGIへの遠い道のり―業界に突きつけられた課題

私たちはAIの「知性」とどう向き合うべきか

私たちは、AIが生成する滑らかな言葉の裏にある「張りぼて」の可能性を常に意識し、その答えを鵜呑みにせず、批判的な視点を持って対話する必要がある。AIの「知性」の正体を見極め、その限界を理解した上で賢く付き合っていくこと。それこそが、これからの時代を生きる私たち一人ひとりに求められるリテラシーなのかもしれない。
394: 132人目の素数さん [] 07/24(木)10:21:30.36 ID:4LVoLOK4(1)
これいいね

https://tjo.hatenablog.com/entry/2025/07/23/173000
2025-07-23
「推論する生成AI」は実際には思考しているわけではなく、丸暗記した結果を返しているに過ぎない
生成AI AI・人工知能 機械学習
Takashi J. OZAKI, Ph.D.
Data Scientist (尾崎 隆)

今回のテーマは以前からずっと言われ続けている話題なので特に目新しくも何ともないのですが、たまたま近い時期に2本の似通った内容の論文がarXivに出たので、まとめてダイジェスト的に紹介しようと思います。以下がそれらの論文です。1本目はApple、2本目はGoogle DeepMindによる研究です。

https://arxiv.org/abs/2506.06941

https://arxiv.org/abs/2507.07313

どちらもSNSや技術メディアでは既報の内容であり、ご存知の方も多いのではないでしょうか。これらの論文は本質的には「『推論する生成AI』は実際には思考しているわけではなく、丸暗記した結果を返しているに過ぎない」と各種の実験結果から指摘するものであり、今後の推論生成AIの研究開発を行う上で新たに考慮されるべき指針を提案しています。

そもそも「推論する生成AI」とは何なのか
「推論する生成AI」は既知の複雑な課題は解けるが、その難易度をどんどん上げていくと解けなくなる
逆に、「推論する生成AI」は既知の複雑な課題のルールを改変すると「どう見ても難易度が下がっている」のに解けなくなる
「複雑だが学習データに問いと答えが含まれる課題をそのまま出されれば解ける」即ち丸暗記したパターンのマッチングの可能性が高い
コメントなど

そもそも「推論する生成AI」とは何なのか
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.037s