ガロア第一論文と乗数イデアル他関連資料スレ18 (485レス)
ガロア第一論文と乗数イデアル他関連資料スレ18 http://rio2016.5ch.net/test/read.cgi/math/1748354585/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
222: 132人目の素数さん [] 2025/06/28(土) 04:49:47.36 ID:FdhAL5xc そもそも学歴だけで評価することはない http://rio2016.5ch.net/test/read.cgi/math/1748354585/222
294: 現代数学の系譜 雑談 ◆yH25M02vWFhP [] 2025/07/05(土) 12:39:00.36 ID:M5qP1slu これいいね https://xenospectrum.com/what-is-pochomkin-understanding-the-decisive-weakness-of-llm-exposed-by-harvard-university-and-others/ XenoSpectrum AIは「賢いフリ」をしていた──ハーバード大などが暴いたLLMの決定的弱点「ポチョムキン理解」とは? Y Kobayashi 2025年7月4日 大規模言語モデル(LLM)は、流暢な会話をこなし、専門的な質問にも答える。その驚くべき能力に、私たちは「AIは本当に理解しているのではないか」という期待を抱きがちだ。しかし、その知性は本物なのだろうか? こうした我々の抱く最もな疑問に対し、2025年6月26日に発表された一つの研究論文が1つの答えを与えてくれるかもしれない。 ハーバード大学、MIT、シカゴ大学の世界トップクラスの研究者たちが共同で発表したこの論文は、LLMが概念を「理解しているフリ」をするという、根源的な欠陥を白日の下に晒した。本稿では、この「ポチョムキン理解」と名付けられた現象の核心に迫り、それが私たちのAIに対する見方、そして人工知能の未来に何を意味するのかを解説する。 賢いフリをするAI──「ポチョムキン理解」という新たな弱点 AIは「知っている」のに「できない」――韻律詩が暴いた矛盾 この一連のやり取りは、人間からすれば到底理解しがたい。 1.概念を正確に説明できる。 2.しかし、その概念を実践できない。 3.さらに、自分の実践が間違っていることを正しく認識できる。 これは人間には到底考えられない、深刻な「内部的な非一貫性(internal incoherence)」を示している。説明する知識(宣言的知識)と、それを使う知識(手続き的知識)が完全に分離してしまっている。まるで、料理のレシピを暗唱できるが、キッチンに立つと何も作れない料理人のようだ。しかも、自分が作った料理がレシピ通りでないことだけは正確に分かる、という奇妙な状況なのである。 主要LLMは軒並み不合格?驚きの実験結果 なぜベンチマークは「見せかけの理解」を見抜けなかったのか AGIへの遠い道のり―業界に突きつけられた課題 私たちはAIの「知性」とどう向き合うべきか 私たちは、AIが生成する滑らかな言葉の裏にある「張りぼて」の可能性を常に意識し、その答えを鵜呑みにせず、批判的な視点を持って対話する必要がある。AIの「知性」の正体を見極め、その限界を理解した上で賢く付き合っていくこと。それこそが、これからの時代を生きる私たち一人ひとりに求められるリテラシーなのかもしれない。 http://rio2016.5ch.net/test/read.cgi/math/1748354585/294
394: 132人目の素数さん [] 2025/07/24(木) 10:21:30.36 ID:4LVoLOK4 これいいね https://tjo.hatenablog.com/entry/2025/07/23/173000 2025-07-23 「推論する生成AI」は実際には思考しているわけではなく、丸暗記した結果を返しているに過ぎない 生成AI AI・人工知能 機械学習 Takashi J. OZAKI, Ph.D. Data Scientist (尾崎 隆) 今回のテーマは以前からずっと言われ続けている話題なので特に目新しくも何ともないのですが、たまたま近い時期に2本の似通った内容の論文がarXivに出たので、まとめてダイジェスト的に紹介しようと思います。以下がそれらの論文です。1本目はApple、2本目はGoogle DeepMindによる研究です。 https://arxiv.org/abs/2506.06941 https://arxiv.org/abs/2507.07313 どちらもSNSや技術メディアでは既報の内容であり、ご存知の方も多いのではないでしょうか。これらの論文は本質的には「『推論する生成AI』は実際には思考しているわけではなく、丸暗記した結果を返しているに過ぎない」と各種の実験結果から指摘するものであり、今後の推論生成AIの研究開発を行う上で新たに考慮されるべき指針を提案しています。 そもそも「推論する生成AI」とは何なのか 「推論する生成AI」は既知の複雑な課題は解けるが、その難易度をどんどん上げていくと解けなくなる 逆に、「推論する生成AI」は既知の複雑な課題のルールを改変すると「どう見ても難易度が下がっている」のに解けなくなる 「複雑だが学習データに問いと答えが含まれる課題をそのまま出されれば解ける」即ち丸暗記したパターンのマッチングの可能性が高い コメントなど そもそも「推論する生成AI」とは何なのか http://rio2016.5ch.net/test/read.cgi/math/1748354585/394
481: 132人目の素数さん [sage] 2025/09/02(火) 18:34:15.36 ID:mK+3tVlv [第1段]:任意の a>−1 なる実数aに対して γ(a,n)=1+1/2+…+1/n−log(n+a) と定義出来ると仮定する。任意に a>−1 なる実数aに対して定義される 実数列 {γ(a,n)} について、実数aは固定されていて実数列 {γ(a,n)} は定数の列ではないから 実数列 {γ(a,n)} は単調減少列か単調増加列のどちらか片方かつその一方である また a=0 のとき、実数列 {γ(0,n)} はγに収束する単調減少列である 同様に a=1 のとき、実数列 {γ(1,n)} はγに収束する単調増加列である よって a=γ のとき、実数列 {γ(γ,n)} はγに収束する定数の列である しかし、実数列 {γ(γ,n)} について、実数γは固定されていて 実数列 {γ(γ,n)} は定数の列ではない。故に、矛盾が生じる この矛盾は、任意の a>−1 なる実数aに対して γ(a,n)=1+1/2+…+1/n−log(n+a) と定義出来ると仮定したことから生じたから、背理法が適用出来る 背理法を適用すれば、或る a>−1 なる実数aが存在して 実数aに対して γ(a,n)=1+1/2+…+1/n−log(n+a) と定義することは不可能である [第2段]:[第1段]における考察に着目すれば、γ(a,n)=1+1/2+…+1/n−log(n+a) と 定義することが不可能な a>−1 なる実数aは 0<a<1 を満たす [第3段]:実数aが a=γ であるとすれば、[第一段]と同様に考えれば矛盾を得る 故に、背理法により a≠γ を得る http://rio2016.5ch.net/test/read.cgi/math/1748354585/481
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.026s