[過去ログ] 純粋・応用数学・数学隣接分野(含むガロア理論)19 (1002レス)
上下前次1-新
抽出解除 レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
リロード規制です。10分ほどで解除するので、他のブラウザへ避難してください。
56(2): 現代数学の系譜 雑談 ◆yH25M02vWFhP [] 2024/09/07(土)10:25:56.76 ID:YapNbdQQ(3/7)
>>55
>数セミのとある記事が間違ってると、数年にわたって喚き散らす
数セミの「箱入り無数目」の話ね
2chスレ:math
数学セミナー201511月号だけれど
あれから約10年
日本の確率論数学者で一人として、認める者なし
「箱入り無数目」否定する人で、プロ数学者の御大(某名誉教授)
それに、数学板の自治会長こと弥勒菩薩さま(数学科ご出身)
あと、過去何人もの 数学科出身者が、「箱入り無数目」を否定していきました
>円分方程式がラグランジュの分解式で解けると示しても全然理解できず、示した人に当たり散らす
食言している
ラグランジュの分解式=ガロア理論
だというから、それは違うぞと言った
円分方程式は、ラグランジュの分解式でも解けるが
三角関数の半角公式などを使っても、(べき根と四則で)代数的に解ける
それは、高木「近世数学史談」冒頭の、ガウスの手紙で示されている通りです
124(1): 132人目の素数さん [sage] 2024/09/09(月)05:35:01.76 ID:s1Bl9/GM(1/5)
現代数学の系譜 雑談 ◆yH25M02vWFhP と 一行小僧 も実は同一人物かもな
前者はPCから、後者はスマホからだから、コピペなしの一行小僧
これはあくまで推測にすぎないから、違ったとしてもどうってことはないけどな
とにかく
1.「現代数学の系譜 雑談」とかいうHNはやめとけ 不快
2.(参考)とか書いた後の長文コピペもやめとけ 不快
3.トリップだけでトンデモネタだけ書いたら如何? まんま高木某だけどw
155: 132人目の素数さん [sage] 2024/09/09(月)22:50:29.76 ID:dnmryvtN(6/7)
俺の名言
数学の壁は存在する。素人には数学は分からない。
166: 132人目の素数さん [] 2024/09/10(火)08:00:08.76 ID:40vZotHm(3/14)
>>164
そんなことどうでもいいから
「毎回、箱の中身を入れ替える/入れ替えない」
について君の見解を述べてごらん。
出来ないでしょ。君教養無いから。
471: 都築の荏田 [sage] 02/23(日)08:16:21.76 ID:QjQEkUaN(1/6)
>>465
>>例えば固有多項式det(λI-A)の係数は、
>>実は行列Aとそのべき乗A^nのトレースによって表せるが
> 古いな 古くさい
Chern–Weil homomorphismが?
https://ja.wikipedia.org/wiki/%E3%83%81%E3%83%A3%E3%83%BC%E3%83%B3%E9%A1%9E#%E3%83%81%E3%83%A3%E3%83%BC%E3%83%B3%E3%83%BB%E3%83%B4%E3%82%A7%E3%82%A4%E3%83%A6%E7%90%86%E8%AB%96%E3%81%A7%E3%81%AE%E3%83%81%E3%83%A3%E3%83%BC%E3%83%B3%E9%A1%9E
559: 132人目の素数さん [] 03/15(土)08:39:43.76 ID:R+3ipUur(2/3)
そう言ってくれる人がいるからやめられない
617(2): 132人目の素数さん [] 03/19(水)07:09:33.76 ID:+DlAmH51(1/4)
>>614-616
ご苦労さまです
投稿ありがとう
スレ主です
>コンピューターが人間などを媒体としてコンピューター自体の能力が伸びると考えると面白い。
昔から、コンピューターの能力は ソフトとハードの二つの要素があって
ハード面は、GPUの活用
ソフト面は、ディープラーニングの活用
で、AIが伸びてきた
思考時間(思考連鎖の生成)を追加した o1(下記)と、その後継で 数学も扱えるようになっている
しかし、既存の知識で問題を解くことが主
今後どれだけの数学能力を獲得するかは、今後を見ていくしか無い
(参考)
ja.wikipedia.org/
o1
能力
o1は回答を生成する前に追加の思考時間(思考連鎖の生成)を費やすため、複雑な推論作業、特に科学[1]および数学[1]においてより効果的である。
以前のモデルと比較して、o1は最終的な回答を返す前に長い「思考連鎖」を生成するようにトレーニングされている[16][17]。ミラ・ムラティによると、この応答前に思考する能力は、新しい追加のパラダイムを表しており[18]、回答の生成時により多くの計算能力を費やすことによってモデルの出力を向上させている。一方、モデルスケーリングパラダイムは、モデルサイズ、トレーニングデータ、およびトレーニング計算能力を増加させることによって出力を向上させる[19]。
テスト結果は、精度と、回答前に思考に費やされた計算量の対数の間に相関関係があることを示唆している[17][16]。
アメリカ数学招待競技(英語版)では、GPT-4oの13%(1.8/15)に対し、83%(12.5/15)の問題に正答した[21]。
o1-miniはo1-previewよりも高速で80%安価である[23]。o1-previewと同じ「幅広い世界知識」は持っていない
643: 死狂幻調教大師S.A.D.@月と六ベンツ [] 03/19(水)15:36:55.76 ID:guhNAW8R(10/13)
自我肥大せずに人を普通に評価もできんのか。
948: 132人目の素数さん [] 04/26(土)21:10:10.76 ID:7ORZbF3Y(35/35)
>>947
2章と3章、4章は順序が逆だろう
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.047s