[過去ログ]
純粋・応用数学・数学隣接分野(含むガロア理論)13 (1002レス)
純粋・応用数学・数学隣接分野(含むガロア理論)13 http://rio2016.5ch.net/test/read.cgi/math/1674527723/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
必死チェッカー(本家)
(べ)
自ID
レス栞
あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
63: 132人目の素数さん [] 2023/02/06(月) 23:43:23.66 ID:kZXmsEGT >>60 1)そのja.wikipedia.の議論「中国語の部屋」(下記)は古い! 2)また、普通に英語版 en.wikipedia ”Chinese room”は、チェックしておくべきです!ww 3)さらに、そのジョン・サールの1980年に対して、いま2023年のAI時代では、昨年の「グーグルのAI「LaMDA」の“意識の存在”を巡る議論」(下記) が、ホットな話題ですよw (参考) https://ja.wikipedia.org/wiki/%E4%B8%AD%E5%9B%BD%E8%AA%9E%E3%81%AE%E9%83%A8%E5%B1%8B 中国語の部屋(ちゅうごくごのへや、Chinese Room)とは、哲学者のジョン・サールが、1980年に “Minds, Brains, and Programs(脳、心、プログラム)” という論文の中で発表した思考実験[1]。 https://en.wikipedia.org/wiki/Chinese_room Chinese room The Chinese room argument holds that a digital computer executing a program cannot have a "mind", "understanding", or "consciousness",[a] regardless of how intelligently or human-like the program may make the computer behave. The argument was presented by philosopher John Searle in his paper, "Minds, Brains, and Programs", published in Behavioral and Brain Sciences in 1980. Similar arguments were presented by Gottfried Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis (1974) and Ned Block (1978). Searle's version has been widely discussed in the years since.[1] The centerpiece of Searle's argument is a thought experiment known as the Chinese room.[2] つづく http://rio2016.5ch.net/test/read.cgi/math/1674527723/63
64: 132人目の素数さん [] 2023/02/06(月) 23:43:45.10 ID:kZXmsEGT >>63 つづき https://wired.jp/article/plaintext-lamda-soul-machine-learning-system/ Wired BUSINESS2022.06.23 グーグルのAI「LaMDA」の“意識の存在”を巡る議論が意味すること 高度な会話能力をもつグーグルの大規模言語モデル「LaMDA(ラムダ)」が感情や知性をもつとエンジニアが主張し、波紋を呼んでいる。結論はどうあれ、今後はAIへの「行為者性」の付与は避けられない。だからこそ、“意識”の存在について対話を促進した意味は大きいのではないか──。『WIRED』エディター・アット・ラージ(編集主幹)のスティーヴン・レヴィによる考察。 人工知能(AI)の世界に激震が走った。人と会話するよう設計されたグーグルの大規模言語モデル「LaMDA(ラムダ)」が人間と同じように感情や知性をもつ存在であるとグーグルのエンジニアが主張し、社内で問題になったという記事が『ワシントン・ポスト』に掲載されたのである。 記事の主役であるブレイク・レモインは上司に対し、このコンピューターシステムに意識、つまり魂があることを認識するように、もしくは検討してみるよう求めたという。レモインはAIには意識があると確信をもっている。なぜなら、彼が“友人”とみなしているLaMDAが、彼にそう伝えたからだ。 グーグルはこの意見に反対しており、レモインは有給休暇中の扱いとなっている。 (引用終り) 以上 http://rio2016.5ch.net/test/read.cgi/math/1674527723/64
65: 132人目の素数さん [] 2023/02/06(月) 23:50:02.12 ID:kZXmsEGT >>64 追加 https://en.wikipedia.org/wiki/LaMDA LaMDA Sentience claims (google訳) 2022 年 6 月 11 日、ワシントンポスト紙は、Googleのエンジニアであるブレイク・レモインが会社の重役であるブレーズ・アグエラ・イ・アルカスとジェン・ゲンナイに LaMDA が知覚力を持っていることを伝えた後、有給の休暇を取ったと報じました。Lemoine は、チャットボットが自己同一性、道徳的価値観、宗教、およびアイザック アシモフのロボットの3 つの法則に関する質問に対して疑わしい回答をした後、この結論に達しました。[10] [11] Google はこれらの主張に反論し、LaMDA に感覚がないことを示す十分な証拠があると主張しました。[12]Wiredとのインタビューで、Lemoine は、LaMDA は修正第 13 条で定められた「人間」であるという主張を繰り返し、「地球起源のエイリアンの知性」と比較しました。彼はさらに、チャットボットが Lemoine にそうするように要求した後、LaMDA に代わって弁護士を雇った後、Google によって解雇されたことを明らかにしました。[13] [14] 7 月 22 日、Google は Lemoine を解雇し、Blake が「製品情報を保護するために」同社のポリシーに違反したと主張し、彼の主張を「まったく根拠がない」として拒否しました。[15] [16] つづく http://rio2016.5ch.net/test/read.cgi/math/1674527723/65
66: 132人目の素数さん [] 2023/02/06(月) 23:50:21.20 ID:kZXmsEGT >>65 つづき Lemoine の主張は、科学界から広く否定されてきました。[17] 元ニューヨーク大学の心理学教授であるゲイリー・マーカスは、彼らを「高床式のナンセンス」と非難し、LaMDA には感情や自己認識がなかったことを強調した。Google の姉妹会社DeepMindの David Pfau と、スタンフォード大学の人間中心の人工知能研究所のErik Brynjolfssonは、言語モデルが感覚的である可能性があるという考えを嘲笑しました。[9]メタプラットフォームを率いるYann LeCun氏 AI研究チームは、LaMDAなどのニューラルネットワークは「真の知性を達成するには強力ではなかった」と述べています。[18] カリフォルニア大学サンタクルーズ校のMax Kreminski 教授は、LaMDA のアーキテクチャは「人間のような意識のいくつかの重要な機能をサポートしておらず」、典型的な大規模言語モデルであると仮定すると、そのニューラル ネットワークの重みは「凍結」されていると述べています。[ 19]一方、サリー大学教授のエイドリアン・ヒルトンは、LaMDA には感覚があるという主張は、事実に裏付けられていない「大胆な主張」であると宣言した. [20] IBM Watsonの主任開発者であるDavid Ferrucciは、LaMDA が最初に導入されたときと同じように LaMDA が人間のように見えることを比較しました。Google の元 AI 倫理学者である Timnit Gebru 氏は、Lemoine 氏を、研究者とメディアによって開始された「誇大広告サイクル」の犠牲者と呼びました。[22] Lemoine の主張はまた、チューリング テストが人工知能の達成に向けた研究者の進歩を判断するのに有用であるかどうかについての議論を引き起こした[9] 。The Postの Will Omerus は、このテストは機械知能システムが欺くことができるかどうかを実際に測定したと述べている[9]。人間。[23] (引用終り) 以上 http://rio2016.5ch.net/test/read.cgi/math/1674527723/66
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.039s