[過去ログ] 競技プログラミングにハマるプログラマのスレ 119 (1002レス)
前次1-
抽出解除 レス栞

このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
215: 2023/03/20(月)11:45:18.97 AAS
erで集まってガイガイダンス踊ったらバズると思う
この案使ってもいいよ
247: 2023/03/20(月)20:48:08.97 AAS
そもそもChatGPTのその記事書いてるやつちゃんとやれば安倍erレベルにはできるようになりそうだから、そんな参考にならんよな
このスレの大半が使いこなしてABC全完でイキリ散らすようになれば競プロ終わらせられるから頑張ってくれ
298: 2023/03/21(火)12:19:28.97 AAS
もう役に立たないとも言われなくなってないか
316: 2023/03/21(火)16:00:17.97 AAS
GPTでAI界隈が沸騰している。開発者も含めて誰も急激な性能向上の理由を理解出来ていない。

まず、現状を整理する。最近の成果はそのほとんどがトランスフォーマーと呼ばれるエンコーダ・デコーダモデルによる。注目すべきはこれが畳み込みや再帰といった並列計算を防げる仕組みを廃したために計算力の集約が可能になり、飛躍的に大規模なデータセットでの学習が可能になった事だ。

そこで起きたことが、スケーリング則の発見だ(2020年)。 (外部リンク:arxiv.org つまり、計算量、データサイズ、モデルの規模の3つを同時に大きくしてゆくことで、あたかも上限なくモデルの性能が上がってゆくように見える現象だ。

さらに2022年になって、10の23乗から24乗回あたりの計算量を境に急激に性能が向上するという現象が確認された。ある程度予測可能なスケーリング則から非連続的なテイクオフに移行したように見えるため、今後何が起きるのかが見えにくくなっている(外部リンク:ai.googleblog.com
画像リンク[png]:i.imgur.com

そこで一旦基本に戻る。機械学習モデルが出来るのは学習に使ったデータからの帰納だ(既に見たことがあることしか予測出来ない)。しかしGPT3/4は柔軟な応答や多段論法など一見学習データセットから直接的に導けるとは思えない演繹的なタスクを実行しているように見える。可能な説明は二つある。
省2
499: 2023/03/24(金)16:38:05.97 AAS
真似っこ戦略だ
558: 2023/03/25(土)12:41:44.97 AAS
話題そらしレート灰色
639: 2023/03/25(土)22:56:03.97 AAS
日本人、FG通してる、毎回ABC出てる
799: 2023/03/27(月)20:26:56.97 AAS
アメポチも仲間に入れてやってくれ
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.343s*