深層学習ってどうやってプログラムすんの? [無断転載禁止]©2ch.net (112レス)
深層学習ってどうやってプログラムすんの? [無断転載禁止]©2ch.net http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
73: 名無しさん@お腹いっぱい。 [sage] 2021/06/15(火) 11:39:10.88 ID:94FRBqYd0 神戸大学と企業がいいチップ作ったみたいだ http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/73
74: 名無しさん@お腹いっぱい。 [sage] 2021/06/17(木) 11:13:59.19 ID:TcB8DLjg0 これの人間版の賢いやつ開発しといて https://youtu.be/YtYdL_IkN8Y http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/74
75: 名無しさん@お腹いっぱい。 [sage] 2021/06/26(土) 14:18:17.51 ID:3md09QUI0 なんでシグモイドだったのかという理由がちゃんとあって本当はステップ関数にしたかったんだけど微分できねーから似たような形のシグモイドにしたっていう その発想は今にもちゃんと受け継がれててBinary Netみたいな1bit入出力のネットワークとして受け継がれてる http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/75
76: 名無しさん@お腹いっぱい。 [sage] 2021/06/30(水) 11:58:30.15 ID:57PyOXVO0 どうやってプログラムしたんだろ? https://mobile.twitter.com/RexChapman/status/1409566481206153219 https://twitter.com/5chan_nel (5ch newer account) http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/76
77: 名無しさん@お腹いっぱい。 [sage] 2021/10/16(土) 22:29:52.44 ID:TNVHTVH10 池田らしい http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/77
78: 名無しさん@お腹いっぱい。 [sage] 2021/12/29(水) 01:44:38.41 ID:kWUNm+VV0 生物のように閾値を超えたら発火を簡単に実装できればよかったのにね http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/78
79: 名無しさん@お腹いっぱい。 [] 2021/12/30(木) 14:49:40.05 ID:W1ZaApPF0 なるほど http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/79
80: 名無しさん@お腹いっぱい。 [sage] 2022/01/01(土) 09:25:30.70 ID:oXDTLzhT0 >>17 こいつは適当なこと言うから信用しないほうがいい とってつけた付け焼き刃みたいなことでわかるほど簡単なことじゃない 信頼できるところから自ら学んで判断したほうがいい http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/80
81: おおしまくすお れいわ新選組嫌い [] 2022/01/05(水) 16:50:23.68 ID:aViRD6Ac0 おまんこ https://www.youtube.com/watch?v=Ay-e3AWkKSs&t=4s http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/81
82: 名無しさん@お腹いっぱい。 [] 2022/02/08(火) 21:06:33.55 ID:s3XlsOy00 ね み と@CH4NGE @nemito_kuki 歌ったりデザイナーしたり。アイコン( @srgm_cyomo )様 ヘッダーイラスト( @imomomo_imo )様 Y: https://youtube.com/channel/UCercjbfy69IazQ-7Qht06cw ヘッダーロゴは自作。↓ロゴ相談はDM・依頼は下記URLから。 うるさいかも〜soul2011bg.wixsite.com/chosyakamix2021年5月からTwitterを利用しています 78 フォロー中 211 フォロワー 集団ストーカー加害アカウント 犯罪者 http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/82
83: 名無しさん@お腹いっぱい。 [sage] 2022/02/16(水) 23:23:48.15 ID:+yCVrtGV0 これいいね https://drive.google.com/file/d/1bNN6VjsgdpJAqxvZ4EKAPpMGq9wfjHqf/view 東京大学 今泉允聡 ISM75周年 ?講演スライド オープンハウス2019スライド 深層学習の原理を明らかにするこころみ https://www.iwanami.co.jp/book/b570597.html 岩波科学ライブラリー 深層学習の原理に迫る 数学の挑戦 著者 今泉 允聡 著 刊行日 2021/04/16 深層学習はなぜうまくいくのか? その原理を数学的に解明するという難題に、気鋭の研究者が挑む。 深層学習の原理に迫る 試し読み https://www.iwanami.co.jp/moreinfo/tachiyomi/0297030.pdf http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/83
84: 名無しさん@お腹いっぱい。 [] 2022/02/21(月) 17:44:09.12 ID:gGhtRv9g0 大学で使う教科書ざっと読んで、 ゼロから作るディープラーニングの1と3をとりあえずやって、 TensorFlowの公式チュートリアルやってなんとなく仕組みは分かったんだけど、 これでインターンとか就活にアピールするのに何つくればいいのか全然わからんわ http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/84
85: 名無しさん@お腹いっぱい。 [] 2022/02/22(火) 11:56:01.37 ID:LQIQuupF0 >>84 終活アピールなら、AIの資格をとったらどう? http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/85
86: 名無しさん@お腹いっぱい。 [] 2022/03/05(土) 13:54:43.36 ID:hf9QA2VU0 橋下徹「日本の政治家や専門家はまったく信用できない。いざ戦争になったらこりゃダメだな」 [Stargazer★] //asahi.5ch.net/test/read.cgi/newsplus/1646454503/ 1Stargazer ★2022/03/05(土) 13:28:23.37ID:lGKrZ2GV9 302名無しさん@恐縮です2022/03/04(金) 22:19:19.15ID:mk0tHlNv0 橋下徹氏 ウクライナ情勢に「日本の政治家や専門家はまったく信用できない」 //news.yahoo.co.jp/articles/b8d410561da20086a64fcd2cfdd674de96016837 http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/86
87: 名無しさん@お腹いっぱい。 [sage] 2022/03/07(月) 09:13:33.85 ID:6TQf6DWh0 - ニューラルネット(1) 人間の神経細胞を模したネットワークモデルで、細胞1個をセルと呼び、これが最小単位となる 1つのセルは複数の入力(xi)を受取り一つの出力(y)を出す 受取った複数の入力の合計値(Σwij*xi)にある適当な非線形関数h()を演算し、これをyとする 各入力にはそれぞれ重みwiを与える 式でまとめると y = h((Σwij*xi)) こんな感じ h()は活性化関数と呼ばれ、いわゆる学習曲線と考えればよい http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/87
88: 名無しさん@お腹いっぱい。 [sage] 2022/03/07(月) 09:14:24.92 ID:6TQf6DWh0 - ニューラルネット(2) セルを多数連結したものがニューラルネットである(とりあえず電気回路のようなものをイメージすればよい) 実際、プログラミングテクニックとして電気回路のシミュレーションのようなイメージをもっていればよい グラフを使ったプログラミングテクニックはニューラルネットに限らずいろいろな応用例がある 注意点としては 1) 流れる情報は電流のような連続量ではなく、パルスのような離散量である 2) 工学的テクニックとして、ネットワークを幾つかの階層に分解する 入力層(x) => 中間層1 => 中間層2 => … => 中間層n => 出力層(y) 各層は縦に並べた1次元配列と思えばよい 3) 各層を離散量が順次流れていく間に、上で定義した重み(wij)の値が更新されていくイメージだ (但し、重みの改善はバックプロパゲーションと呼ばれる最終段階で行われるのだが) 4) この重みを逐次改善していくことが、すなわち「学習」ということになる 5) 中間層が2層以上のある場合を「深層」と呼ぶが、「深層学習」の名前の由来である http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/88
89: 名無しさん@お腹いっぱい。 [sage] 2022/03/07(月) 09:20:07.40 ID:6TQf6DWh0 - ニューラルネット(3) 上記(1)(2)だけではなぜ学習されるのかが説明されていない 実は出力層(y)の結果からニューラルネット全体の各重み情報(wij)を改善する演算が行われる バックプロパゲーション(逆伝播)といわれるテクニックである 通常の順路は入力=>出力の方向に情報伝搬するが 出力(y)に到達したら、出力=>入力の方向に逆伝播させて、重み情報(wij)を改善するのである このとき目的関数を最小化するという最適化手法が使われる イメージとしては出力結果(y)と学習目標(Y)を比較し、最小二乗法で最適な重み分布(wij)を求めるわけ http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/89
90: 名無しさん@お腹いっぱい。 [sage] 2022/03/07(月) 09:21:34.62 ID:6TQf6DWh0 - ニューラルネット(4) 基本的には上記演算(入力層から出力層まで流す演算)を1セットと見立て、 膨大な入力データ(と学習目標データ)を準備して流すことで、学習が進んでいくイメージだ 他にも細かいテクニックはいろいろあるが、 ニューラルネット全体を y=f(x) というフィルタに見立て、(x,y)を与えて関数fを求めていく複雑な演算だと思えばよい fを決めるのは重み情報(wij)ということになる http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/90
91: 名無しさん@お腹いっぱい。 [sage] 2022/03/07(月) 11:04:15.60 ID:6TQf6DWh0 - ニューラルネット(5) 順伝搬と逆伝播 順伝搬では各層を通過するごとに入力合計を非線形関数に入れて計算する 変数が膨大である場合、変数全体を連続量として考えればこれは「積分」に相当する Σの代わりに∫と考えれば、逆伝播は「微分」ということになる 順伝搬では積分の累積が行われ、逆伝播では微分しながら累積をほどいていく これは「自動微分」と言われるグラフを使って微分/積分を行う手法だ 「自動微分」を知らないとなぜ順伝搬や逆伝播が有効なのかわからない http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/91
92: 名無しさん@お腹いっぱい。 [sage] 2022/03/07(月) 11:08:16.75 ID:6TQf6DWh0 - ニューラルネット(6) 「分割して統治せよ」 「確率的勾配降下法」で躓く人もいるかもしれない なんでミニバッチみたいなのが必要なのか? それは入力データ(と学習目標データ)が膨大であるからだ 仮に10万個の入力データとn層のネットワークを考えてみる 解である重み情報(wij)は単純に考えても10万×nくらいにはなるはずで、こんな微分方程式を解くのは容易ではない しかし世の中には頭のいい人がいるもので巨大な方程式を分割して少しずつ解くのである 10万個を100分割すれば変数は100分の1で済む。必要な方程式の数も100分の1で済む 1000変数の方程式を100回行うことで巨大な方程式を解いたことにするのだ 当然求めた解は出鱈目になるが、これを何回も繰り返すことで求める最適解に近づいていくように調整するのだ 100分割する際には、乱数を使って変数の組み合わせを毎回変えることで毎回異なる方程式を解いているが 元々同じ方程式の部分集合を解いているから、イタレーションを繰り返せば求める解に近似していくだろう http://rio2016.5ch.net/test/read.cgi/informatics/1476094055/92
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 20 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.004s