パーセプトロン (70レス)
上下前次1-新
抽出解除 レス栞
21: 名無しさん@お腹いっぱい。 [] 2012/03/28(水) 20:26:45.40 ID:dObpLfXx0(8/12) AAS
ところで >>14 で示した部品を組み合わせただけで、
『線を引いて、それのこっち側がインド人。 向こう側が日本人』
(インド人データだと発火する。日本人データだと発火しない)
そんな回路が作れるのだろうか?
インド人と日本人は直線で分けれるものとする。
これは宿題だ。
41(3): 名無しさん@お腹いっぱい。 [] 2013/03/19(火) 18:44:43.40 ID:BuSxK0Bt0(1) AAS
いまでもニューラルネットとか、真面目に研究してる人っているのかな?
ファジーやGAやニューラルネットが混沌としてた時代に学生やってたので、ふと気になった。
統計処理や回帰分析でパターン認識やればすぐにいい成果でるのがわかってるんだから、幾何や解析の手法を持ち込んでメタなレイヤーか学習関数をいれてやればと手をつけたら誰も相手してくれなくなった。
一台のEWSワークステーションをシェアしてて、40MBのライブラリをHDDにダウンロードしたら怒られる時代。GPU,SSD,数GBの主記憶。もう当時とは別世界だな。
62: 名無しさん@お腹いっぱい。 [sage] 2016/08/14(日) 20:07:58.40 ID:rfqjVp6u0(2/2) AAS
>>58
自動ですべてを学ばせていたことを深層階層という段階をもつことで
学習を簡単に学習設計できるようにしただけ。
その従来では深層部分は完全自動で構築していただけにすぎない、
一部手動にして学習を構造化させることで合理化しただけの仕組みにすぎない。
つまりその深層の構造部分を最適に学習&設計できなければ、
まったく意味のない技術になりさがる。
>この取り扱える範囲を物凄く拡大するものであると思ったのですが、
いえ違います逆に範囲をものすごく制限(合理化、またはノード化)することで非常に使いやすくしただけです。
従来の学習は万能学習であったが、万能すぎるゆえに学習がが難しく道具としては使えなかっただけね。
従来的な手法では学習の記憶エングラムは高度の抽象化されるので外部からそれを理解することは
ほぼ不可能とされていたが、深層学習によってそれを抽象的に制御できるようになった。
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.755s*