[過去ログ]
【統計分析】機械学習・データマイニング23 (1002レス)
【統計分析】機械学習・データマイニング23 http://mevius.5ch.net/test/read.cgi/tech/1551352040/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
あぼーん
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
687: デフォルトの名無しさん (ササクッテロ Sp67-ngQC [126.33.115.23]) [sage] 2019/04/13(土) 23:30:17 ID:Sarxek9xp >>680 juliaは純粋に良い言語だと思ったよ 行列周りがスッキリかけていいね 一応pythonのライブラリ呼び出せるから無理すれば使えないことはないが、業務で使うレベルにはないかな http://mevius.5ch.net/test/read.cgi/tech/1551352040/687
693: デフォルトの名無しさん (ササクッテロ Sp67-ngQC [126.33.115.23]) [sage] 2019/04/14(日) 11:58:50 ID:AIBmgQB+p >>692 就活する企業による 既にバリバリ使っていう企業ならもう一歩踏み込んで、どんなモデルで何をやっていたか、ハードウェアはどうしていたのか、なぜPyTorchを選んだのか、など機械学習そのものよりも、どう応用したのかが問われる 一方で全く使っていない企業ではそのレベルでも充分だが、やはり機械学習を使って何をしたのかは問われると思う ただ、正直新人と機械学習にそこまで期待していないので、インターンとかアルバイトで感触と経験を積むほうが余程良いアピールになる 参考までに自社に機械学習できますで入ってきた新人は ・海外の論文を読んで自分で実装できる ・実際に機械学習で役に立つ何かを作った ・フレームワークの違いを熱く語れる ・FPGAで分類アルゴリズムを実装しました とレベルは高かったが、入社して活用できているかは疑問 選ぶ会社間違えてないか?と心配になるレベル http://mevius.5ch.net/test/read.cgi/tech/1551352040/693
731: デフォルトの名無しさん (ササクッテロ Sp67-ngQC [126.33.115.23]) [sage] 2019/04/16(火) 00:07:54 ID:j2FFrW1Ep >>730 主観で言うから話半分くらいで聞いてもらえば幸い SonyのNNCは値段を気にしなくて良いのであれば、かなり良いと思う 例を挙げると、ResnetにSEでバイパスして結果をさらにLSTMに流して〜、なんてのは慣れていてもコードベースだとごちゃごちゃする また各レイヤーの入出力の次元を常に意識してコード書く必要があるけど、GUIでそのストレスが軽減されるのは大きい 拙いと言われつつも構造最適化機能がありtalos等のパラメータサーチを自分で設定しなくても済むのは便利だ GUIで線を繋ぐだけなら初心者でも理解可能だけど、kerasだPyTorchだと言うところから始めると敷居が高くとてもそこまでたどり着けない にも関わらず、なぜ大ブームにならないかと言うと、理由は二つあると考えている 一つは新たなネットワークを設計する業務がそこまで多くない点 もう一つはバックエンドがNNABLAというkerasでもPyTorchでもないマイナーなものである点 ただONNXという共通フォーマットに対応してからしばらく経つのにまだ流行ってないところを見ると、前者のネットワーク設計業務が業務として定着していないのだと思われる githubで拾ってきたコードを適当に回せばそれなりに仕事として成立するのだろう http://mevius.5ch.net/test/read.cgi/tech/1551352040/731
746: デフォルトの名無しさん (ササクッテロ Sp67-ngQC [126.33.115.23]) [sage] 2019/04/17(水) 01:56:35 ID:UDUN5nb9p >>745 文字通りニューラルネットワークの設計 新しい課題に適用する場合やチューニングをする際に必要となる 新しい課題では、似たような課題から似たようなニューラルネットワークを組むことから始める 勾配消失してると感じたらバイパスさせたり、過学習に陥りやすいときに適当にdropout挟んだりと、慣れてくるとどこに何をどこに配置すると性能が向上するのかが見えてくる また上手く行っていたモデルが、入力データが異なると学習がうまくできないことがある そこでチューニングという作業が発生する チューニングは前処理を変えたりモデルを変えたりする モデルを変えたい場合、例えばCNNの畳み込み層とプーリング層を一段深くしてみたり、全結合のニューロン増やしたり、活性化関数をReLUからtanhにしたり、あるいはオプティマイザをadamからadagradに変更したりする 恐ろしいことに、これだけで性能が恐ろしく向上する事が多々あり、理由が分かることのが少ない このチューニングも含めたビジネスロジックに組み込むための(ニューラル)ネットワークの最終形態を作ることを設計と言っている http://mevius.5ch.net/test/read.cgi/tech/1551352040/746
754: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/18(木) 05:36:03 ID:JIRwwjUkp >>753 入れられるけど使いにくいよ? http://mevius.5ch.net/test/read.cgi/tech/1551352040/754
757: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/18(木) 11:45:22 ID:JIRwwjUkp >>755 何がやりたいかにもよるけど、別々に入れておくと 統計量出したりリサンプリングしたりplotしたりそのままscikit-learnの入力にできたりとメリット多い http://mevius.5ch.net/test/read.cgi/tech/1551352040/757
772: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/20(土) 22:25:45 ID:D0CGTZnkp >>771 根本的に理解してないか大きな勘違いをしてるぞ ディープラーニングはニューラルネットワークの一種 http://mevius.5ch.net/test/read.cgi/tech/1551352040/772
773: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/20(土) 22:30:25 ID:D0CGTZnkp >>767 ニューラルネットワークは何層でも構わない 以下は一層のニューラルネットワークの例 Input ―> (neuron|activation) ―> Output ディープラーニングは三層以上のニューラルネットワークと言われている http://mevius.5ch.net/test/read.cgi/tech/1551352040/773
782: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/21(日) 14:34:18 ID:iN8e06dBp >>780 今のところ一番近いキーワードはベイジアンネットワークかな 一般的には神経科学を計算機で実現する計算神経科学と呼ばれる分野 バックプロパゲーションは脳内では起きていないと言われていて、今のニューラルネットワークはヒトの脳とはどこか違うらしい http://mevius.5ch.net/test/read.cgi/tech/1551352040/782
796: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/22(月) 07:01:10 ID:vzs0SdtLp >>791 重みの数が一層だから一層ですよ >>782 どの辺りが適当? http://mevius.5ch.net/test/read.cgi/tech/1551352040/796
800: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/22(月) 09:51:07 ID:vzs0SdtLp >>798 定義はあるよ、間違えている記事が多いだけ 入力層を数えない=層と層の間の重みの段数だよ そうでないとResNet等の層数が変わってくる ちなみに(neuron|activation)は一つの○ね 書き方まずかったかも知れんね activationを別の層と考える人もいるようだけど、それはkerasのせいかな http://mevius.5ch.net/test/read.cgi/tech/1551352040/800
801: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/22(月) 09:53:23 ID:vzs0SdtLp >>794 skip connection http://mevius.5ch.net/test/read.cgi/tech/1551352040/801
802: デフォルトの名無しさん (ササクッテロ Sp33-Ea22 [126.33.115.23]) [sage] 2019/04/22(月) 10:32:33 ID:vzs0SdtLp すれ違いの理由が分かった 書き方に問題があった Input layer ―- Hidden layer ―- Output layer なら二層 書きたかったのは x ―-(wx|activation) ―- y ということなんだ 上の書き方なら Input layer ―- Output layer に相当する http://mevius.5ch.net/test/read.cgi/tech/1551352040/802
メモ帳
(0/65535文字)
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
1.400s*