[過去ログ] 【統計分析】機械学習・データマイニング23 (1002レス)
前次1-
抽出解除 レス栞 あぼーん

このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
687: (ササクッテロ Sp67-ngQC [126.33.115.23]) 2019/04/13(土)23:30 ID:Sarxek9xp(1) AAS
>>680
juliaは純粋に良い言語だと思ったよ
行列周りがスッキリかけていいね
一応pythonのライブラリ呼び出せるから無理すれば使えないことはないが、業務で使うレベルにはないかな
693: (ササクッテロ Sp67-ngQC [126.33.115.23]) 2019/04/14(日)11:58 ID:AIBmgQB+p(1) AAS
>>692
就活する企業による

既にバリバリ使っていう企業ならもう一歩踏み込んで、どんなモデルで何をやっていたか、ハードウェアはどうしていたのか、なぜPyTorchを選んだのか、など機械学習そのものよりも、どう応用したのかが問われる

一方で全く使っていない企業ではそのレベルでも充分だが、やはり機械学習を使って何をしたのかは問われると思う

ただ、正直新人と機械学習にそこまで期待していないので、インターンとかアルバイトで感触と経験を積むほうが余程良いアピールになる

参考までに自社に機械学習できますで入ってきた新人は
・海外の論文を読んで自分で実装できる
・実際に機械学習で役に立つ何かを作った
・フレームワークの違いを熱く語れる
・FPGAで分類アルゴリズムを実装しました
とレベルは高かったが、入社して活用できているかは疑問
選ぶ会社間違えてないか?と心配になるレベル
731
(2): (ササクッテロ Sp67-ngQC [126.33.115.23]) 2019/04/16(火)00:07 ID:j2FFrW1Ep(1) AAS
>>730
主観で言うから話半分くらいで聞いてもらえば幸い
SonyのNNCは値段を気にしなくて良いのであれば、かなり良いと思う

例を挙げると、ResnetにSEでバイパスして結果をさらにLSTMに流して〜、なんてのは慣れていてもコードベースだとごちゃごちゃする
また各レイヤーの入出力の次元を常に意識してコード書く必要があるけど、GUIでそのストレスが軽減されるのは大きい
拙いと言われつつも構造最適化機能がありtalos等のパラメータサーチを自分で設定しなくても済むのは便利だ
GUIで線を繋ぐだけなら初心者でも理解可能だけど、kerasだPyTorchだと言うところから始めると敷居が高くとてもそこまでたどり着けない

にも関わらず、なぜ大ブームにならないかと言うと、理由は二つあると考えている
一つは新たなネットワークを設計する業務がそこまで多くない点
もう一つはバックエンドがNNABLAというkerasでもPyTorchでもないマイナーなものである点

ただONNXという共通フォーマットに対応してからしばらく経つのにまだ流行ってないところを見ると、前者のネットワーク設計業務が業務として定着していないのだと思われる
githubで拾ってきたコードを適当に回せばそれなりに仕事として成立するのだろう
746: (ササクッテロ Sp67-ngQC [126.33.115.23]) 2019/04/17(水)01:56 ID:UDUN5nb9p(1) AAS
>>745
文字通りニューラルネットワークの設計
新しい課題に適用する場合やチューニングをする際に必要となる

新しい課題では、似たような課題から似たようなニューラルネットワークを組むことから始める
勾配消失してると感じたらバイパスさせたり、過学習に陥りやすいときに適当にdropout挟んだりと、慣れてくるとどこに何をどこに配置すると性能が向上するのかが見えてくる

また上手く行っていたモデルが、入力データが異なると学習がうまくできないことがある
そこでチューニングという作業が発生する
チューニングは前処理を変えたりモデルを変えたりする
モデルを変えたい場合、例えばCNNの畳み込み層とプーリング層を一段深くしてみたり、全結合のニューロン増やしたり、活性化関数をReLUからtanhにしたり、あるいはオプティマイザをadamからadagradに変更したりする
恐ろしいことに、これだけで性能が恐ろしく向上する事が多々あり、理由が分かることのが少ない

このチューニングも含めたビジネスロジックに組み込むための(ニューラル)ネットワークの最終形態を作ることを設計と言っている
754: (ササクッテロ Sp33-Ea22 [126.33.115.23]) 2019/04/18(木)05:36 ID:JIRwwjUkp(1/2) AAS
>>753
入れられるけど使いにくいよ?
757
(1): (ササクッテロ Sp33-Ea22 [126.33.115.23]) 2019/04/18(木)11:45 ID:JIRwwjUkp(2/2) AAS
>>755
何がやりたいかにもよるけど、別々に入れておくと
統計量出したりリサンプリングしたりplotしたりそのままscikit-learnの入力にできたりとメリット多い
772: (ササクッテロ Sp33-Ea22 [126.33.115.23]) 2019/04/20(土)22:25 ID:D0CGTZnkp(1/2) AAS
>>771
根本的に理解してないか大きな勘違いをしてるぞ
ディープラーニングはニューラルネットワークの一種
773
(1): (ササクッテロ Sp33-Ea22 [126.33.115.23]) 2019/04/20(土)22:30 ID:D0CGTZnkp(2/2) AAS
>>767
ニューラルネットワークは何層でも構わない

以下は一層のニューラルネットワークの例
Input ―> (neuron|activation) ―> Output

ディープラーニングは三層以上のニューラルネットワークと言われている
782
(3): (ササクッテロ Sp33-Ea22 [126.33.115.23]) 2019/04/21(日)14:34 ID:iN8e06dBp(1) AAS
>>780
今のところ一番近いキーワードはベイジアンネットワークかな
一般的には神経科学を計算機で実現する計算神経科学と呼ばれる分野

バックプロパゲーションは脳内では起きていないと言われていて、今のニューラルネットワークはヒトの脳とはどこか違うらしい
796
(1): (ササクッテロ Sp33-Ea22 [126.33.115.23]) 2019/04/22(月)07:01 ID:vzs0SdtLp(1/4) AAS
>>791
重みの数が一層だから一層ですよ

>>782
どの辺りが適当?
800: (ササクッテロ Sp33-Ea22 [126.33.115.23]) 2019/04/22(月)09:51 ID:vzs0SdtLp(2/4) AAS
>>798
定義はあるよ、間違えている記事が多いだけ
入力層を数えない=層と層の間の重みの段数だよ
そうでないとResNet等の層数が変わってくる

ちなみに(neuron|activation)は一つの○ね
書き方まずかったかも知れんね

activationを別の層と考える人もいるようだけど、それはkerasのせいかな
801: (ササクッテロ Sp33-Ea22 [126.33.115.23]) 2019/04/22(月)09:53 ID:vzs0SdtLp(3/4) AAS
>>794
skip connection
802
(1): (ササクッテロ Sp33-Ea22 [126.33.115.23]) 2019/04/22(月)10:32 ID:vzs0SdtLp(4/4) AAS
すれ違いの理由が分かった
書き方に問題があった

Input layer ―- Hidden layer ―- Output layer
なら二層

書きたかったのは
x ―-(wx|activation) ―- y
ということなんだ

上の書き方なら
Input layer ―- Output layer
に相当する
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ

ぬこの手 ぬこTOP 0.034s