[過去ログ]
【統計分析】機械学習・データマイニング29 (1002レス)
【統計分析】機械学習・データマイニング29 http://mevius.5ch.net/test/read.cgi/tech/1597882603/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
799: デフォルトの名無しさん (ワッチョイ 3901-LBAI [220.56.102.222]) [sage] 2020/12/09(水) 19:19:54.28 ID:kJMhAlw60 Ars Technicaはこの点について、「歩行者がいる場面では、Waymoは慎重すぎます。人間のドライバーであれば、 間違いなくもっと速く動けるでしょう。しかし、このことでWaymoを責めるのは困難です。人をはねる危険を冒すくらいなら、 多少待たされた方がはるかにマシですから」とコメントしました。 不満はあれど批判できないってところだろうな http://mevius.5ch.net/test/read.cgi/tech/1597882603/799
800: デフォルトの名無しさん (ワッチョイ 5902-LBAI [118.154.96.7]) [sage] 2020/12/09(水) 20:15:28.61 ID:EU/X14pa0 パナソニックがこんなのを始めるらしいが、人込みでは遠隔手動操作なんだな。。。 https://news.yahoo.co.jp/articles/e8eb753857c1b796b95d9f5346b9af0a9873f921 http://mevius.5ch.net/test/read.cgi/tech/1597882603/800
801: デフォルトの名無しさん (ワッチョイ 5952-74Z4 [118.243.75.50]) [sage] 2020/12/09(水) 21:13:02.28 ID:O9/kA4vd0 まあこういう実証実験を積み重ねていけばいつかはものになるだろ http://mevius.5ch.net/test/read.cgi/tech/1597882603/801
802: デフォルトの名無しさん (ワッチョイ 59da-9ESD [118.16.65.177]) [sage] 2020/12/09(水) 21:47:02.66 ID:4uClczgm0 どこでもやってる http://mevius.5ch.net/test/read.cgi/tech/1597882603/802
803: デフォルトの名無しさん (ワッチョイ 3901-LBAI [220.56.102.222]) [sage] 2020/12/09(水) 23:05:26.02 ID:kJMhAlw60 日本は装置内のハードやソフトだけで成り立たせて製品単体として売るぐらいだろう 「危ないところは人が見てくださいね」っていう仕様で IT云々と絡めたり、別のサービスと絡むようなことはないだろう 日本が出来るのは 製品単体をマニアック仕様にして高く売りつけることぐらいで 車内のカメラも踏まえ、、、いろんなデータをいち早く収集し 売上に繋げて行くんだろうな http://mevius.5ch.net/test/read.cgi/tech/1597882603/803
804: デフォルトの名無しさん (ワッチョイ 5952-ojTD [118.243.75.50]) [] 2020/12/10(木) 11:21:32.39 ID:+ZlzWDd90 Transformer-based Double-token Bidirectional Autoregressive Decodingin Neural Machine Translation https://www.aclweb.org/anthology/2020.wat-1.3.pdf 精度を上げるつもりでL2RとR2Lを組み込んだんだろうけど 精度を下げてて草 しょうもなくて「速度が〜」に方針転換しててさらに草 http://mevius.5ch.net/test/read.cgi/tech/1597882603/804
805: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [] 2020/12/10(木) 16:34:54.00 ID:7nBpTtaz0 茨木俊秀著『AI時代の離散数学』に以下の記述があります. 「ディープラーニングがいろいろな分野で成功を収めているのは,多層NNは,複雑でありながら柔軟な構造をもっているので,全体的な最適解でなくても, 品質の高い局所最適解が多数存在するため,最急降下法によってそれらへ至る経路を見出しやすいからではないかと考えられる.」 確かにそうなのではないかと思わざるを得ないのですが,「品質の高い局所最適解が多数存在する」ことについての研究はあるのでしょうか? http://mevius.5ch.net/test/read.cgi/tech/1597882603/805
806: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [] 2020/12/10(木) 16:36:55.29 ID:7nBpTtaz0 損失関数のグラフが一般にどういう形状をしているのかについての研究はないのでしょうか? http://mevius.5ch.net/test/read.cgi/tech/1597882603/806
807: デフォルトの名無しさん (アウアウウー Safd-Y1oi [106.180.10.34]) [sage] 2020/12/10(木) 17:05:54.60 ID:/Tdm9YCRa 一般にかあ。それは大変な研究になりそう http://mevius.5ch.net/test/read.cgi/tech/1597882603/807
808: デフォルトの名無しさん (アウアウエー Sae3-6xLJ [111.239.185.234]) [] 2020/12/10(木) 17:33:01.48 ID:sa6E7lY5a >>806 Visualizing the Loss Landscape of Neural Nets https://arxiv.org/abs/1712.09913 http://mevius.5ch.net/test/read.cgi/tech/1597882603/808
809: デフォルトの名無しさん (ワッチョイ 5952-74Z4 [118.243.75.50]) [sage] 2020/12/10(木) 19:01:42.77 ID:+ZlzWDd90 問題やパラメータによって形状は変わるんじゃないの? 一般的な議論をするのって難しくない? http://mevius.5ch.net/test/read.cgi/tech/1597882603/809
810: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [] 2020/12/10(木) 19:07:23.07 ID:7nBpTtaz0 >>808 ありがとうございます. >>809 たとえば,f(x) = a*x^2 + b*x + cという関数のグラフは(a≠0であれば)パラメータによらず放物線です. http://mevius.5ch.net/test/read.cgi/tech/1597882603/810
811: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [] 2020/12/10(木) 19:11:38.70 ID:7nBpTtaz0 ところで,ディープラーニングでは,ニューラルネットワークを使って,誤差関数を決めます. 誤差関数を全く別の考え方で決めてやるともっと性能の良い人工知能ができないかと考えて研究している人はいるのでしょうか? http://mevius.5ch.net/test/read.cgi/tech/1597882603/811
812: デフォルトの名無しさん (アウアウウー Safd-Y1oi [106.180.10.34]) [sage] 2020/12/10(木) 19:17:10.67 ID:/Tdm9YCRa 誤差関数ってネットワークそのもの? http://mevius.5ch.net/test/read.cgi/tech/1597882603/812
813: デフォルトの名無しさん (ワッチョイ 5952-74Z4 [118.243.75.50]) [sage] 2020/12/10(木) 19:19:51.95 ID:+ZlzWDd90 >>811 調べてみたら? いそうな気がする http://mevius.5ch.net/test/read.cgi/tech/1597882603/813
814: デフォルトの名無しさん (ワッチョイ 7901-MC0k [60.69.230.42]) [sage] 2020/12/10(木) 19:34:03.65 ID:qJWGxKCt0 目的関数が異なるモデル同士は性能を比較できないんじゃない? 目的関数の他に最適性の指標となる評価関数があるなら別だけど。 http://mevius.5ch.net/test/read.cgi/tech/1597882603/814
815: デフォルトの名無しさん (ワッチョイ 5902-LBAI [118.154.96.7]) [sage] 2020/12/10(木) 20:12:15.89 ID:4I880zB/0 >>811 具体例を出せなくて申し訳ないが、誤差を補正して過学習を防ぐ正則化手法には いろんな研究分野があるらしい いま過学習に悩まされてて調べてみようかなと思ってたところ http://mevius.5ch.net/test/read.cgi/tech/1597882603/815
816: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [] 2020/12/10(木) 20:53:11.62 ID:7nBpTtaz0 >>812 どういうことでしょうか? >>813-815 ありがとうございました. 岡谷貴之著『深層学習』を読んでいるのですが,確率的勾配降下法についての素朴な質問です. Nは全訓練サンプルの数です. E(w) = Σ_{n=1}^{N} E_n(w) 確率的勾配降下法では,極端な場合,サンプル1つだけを使ってパラメータの更新を行うと書いてあります. たとえば,n=1のサンプルを使って,wを更新したとします. このとき,E_1(w)の値は,(学習係数の値が十分小さければ,)少し小さくなりますが,他のnについてのE_n(w)の値は逆に増えてしまい, トータルの誤差E(w)は増えてしまうということになる恐れはないのでしょうか? 岡谷の本にはそのことについて全く触れていません. http://mevius.5ch.net/test/read.cgi/tech/1597882603/816
817: デフォルトの名無しさん (ワッチョイ 59da-9ESD [118.16.65.177]) [sage] 2020/12/10(木) 20:54:09.43 ID:Zy+JpGE80 Courseraを勉強して自慢していた馬鹿アスペ http://mevius.5ch.net/test/read.cgi/tech/1597882603/817
818: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [sage] 2020/12/10(木) 21:00:00.66 ID:7nBpTtaz0 バッチ学習をした後で,テストデータに対して,誤差関数の値が本当に小さくなるのかというのと似たような問題かもしれませんね. http://mevius.5ch.net/test/read.cgi/tech/1597882603/818
819: デフォルトの名無しさん (ワッチョイ 5902-LBAI [118.154.96.7]) [sage] 2020/12/10(木) 21:12:09.60 ID:4I880zB/0 >>816 > トータルの誤差E(w)は増えてしまうということになる恐れはないのでしょうか? 普通にあるよ 増えたり減ったりしながら徐々に正解に近づいていくイメージ 振動するおかげで極小解から脱出できるチャンスが増える http://mevius.5ch.net/test/read.cgi/tech/1597882603/819
820: デフォルトの名無しさん (ワッチョイ 1355-orE1 [59.147.205.222]) [sage] 2020/12/10(木) 21:15:25.35 ID:7nBpTtaz0 >>819 確率的勾配降下法によって,極小値を与えるwにかならず近づいていくということは証明できるのでしょうか? 勾配降下法では,学習係数が十分小さければ,単調に誤差が減少していき,最終的に,極小値を与えるwに近づいていくことは自明ですが. http://mevius.5ch.net/test/read.cgi/tech/1597882603/820
821: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/10(木) 21:27:23.48 ID:3MNDS+Jy0 >>814 最終的な性能は正解率とか指標があるでしょう http://mevius.5ch.net/test/read.cgi/tech/1597882603/821
822: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/10(木) 21:30:19.62 ID:3MNDS+Jy0 >>811 教師信号、正解と出力の差、距離の計算方法を変えたら評価関数、誤差関数は違うものになるだろう ただそれで学習時間や性能にどんな影響があるかは自分は判らない http://mevius.5ch.net/test/read.cgi/tech/1597882603/822
823: デフォルトの名無しさん (ワッチョイ 5902-LBAI [118.154.96.7]) [sage] 2020/12/10(木) 21:40:43.82 ID:4I880zB/0 >>820 確率的勾配降下でも、学習率εが十分に小さければ近づく、とされてるね 証明もされてるんだとは思うけど、どこ見ればいいとかは俺はわからない ところで、欲しいのは極小解じゃなくて大域的最適解だよね? 極小値でよければ最急降下法が一番収束が速い 1サンプルずつ学習する確率的…は極小値にはまらない可能性は高いけど重すぎる バランスを取ったのがバッチ学習 http://mevius.5ch.net/test/read.cgi/tech/1597882603/823
824: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/10(木) 21:40:45.06 ID:3MNDS+Jy0 >>816 自分で実験してみるのが1つの方法 初期化後に全データで評価値を計算して 簡単なNNを作ってデータ1つで重みを更新してから 全データで評価値を再計算する 多分増える事もあると思うけどデータを変えて重みを更新していく事で徐々に出力と正解の誤差が小さくなっていくと思う 同じ出力をする入力は同じニューロンが発火して 別の出力をする入力はそれと違うニューロンが発火するよつな感じに学習が進んでいくのかな http://mevius.5ch.net/test/read.cgi/tech/1597882603/824
825: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/10(木) 21:45:21.96 ID:3MNDS+Jy0 >>820 勾配降下法は深層学習に限らず研究されているんじゃないかと思う そっち方面で局所的最適値を得られる条件とか判ってるかもしれない 凸関数とかそんなのが条件になっていたりするかも http://mevius.5ch.net/test/read.cgi/tech/1597882603/825
826: デフォルトの名無しさん (ワッチョイ 0b10-t6eo [153.131.102.129]) [sage] 2020/12/10(木) 22:51:59.08 ID:3MNDS+Jy0 思い出した 鞍点とかあるとそこで止まるとかあったような http://mevius.5ch.net/test/read.cgi/tech/1597882603/826
827: デフォルトの名無しさん (ワッチョイ e901-qdUP [126.25.239.8]) [sage] 2020/12/10(木) 23:37:19.21 ID:feZOjJB+0 正しいけれど全く意味のない話というやつだな。 http://mevius.5ch.net/test/read.cgi/tech/1597882603/827
828: デフォルトの名無しさん (ササクッテロ Spa5-t6eo [126.33.131.200]) [sage] 2020/12/11(金) 09:59:56.91 ID:YXM/kAxOp 意味があるかは解釈によっても変わる 道具が同じでも上手く使える人とそうではない人がいる 既存の技術を上手く使って問題解決できた人もいるからな http://mevius.5ch.net/test/read.cgi/tech/1597882603/828
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 174 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.022s