[過去ログ] 【統計分析】機械学習・データマイニング29 (1002レス)
上下前次1-新
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
803: (ワッチョイ 3901-LBAI [220.56.102.222]) 2020/12/09(水)23:05 ID:kJMhAlw60(3/3) AAS
日本は装置内のハードやソフトだけで成り立たせて製品単体として売るぐらいだろう
「危ないところは人が見てくださいね」っていう仕様で
IT云々と絡めたり、別のサービスと絡むようなことはないだろう
日本が出来るのは
製品単体をマニアック仕様にして高く売りつけることぐらいで
車内のカメラも踏まえ、、、いろんなデータをいち早く収集し
売上に繋げて行くんだろうな
804: (ワッチョイ 5952-ojTD [118.243.75.50]) 2020/12/10(木)11:21 ID:+ZlzWDd90(1/3) AAS
Transformer-based Double-token Bidirectional Autoregressive Decodingin Neural Machine Translation
外部リンク[pdf]:www.aclweb.org
精度を上げるつもりでL2RとR2Lを組み込んだんだろうけど
精度を下げてて草
しょうもなくて「速度が〜」に方針転換しててさらに草
805: (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/10(木)16:34 ID:7nBpTtaz0(1/7) AAS
茨木俊秀著『AI時代の離散数学』に以下の記述があります.
「ディープラーニングがいろいろな分野で成功を収めているのは,多層NNは,複雑でありながら柔軟な構造をもっているので,全体的な最適解でなくても,
品質の高い局所最適解が多数存在するため,最急降下法によってそれらへ至る経路を見出しやすいからではないかと考えられる.」
確かにそうなのではないかと思わざるを得ないのですが,「品質の高い局所最適解が多数存在する」ことについての研究はあるのでしょうか?
806(1): (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/10(木)16:36 ID:7nBpTtaz0(2/7) AAS
損失関数のグラフが一般にどういう形状をしているのかについての研究はないのでしょうか?
807: (アウアウウー Safd-Y1oi [106.180.10.34]) 2020/12/10(木)17:05 ID:/Tdm9YCRa(1/2) AAS
一般にかあ。それは大変な研究になりそう
808(1): (アウアウエー Sae3-6xLJ [111.239.185.234]) 2020/12/10(木)17:33 ID:sa6E7lY5a(1) AAS
>>806
Visualizing the Loss Landscape of Neural Nets
外部リンク:arxiv.org
809(1): (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/10(木)19:01 ID:+ZlzWDd90(2/3) AAS
問題やパラメータによって形状は変わるんじゃないの?
一般的な議論をするのって難しくない?
810: (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/10(木)19:07 ID:7nBpTtaz0(3/7) AAS
>>808
ありがとうございます.
>>809
たとえば,f(x) = a*x^2 + b*x + cという関数のグラフは(a≠0であれば)パラメータによらず放物線です.
811(3): (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/10(木)19:11 ID:7nBpTtaz0(4/7) AAS
ところで,ディープラーニングでは,ニューラルネットワークを使って,誤差関数を決めます.
誤差関数を全く別の考え方で決めてやるともっと性能の良い人工知能ができないかと考えて研究している人はいるのでしょうか?
812(1): (アウアウウー Safd-Y1oi [106.180.10.34]) 2020/12/10(木)19:17 ID:/Tdm9YCRa(2/2) AAS
誤差関数ってネットワークそのもの?
813(1): (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/10(木)19:19 ID:+ZlzWDd90(3/3) AAS
>>811
調べてみたら?
いそうな気がする
814(2): (ワッチョイ 7901-MC0k [60.69.230.42]) 2020/12/10(木)19:34 ID:qJWGxKCt0(1) AAS
目的関数が異なるモデル同士は性能を比較できないんじゃない?
目的関数の他に最適性の指標となる評価関数があるなら別だけど。
815(1): (ワッチョイ 5902-LBAI [118.154.96.7]) 2020/12/10(木)20:12 ID:4I880zB/0(1/3) AAS
>>811
具体例を出せなくて申し訳ないが、誤差を補正して過学習を防ぐ正則化手法には
いろんな研究分野があるらしい
いま過学習に悩まされてて調べてみようかなと思ってたところ
816(2): (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/10(木)20:53 ID:7nBpTtaz0(5/7) AAS
>>812
どういうことでしょうか?
>>813-815
ありがとうございました.
岡谷貴之著『深層学習』を読んでいるのですが,確率的勾配降下法についての素朴な質問です.
Nは全訓練サンプルの数です.
E(w) = Σ_{n=1}^{N} E_n(w)
確率的勾配降下法では,極端な場合,サンプル1つだけを使ってパラメータの更新を行うと書いてあります.
たとえば,n=1のサンプルを使って,wを更新したとします.
このとき,E_1(w)の値は,(学習係数の値が十分小さければ,)少し小さくなりますが,他のnについてのE_n(w)の値は逆に増えてしまい,
省2
817: (ワッチョイ 59da-9ESD [118.16.65.177]) 2020/12/10(木)20:54 ID:Zy+JpGE80(1) AAS
Courseraを勉強して自慢していた馬鹿アスペ
818: (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/10(木)21:00 ID:7nBpTtaz0(6/7) AAS
バッチ学習をした後で,テストデータに対して,誤差関数の値が本当に小さくなるのかというのと似たような問題かもしれませんね.
819(1): (ワッチョイ 5902-LBAI [118.154.96.7]) 2020/12/10(木)21:12 ID:4I880zB/0(2/3) AAS
>>816
> トータルの誤差E(w)は増えてしまうということになる恐れはないのでしょうか?
普通にあるよ
増えたり減ったりしながら徐々に正解に近づいていくイメージ
振動するおかげで極小解から脱出できるチャンスが増える
820(2): (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/10(木)21:15 ID:7nBpTtaz0(7/7) AAS
>>819
確率的勾配降下法によって,極小値を与えるwにかならず近づいていくということは証明できるのでしょうか?
勾配降下法では,学習係数が十分小さければ,単調に誤差が減少していき,最終的に,極小値を与えるwに近づいていくことは自明ですが.
821: (ワッチョイ 0b10-t6eo [153.131.102.129]) 2020/12/10(木)21:27 ID:3MNDS+Jy0(1/5) AAS
>>814
最終的な性能は正解率とか指標があるでしょう
822: (ワッチョイ 0b10-t6eo [153.131.102.129]) 2020/12/10(木)21:30 ID:3MNDS+Jy0(2/5) AAS
>>811
教師信号、正解と出力の差、距離の計算方法を変えたら評価関数、誤差関数は違うものになるだろう
ただそれで学習時間や性能にどんな影響があるかは自分は判らない
823: (ワッチョイ 5902-LBAI [118.154.96.7]) 2020/12/10(木)21:40 ID:4I880zB/0(3/3) AAS
>>820
確率的勾配降下でも、学習率εが十分に小さければ近づく、とされてるね
証明もされてるんだとは思うけど、どこ見ればいいとかは俺はわからない
ところで、欲しいのは極小解じゃなくて大域的最適解だよね?
極小値でよければ最急降下法が一番収束が速い
1サンプルずつ学習する確率的…は極小値にはまらない可能性は高いけど重すぎる
バランスを取ったのがバッチ学習
824: (ワッチョイ 0b10-t6eo [153.131.102.129]) 2020/12/10(木)21:40 ID:3MNDS+Jy0(3/5) AAS
>>816
自分で実験してみるのが1つの方法
初期化後に全データで評価値を計算して
簡単なNNを作ってデータ1つで重みを更新してから
全データで評価値を再計算する
多分増える事もあると思うけどデータを変えて重みを更新していく事で徐々に出力と正解の誤差が小さくなっていくと思う
同じ出力をする入力は同じニューロンが発火して
別の出力をする入力はそれと違うニューロンが発火するよつな感じに学習が進んでいくのかな
825: (ワッチョイ 0b10-t6eo [153.131.102.129]) 2020/12/10(木)21:45 ID:3MNDS+Jy0(4/5) AAS
>>820
勾配降下法は深層学習に限らず研究されているんじゃないかと思う
そっち方面で局所的最適値を得られる条件とか判ってるかもしれない
凸関数とかそんなのが条件になっていたりするかも
826: (ワッチョイ 0b10-t6eo [153.131.102.129]) 2020/12/10(木)22:51 ID:3MNDS+Jy0(5/5) AAS
思い出した
鞍点とかあるとそこで止まるとかあったような
827: (ワッチョイ e901-qdUP [126.25.239.8]) 2020/12/10(木)23:37 ID:feZOjJB+0(1) AAS
正しいけれど全く意味のない話というやつだな。
828: (ササクッテロ Spa5-t6eo [126.33.131.200]) 2020/12/11(金)09:59 ID:YXM/kAxOp(1) AAS
意味があるかは解釈によっても変わる
道具が同じでも上手く使える人とそうではない人がいる
既存の技術を上手く使って問題解決できた人もいるからな
829: (ワッチョイ a1da-9ESD [114.183.142.212]) 2020/12/11(金)10:40 ID:Fdk3ZWWm0(1/7) AAS
馬鹿アスペの相手してる5902-LBAIだろ
830(1): (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/11(金)11:31 ID:SUhg1yPU0(1/2) AAS
みなさん,ありがとうございました.
いろいろな日本語のディープラーニングの本を見てみましたが,確率的勾配降下法がなぜうまくいのかについての説明は全くありませんでした.
831(2): (ワッチョイ 1355-orE1 [59.147.205.222]) 2020/12/11(金)11:34 ID:SUhg1yPU0(2/2) AAS
まるで,うまくいくのが自明であるかのような扱いです.
確率的勾配降下法に限らず,この分野は常にこのような感じですよね.
832: (ワッチョイ a1da-9ESD [114.183.142.212]) 2020/12/11(金)12:05 ID:Fdk3ZWWm0(2/7) AAS
1355-orE1は馬鹿アスペなのでスルーよろしく
833: (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/11(金)12:12 ID:vXWM25Of0(1) AAS
わかんないことがあれば自分で調べればいいのにね(笑)
834: (ワッチョイ a1da-9ESD [114.183.142.212]) 2020/12/11(金)12:31 ID:Fdk3ZWWm0(3/7) AAS
馬鹿アスペは岡山県なんだ
835: (オッペケ Sra5-6xLJ [126.208.198.69]) 2020/12/11(金)12:57 ID:P9V8rC1yr(1) AAS
>>830
この辺の理論が解明され始めたのは去年頃からだから、まだ本にはなってないよ
知りたければ論文読むかslideshareを探すといい
836: (ワッチョイ 7901-MC0k [60.69.230.42]) 2020/12/11(金)13:21 ID:Wsx93R0l0(1/2) AAS
馬鹿と決めつけるより具体的に反論した方が生産的な気もする
837(1): (アウアウウー Safd-t6eo [106.154.8.245]) 2020/12/11(金)14:21 ID:keBMi+cGa(1) AAS
深層学習じゃない機械学習では誤差が小さくなる事とか条件とか証明されていると思うけどな
深層学習もそれからの類推か包含しているかじゃないか?
838: (アウアウウー Safd-orE1 [106.154.128.125]) 2020/12/11(金)14:24 ID:76SqqmH2a(1) AAS
>>831
発表されていないけど考えられる限りの
それ以外の方法を
多数の人が試していて
性能が出ないので発表されていないだけ
技術の分野ではよくあるんだよな
それを知らないと時間を大きく損する
839: (ワッチョイ a1da-9ESD [114.183.142.212]) 2020/12/11(金)14:59 ID:Fdk3ZWWm0(4/7) AAS
荒らしに反論するのが生産的w、2ch素人かよ
840: (アウアウウー Safd-Y1oi [106.180.11.203]) 2020/12/11(金)15:07 ID:XbH1RnBla(1/2) AAS
暇な数学者が冷やかしに来たようだ
841: (ワッチョイ a1da-9ESD [114.183.142.212]) 2020/12/11(金)15:58 ID:Fdk3ZWWm0(5/7) AAS
数学者?何処にいるの?
842: (アウアウウー Safd-Y1oi [106.180.11.203]) 2020/12/11(金)16:05 ID:XbH1RnBla(2/2) AAS
数学徒にしとく
843: (ワッチョイ 7901-MC0k [60.69.230.42]) 2020/12/11(金)16:18 ID:Wsx93R0l0(2/2) AAS
荒らしってほどでもないような…
判らないのであれば、判らないと答えればいい。
それか参考になりそうな論文を紹介するとかね。
844: (ワッチョイ a1da-9ESD [114.183.142.212]) 2020/12/11(金)16:23 ID:Fdk3ZWWm0(6/7) AAS
ぷ板にあげるよ、遊んであげてw
845: (ワッチョイ a1da-kNbH [114.183.142.212]) 2020/12/11(金)17:08 ID:Fdk3ZWWm0(7/7) AAS
それから馬鹿アスぺはアルゴリズムの本を読んでいてプログラムの才能はないとぷ板の住人にで言われてる
846: (アウアウエー Sae3-6xLJ [111.239.185.234]) 2020/12/11(金)20:04 ID:BgeuQOWca(1/4) AAS
>>837
深層学習を従来の理論に当てはめると過学習しまくって使い物にならんはず
だが実際学習できて性能も良い
この差は既存の理論では最適化(勾配降下法)のダイナミクスが考慮されていないから
最適化までを考慮して統計理論に結びつける研究が近年進んでいる
847: (ワッチョイ 0b10-t6eo [153.131.102.129]) 2020/12/11(金)20:20 ID:5sai34i/0(1/2) AAS
最適化関連の過去の研究結果が何一つ活用できない?
数学的にある値、例えば誤差がある範囲に入る確率とか、の上限が示されていたりする事は活用できるだろう
848: (ワッチョイ 0b10-t6eo [153.131.102.129]) 2020/12/11(金)20:21 ID:5sai34i/0(2/2) AAS
他の機械学習に勾配降下と同等の操作をしていないと言うのは何故そう思う?
849: (アウアウエー Sae3-6xLJ [111.239.185.234]) 2020/12/11(金)20:32 ID:BgeuQOWca(2/4) AAS
していないなんて言ってないよ。考慮されていないと言っただけ
従来はそれで多いな問題はなかったが、深層学習ではパラメーター空間が広大になり最適化法それ自体の制約としての側面が目立つようになった
850(2): (アウアウエー Sae3-6xLJ [111.239.185.234]) 2020/12/11(金)20:36 ID:BgeuQOWca(3/4) AAS
外部リンク[pdf]:ibis.t.u-tokyo.ac.jp
最近の深層学習理論が纏められている
読むと良い
851: (アウアウエー Sae3-6xLJ [111.239.185.234]) 2020/12/11(金)20:40 ID:BgeuQOWca(4/4) AAS
外部リンク[pdf]:ibis.t.u-tokyo.ac.jp
852: (ブーイモ MM3d-SCev [202.214.231.57]) 2020/12/11(金)20:46 ID:OnRhFRT3M(1) AAS
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な ことはよーくわかったよ。 ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw
853: (スップ Sd33-EgOZ [49.97.106.249]) 2020/12/12(土)10:33 ID:4+CF+8cud(1) AAS
>>850
とてもためになりました。ありがとう。
854: (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/12(土)13:35 ID:9H+yvdp50(1/3) AAS
偉い人(゚∀゚ 三 ゚∀゚)来てた
この資料いい
855: (ワッチョイ 0b10-LBAI [153.131.102.129]) 2020/12/12(土)13:53 ID:D9gFLJkJ0(1/3) AAS
850, 851のpdfを読むと
層の横幅Mが広い(素子数が多い)と大域的最適解を得られるっぽいけど
どのくらいの素子数なのか実現可能な数なのかはよくわからなかったな
その素子数を計算で求めることができるのかも
P20に初期化は1/Mって書いてあるけど、横幅Mを計算するλminが何か書いてないような
wの初期化するN(0,I)のIも何か判らない
NTKで調べたら出てくるのか?
逆温度βもどんな値になるのか、変化するのかも判らないな
非凸性→深層学習
その他→他の機械学習(ランダムフォレストとか)
省1
856(1): (ワッチョイ 13ad-MyGI [125.13.183.98]) 2020/12/12(土)13:53 ID:qFkF8Df00(1/2) AAS
勾配降下法の意味は理解できましたが、使う意味がよく分からないです。
初めから勾配ベクトルが零ベクトルになるように偏微分の連立方程式解いて
その解を損失関数に代入したものの中から最小のものを選べば済むんじゃないですか?
そうすれば局所最適解に陥ることも避けられますし
857: (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/12(土)14:05 ID:9H+yvdp50(2/3) AAS
わかんない😭💦💦
858: (オッペケ Sra5-6xLJ [126.194.64.89]) 2020/12/12(土)14:07 ID:lSvR9P/Gr(1) AAS
>>856
数千万次元の非線形連立方程式が解けるのならね
859: (ブーイモ MMed-Y1oi [210.138.178.145]) 2020/12/12(土)14:23 ID:FBvDYARoM(1) AAS
高校生なのかな。。
860: (ワッチョイ 51ad-8thv [42.148.220.186]) 2020/12/12(土)15:03 ID:uoFruwVO0(1) AAS
損失関数の導関数が4次方程式までなら頑張れば解析的に解ける希ガスとか言ってるテスト
861(1): (ワッチョイ 13ad-MyGI [125.13.183.98]) 2020/12/12(土)15:52 ID:qFkF8Df00(2/2) AAS
次元(変数の数?)が膨大な上に、偏微分で得られた導関数が5次以上になると
代数的に解くことができなくなるからってことなんですね
勉強になりました、ありがとうございます
862: (ワッチョイ a1da-9ESD [114.183.142.212]) 2020/12/12(土)16:15 ID:cW0yBRdh0(1) AAS
意味がねーw
863: (ワッチョイ 5902-LBAI [118.154.96.7]) 2020/12/12(土)16:29 ID:Qgp/l0qJ0(1) AAS
>>861
計算量の問題もあるが、それだけじゃないんだぜ
学習データだけで最適解を求めてしまうと過学習に陥りやすくなる
いろいろ制約つけて、学習を途中で止めた方が汎化性能が高くなる
アーリーストップとかで調べてみるといいよ
864(1): (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/12(土)17:27 ID:9H+yvdp50(3/3) AAS
解析的に求められないってことを知った上での発言かと思ってた
865(1): (アウアウウー Safd-orE1 [106.154.128.125]) 2020/12/12(土)19:10 ID:cvY7SZ8Va(1) AAS
極端な話n次元ならn次方程式を用意すれば
サンプルを完全にトレースできる
でもそれだと過学習
一つ別のデータに出会ったとたん破綻する
866: (ワッチョイ 0b10-/9i7 [153.131.102.129]) 2020/12/12(土)19:25 ID:D9gFLJkJ0(2/3) AAS
非線形だから簡単じゃないんだろう
わざわざより高次元空間に写して線形判別しないと上手くいかない
867(1): (ワッチョイ 0b10-/9i7 [153.131.102.129]) 2020/12/12(土)19:30 ID:D9gFLJkJ0(3/3) AAS
>>865
それは違う気がするな
重みやパラメータをデータから決めただけで
モデルの出力が学習に使用したデータから少しずれたら判別でしなくなるのとは違う
例えば2値判別する時に2点のデータからその中間で判別する境界線を学習したら
データの2点から少しズレても正しく判別できる
868: (ワッチョイ e901-qdUP [126.25.239.8]) 2020/12/13(日)15:04 ID:QUI91bME0(1) AAS
>>864
多分「解析的に求められない」の意味もわかってないと思われる。
869(1): (ワッチョイ 0b10-/9i7 [153.131.102.129]) 2020/12/13(日)17:00 ID:tqYTVUHS0(1/3) AAS
>>867
同じグループに判別されるデータが飛び飛びではなくて連続しているという前提が成り立つ空間ではそうなるけど
少しズレたら別のグループに判別される様な空間では複雑な境界線になるだろうな
870(1): (アウアウウー Safd-orE1 [106.154.120.237]) 2020/12/13(日)17:57 ID:25RZkjwia(1/2) AAS
>>869
それを解消するために座標変換するんじゃないのか?
871: (アウアウカー Sa35-lled [182.251.230.94]) 2020/12/13(日)18:03 ID:DA9wJKZga(1) AAS
その通り
飛び飛びかどうかなど自分で勝手に決めた空間での話に過ぎない
872(1): (ワッチョイ 0b10-/9i7 [153.131.102.129]) 2020/12/13(日)19:15 ID:tqYTVUHS0(2/3) AAS
>>870
それは判っているけど
具体的にどんな変換をしたら良いかはどうやって見つける?
873: (アウアウウー Safd-orE1 [106.154.120.237]) 2020/12/13(日)21:11 ID:25RZkjwia(2/2) AAS
>>872
片っ端から試してみる
874(1): (ワッチョイ 0b10-t6eo [153.131.102.129]) 2020/12/13(日)21:42 ID:tqYTVUHS0(3/3) AAS
試したものより良いものがあるかもしれない
試したものが良くないものばかりの場合は幾ら試しても大して改善しない
875: (ワッチョイ a1da-9ESD [114.183.142.212]) 2020/12/13(日)21:52 ID:PRaoFZ6s0(1) AAS
笑
876(1): (アウアウカー Sa35-lled [182.251.225.141]) 2020/12/14(月)00:23 ID:ZA1fGlD1a(1) AAS
>>874
そもそも真の分布などが分からないものを扱うために分析者の判断で何らかの近似をするのが機械学習を含む統計的分析なので「その方法よりいい方法があるかもしれない」は常に発生する問題
877: (ワッチョイ 0b10-/9i7 [153.131.102.129]) 2020/12/14(月)00:50 ID:Uxl3N8rs0(1/2) AAS
>>876
必要な次元とか空間の特徴とか計算料を少なくする条件とか
判る事がゼロなのかどうかで違ってくるだろう
878(1): (ワントンキン MMd3-74Z4 [153.147.50.225]) 2020/12/14(月)11:04 ID:oqEGCmVFM(1/2) AAS
アルゴリズムにも人権を与えて
自動運転でミスったりしたら
減点すればいい
運転免許もアルゴリズムに与えて
失敗したアルゴリズムには免許与えない
アルゴリズムが得た給料を
損害時の補償に使う
人を殺したらそのアルゴリズムを死刑つまり廃止する
879: (アウアウエー Sae3-6xLJ [111.239.184.222]) 2020/12/14(月)11:59 ID:hG9yFSana(1/2) AAS
そして機械学習は禁止され、技術の発展は止まりましたとさ
880: (アウアウエー Sae3-6xLJ [111.239.184.222]) 2020/12/14(月)12:02 ID:hG9yFSana(2/2) AAS
問題が発生したとき思考停止で禁止にして表面的に解決した事にするのはよくないよ
881: (ブーイモ MM4b-Y1oi [163.49.207.175]) 2020/12/14(月)12:05 ID:UL+KPlxuM(1) AAS
タチコマみたいにクローン沢山作って同期させて、問題が起きたらその手前まで巻き戻せばいいんじゃね。知らんけど
882: (ワッチョイ ab7b-CC38 [49.242.228.105]) 2020/12/14(月)14:16 ID:mBCs7faG0(1) AAS
ぼーくらはみんなーいーきているー♪
883: (ワントンキン MMd3-74Z4 [153.147.50.225]) 2020/12/14(月)14:45 ID:oqEGCmVFM(2/2) AAS
富士通が次元の呪いを解決していたとは知らなかった(笑)
884: (ワッチョイ a1da-9ESD [114.183.142.212]) 2020/12/14(月)15:59 ID:eKlmCy2P0(1) AAS
メビウスの帯
885: (ワッチョイ e901-qdUP [126.25.239.8]) 2020/12/14(月)19:55 ID:x73SwTqZ0(1/2) AAS
>>878
人と違ってアルゴリズムが厳密に同じか違うかは判定できなないだろ
886: (ワッチョイ 0b10-/9i7 [153.131.102.129]) 2020/12/14(月)20:26 ID:Uxl3N8rs0(2/2) AAS
会社がそのアルゴリズムを採用する
会社は損失を負うリスクを回避するようになる
つまり良くないアルゴリズムは淘汰されていく
887: (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/14(月)20:27 ID:RKD6T7Qa0(1/3) AAS
初期値で大分変わるじゃん
888: (ワッチョイ e901-qdUP [126.25.239.8]) 2020/12/14(月)20:41 ID:x73SwTqZ0(2/2) AAS
企業はそのリスクを背負う気はないようだが?
889: (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/14(月)21:07 ID:RKD6T7Qa0(2/3) AAS
さあね
わからないだろ
890: (JP 0Hf5-Rfte [172.94.56.42]) 2020/12/14(月)23:00 ID:zMVEQPEWH(1) AAS
これどう思う?
Twitterリンク:AnimaAnandkumar
AI研究者はひどい。
Twitterリンク:5chan_nel (5ch newer account)
891(2): (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/14(月)23:29 ID:RKD6T7Qa0(3/3) AAS
最近解雇されたGoogle の AI 研究者はヒドイjsw
黒人で女だから差別されたって言えば最強、誰も何も言えなくなるのを利用した卑怯者
正義面して、ポリコレがいきすぎてる
892: (ワッチョイ 112c-5DcA [160.237.76.15]) 2020/12/15(火)06:12 ID:Tkipkp+V0(1) AAS
奇怪学習
893: (ブーイモ MMed-Y1oi [210.138.208.198]) 2020/12/15(火)11:20 ID:+XiYuWE0M(1) AAS
仲間内の揉め事って感じだよね。他の失業者も沢山いるんやが
894: (ワッチョイ e901-qdUP [126.25.239.8]) 2020/12/15(火)19:44 ID:DgOkpJ7c0(1/2) AAS
>>891
ハイハイ、逆張り俺すげー言いたいのはよくわかったよ。
こういう馬鹿がトランプ支持してんだろうね。
895: (ワッチョイ 5952-74Z4 [118.243.75.50]) 2020/12/15(火)20:43 ID:+7r3AYVf0(1) AAS
逆張りってどういうこと
896: (ワッチョイ a1da-m2uk [114.183.190.118]) 2020/12/15(火)21:00 ID:cZJnynS70(1) AAS
敵対的生成ネットワークを実世界で
展開する俺すげー
かな?
897: (アウアウエー Sae3-6xLJ [111.239.184.222]) 2020/12/15(火)22:32 ID:EFJMX327a(1) AAS
敵対するだけして何も生成せん
898(1): (ワッチョイ e901-qdUP [126.25.239.8]) 2020/12/15(火)22:54 ID:DgOkpJ7c0(2/2) AAS
いや普通に差別されて訴えてるだけだろ。それを裏がある(ドヤ)とかやってるから馬鹿だと言ってる。
899: (アウアウエー Sa8a-PyTo [111.239.152.99]) 2020/12/16(水)00:18 ID:5+uASLd0a(1) AAS
画像リンク[jpg]:ic4-a.wowma.net
900(1): (ワッチョイ d152-doo0 [118.243.75.50]) 2020/12/16(水)15:42 ID:Y9gDOksI0(1) AAS
>>898
残念な人だなぁ
901: (ワッチョイ 8101-Gz4g [220.56.102.222]) 2020/12/16(水)19:13 ID:3ThseEil0(1) AAS
ネットで話題になるっていうことは
そういうことだろう
糞みたいな動画をいろんなSNSに貼りつけ
煽ったり叩いたり擁護する奴が現れ書き込みが増えて行き
同時期にスタートした同じテーマの質の良い動画をうpしている
youtuberより3桁、4桁上の視聴数を稼ぐことになっていた
人気の動画っていうのも
そういうことだろう
炎上してネットで話題になった案件でも
そこで何回も投稿している奴は数人しかいない
902: (ワッチョイ 3901-oRzu [126.25.239.8]) 2020/12/17(木)00:42 ID:X4tT/GwL0(1) AAS
>>900
普通にピチャイが謝罪してるんだが。。やっぱトランプ脳やな。。
外部リンク:thebridge.jp
上下前次1-新書関写板覧索設栞歴
あと 100 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.041s