[過去ログ]
【統計分析】機械学習・データマイニング31 (1002レス)
【統計分析】機械学習・データマイニング31 http://mevius.5ch.net/test/read.cgi/tech/1632587566/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
29: デフォルトの名無しさん (ワッチョイ cf10-J7Q7 [153.131.102.129]) [sage] 2021/10/02(土) 20:07:43.97 ID:UdlqgpCg0 睡眠中に短期記憶の領域から長期記憶の領域に移されるとか アルツハイマーの原因タンパク質を排出するとか 言われている 睡眠中は無防備になるのにそれでも必要なんだから何らかの機能や役割があるんだろうな http://mevius.5ch.net/test/read.cgi/tech/1632587566/29
30: デフォルトの名無しさん (ブーイモ MM7f-PTyk [163.49.202.189]) [] 2021/10/02(土) 23:19:18.80 ID:zWqv5K6jM クソチョンw http://mevius.5ch.net/test/read.cgi/tech/1632587566/30
31: デフォルトの名無しさん (ワッチョイ a36e-ye6e [138.64.70.222]) [sage] 2021/10/03(日) 12:38:37.08 ID:apv2HwoX0 人間の視聴覚に介入することすら未だままならないもんな http://mevius.5ch.net/test/read.cgi/tech/1632587566/31
32: デフォルトの名無しさん (ワッチョイ 9310-2jfQ [118.1.13.140]) [sage] 2021/10/03(日) 12:56:18.91 ID:5gxQKpTk0 Googleがやっとショウジョウバエの半脳規模のコネクトーム解析に成功したところ 最高解像度のショウジョウバエの脳接続マップ、Googleが公開 https://www.gizmodo.jp/2020/01/fruit-fly-brain-map.html ハエの脳神経回路の高解像度マップ、グーグル、HHMI研究者らが発表 https://www.technologyreview.jp/nl/this-map-of-a-flys-brain-connectivity-is-the-best-weve-ever-seen/ http://mevius.5ch.net/test/read.cgi/tech/1632587566/32
33: デフォルトの名無しさん (ワッチョイ 9310-2jfQ [118.1.13.140]) [sage] 2021/10/03(日) 12:57:43.81 ID:5gxQKpTk0 >ショウジョウバエの脳のニューロン数は約10万であるのに対し、ヒトの脳には約860億個のニューロンがある ショウジョウバエでも未だにこの程度なのに、ヒト脳の完全解析なんて無理よ 富岳も、全脳シミュレーションにはまだ計算能力が足りない http://mevius.5ch.net/test/read.cgi/tech/1632587566/33
34: デフォルトの名無しさん (ワッチョイ ef89-2jfQ [39.111.228.181]) [sage] 2021/10/03(日) 13:47:46.78 ID:A/xg16NE0 よくわからが神経の接続は繋がったり消えたり強化されたりすrんだろ静的解析だけではわからないじゃね http://mevius.5ch.net/test/read.cgi/tech/1632587566/34
35: デフォルトの名無しさん (ワッチョイ cfda-7MHR [121.116.26.113]) [sage] 2021/10/03(日) 14:51:30.08 ID:BwHL/qdj0 >>34 すまないが確認してみるから 検体になってはくれまいか? http://mevius.5ch.net/test/read.cgi/tech/1632587566/35
36: デフォルトの名無しさん (ワッチョイ 9310-Ig7M [118.1.13.140]) [sage] 2021/10/03(日) 14:57:09.26 ID:5gxQKpTk0 神経の成長は、19歳を超えるとほぼ固定される http://mevius.5ch.net/test/read.cgi/tech/1632587566/36
37: デフォルトの名無しさん (ワッチョイ ef89-2jfQ [39.111.228.181]) [sage] 2021/10/03(日) 15:50:11.96 ID:A/xg16NE0 >>35 すまn、もうスカスカ http://mevius.5ch.net/test/read.cgi/tech/1632587566/37
38: デフォルトの名無しさん (ワッチョイ d390-2jfQ [220.216.26.186]) [sage] 2021/10/03(日) 15:59:54.62 ID:fd2z9Q2P0 アインシュタインの脳は世界中に散らばってたな http://mevius.5ch.net/test/read.cgi/tech/1632587566/38
39: デフォルトの名無しさん (テテンテンテン MMff-ye6e [133.106.36.167]) [sage] 2021/10/04(月) 11:18:18.37 ID:4SMJvp7PM 転移学習とファインチューニングって何が違うの? http://mevius.5ch.net/test/read.cgi/tech/1632587566/39
40: デフォルトの名無しさん (ワッチョイ cf10-eQG6 [153.243.53.4]) [] 2021/10/04(月) 12:00:10.56 ID:uwgJa6dm0 ファインチューニング⊂転移学習 http://mevius.5ch.net/test/read.cgi/tech/1632587566/40
41: デフォルトの名無しさん (ワッチョイ 3fe4-puhv [61.114.68.38]) [sage] 2021/10/04(月) 12:24:33.93 ID:NQkhcE1O0 >>39 俺もそこはイマイチだったけど、目的が違うんだと理解してる ファインチューニングは、その名の通り微調整 公開された学習済みモデルの、出力層付近の重みを自分の(または新たな)データセットで学習させて適応させるとかで、ファインチューニングの前後でモデル全体の目的は変わらない 転移学習は、モデルをそのまま別の目的へ使用すること 例えばよくある例だと画像認識モデルを特徴抽出器としてSVMに流し込んで、分類させるのに使うとか 転移学習の前後では全体の目的は変わる(例では画像認識→画像分類) http://mevius.5ch.net/test/read.cgi/tech/1632587566/41
42: デフォルトの名無しさん (ワッチョイ cf10-J7Q7 [153.131.102.129]) [sage] 2021/10/04(月) 13:05:31.91 ID:IrVwgMEy0 特定の層だけ学習済みの層を使うのも転移学習なんじゃね? オートエンコーダ層だけ他のをそのまま使うとか http://mevius.5ch.net/test/read.cgi/tech/1632587566/42
43: デフォルトの名無しさん (オッペケ Sr77-dkea [126.236.143.1]) [sage] 2021/10/04(月) 14:59:44.37 ID:pDc4fD3+r ファインチューニングだと層の数や各テンソルの成分数までいじる、って見たような 転移学習だと既にあるモデルに別の画像モデルを載せて学習させてた http://mevius.5ch.net/test/read.cgi/tech/1632587566/43
44: デフォルトの名無しさん (ワッチョイ a36e-ye6e [138.64.70.222]) [sage] 2021/10/05(火) 14:43:18.00 ID:qxXQzr/v0 >>41 プリトレインのパラメータはフリーズしてffを新たに訓練すること? http://mevius.5ch.net/test/read.cgi/tech/1632587566/44
45: デフォルトの名無しさん (ワッチョイ 73fb-uTfP [92.203.11.83]) [sage] 2021/10/09(土) 16:11:35.50 ID:R9jtZdzp0 機械学習において概念の獲得というのは可能なのでしょうか? 例えば犬種を見分けるモデルを作成する中で大きさという概念を獲得させ、その結果を転用して大きさから車種を判別するといったことは可能でしょうか? http://mevius.5ch.net/test/read.cgi/tech/1632587566/45
46: デフォルトの名無しさん (ワッチョイ 376e-Vwtj [138.64.70.222]) [sage] 2021/10/09(土) 16:38:50.81 ID:imDr+lCx0 できない http://mevius.5ch.net/test/read.cgi/tech/1632587566/46
47: デフォルトの名無しさん (アウアウウー Sab7-8nkb [106.128.116.15]) [sage] 2021/10/09(土) 17:12:37.82 ID:AqE3enYfa どこかのパラメータが大きさを認識するかもしれないけどそれを全く別の種類のものに適用したければ どのパラメータが大きさを認識するか調べて抽出して新たなモデルを人間が作成するしかない 大きさという概念をプログラムが知らない前提なんだから人間が調べて取り出す必要がある http://mevius.5ch.net/test/read.cgi/tech/1632587566/47
48: デフォルトの名無しさん (ワッチョイ 73fb-uTfP [92.203.11.83]) [sage] 2021/10/09(土) 17:55:12.92 ID:R9jtZdzp0 >>47 やはり現状では人間の手が必要ですよね。 特定の概念に特化したモデルを予め作成し転用することは可能でしょうか? 例えば画像情報から大きさを判別するモデルを作成し、この大きさ判別モデルをモジュールとして別のモデルに組み込んで使うという形です。 http://mevius.5ch.net/test/read.cgi/tech/1632587566/48
49: デフォルトの名無しさん (スップ Sd5a-NFwx [49.97.25.215]) [sage] 2021/10/11(月) 02:41:21.29 ID:W1oEq6hAd 概念って何? http://mevius.5ch.net/test/read.cgi/tech/1632587566/49
50: デフォルトの名無しさん (スップ Sd5a-NFwx [49.97.25.215]) [sage] 2021/10/11(月) 02:42:37.37 ID:W1oEq6hAd 定義を述べてください http://mevius.5ch.net/test/read.cgi/tech/1632587566/50
51: デフォルトの名無しさん (ワンミングク MM26-Vwtj [221.184.126.169]) [sage] 2021/10/11(月) 11:48:03.15 ID:5HHAjiD3M 人間の定義なんてものは主観的で 規則ベースの方式は所詮おれがかんがえたさいきょうのモデル、でしかなく 汎用性は無く例外に弱く使い物にならないのは散々見せられてきた http://mevius.5ch.net/test/read.cgi/tech/1632587566/51
52: デフォルトの名無しさん (オッペケ Sreb-kg6J [126.253.219.141]) [sage] 2021/10/11(月) 12:29:27.13 ID:DIodBuTLr その辺は言語モデルと画像認識と分類クラス名がリンクされたモデルというのを 作らないと難しいか http://mevius.5ch.net/test/read.cgi/tech/1632587566/52
53: デフォルトの名無しさん (ワンミングク MM26-Vwtj [221.184.126.169]) [sage] 2021/10/11(月) 17:21:06.15 ID:5HHAjiD3M そのあたりをグチャッとやってるのがdall-e http://mevius.5ch.net/test/read.cgi/tech/1632587566/53
54: デフォルトの名無しさん (ワッチョイ 73fb-uTfP [92.203.11.83]) [sage] 2021/10/11(月) 23:03:29.37 ID:iNvGL8qd0 >>53 記事を見つけて読んでみましたが面白いですね。 ttps://ainow.ai/2021/04/26/253364/ 時間や場所の概念を獲得した(テキストに正しく反応できた)だとか、当初の目的以外の用途に使えたというのは実に興味深いです。 120億パラメータというのがこれまた凄まじいですが、特定の概念に関する部分だけ抽出出来たら宝探しみたいで楽しいでしょうね。 http://mevius.5ch.net/test/read.cgi/tech/1632587566/54
55: デフォルトの名無しさん (ワッチョイ 2ffd-36a8 [210.236.126.224]) [sage] 2021/10/12(火) 21:36:26.65 ID:llg6th+00 入門書読んでる途中で練習がてらUCIからEnergy efficiencyってデータセットひっぱてきたんだけど すごく素直なデータセットだな。欠損値ないし、ただ単に重回帰分析しただけで決定係数が0.9越えてた ここまで素直だとなにか罠があるんじゃないかと不安になる。諸先輩方はどう思います? http://mevius.5ch.net/test/read.cgi/tech/1632587566/55
56: デフォルトの名無しさん (ワッチョイ c7dd-xjoE [122.249.112.164]) [sage] 2021/10/12(火) 21:55:01.31 ID:G8QNgj6p0 >>55 過学習してるだけ http://mevius.5ch.net/test/read.cgi/tech/1632587566/56
57: デフォルトの名無しさん (ワッチョイ 2ffd-36a8 [210.236.126.224]) [sage] 2021/10/13(水) 00:10:46.35 ID:JsCrEKeM0 >>56 その可能性を考えて、訓練データとテストデータ両方の 決定係数を見てるんですけどそんな差がないんですよね。 データ分ける時にシード固定せずに40回ほど試したんですけど 決定係数の差は、大きくても0.043、もとのデータも768件あるんで 過学習なんでしょうか? http://mevius.5ch.net/test/read.cgi/tech/1632587566/57
58: デフォルトの名無しさん (アウアウウー Sab7-Awko [106.161.246.212]) [] 2021/10/13(水) 05:53:18.70 ID:5xUxuv4Ba >>57 ちゃんとクロスバリデーションすべきだなとか思ったけど http://mevius.5ch.net/test/read.cgi/tech/1632587566/58
メモ帳
(0/65535文字)
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 944 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.016s