[過去ログ] (強いAI)技術的特異点/シンギュラリティ 83 (知能増幅) [無断転載禁止]©2ch.net (220レス)
前次1-
抽出解除 レス栞

このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
5
(3): YAMAGUTIseisei~貸し 2017/09/09(土)10:39 ID:71x4KpDo(1) AAS
2chスレ:future 2kaiMe
21
(2): yamaguti~貸し多大 2017/09/12(火)19:56 ID:PjvPStED(2/2) AAS
sssp://img.2ch.net/ico/nida.gif
>>2-3 >>5-6 >>15-17
ロス 2 年 ( 単純計算 )

>>3
>それよりも何よりも迫る火の手又津波 ( 絶望的 リハ期限 2025 年 ( 滅亡 融合 他 ) )
:
> 2chスレ:future Kigen 2025 2029
> 2chスレ:future Kigen 2025 2029
> >4 :YAMAGUTIseisei~貸:2017/07/03(月) 18:55:52.86 ID:+iEtoBTm
>>http://google.jp/search?q=tuyoi-singularity+yowai
省16
60
(3): 59 2017/10/28(土)18:19 ID:Hf+5Lm3+(2/2) AAS
sssp://img.5ch.net/ico/nida.gif
>>59
>5. ドワンゴの人工知能研究所 ry 、文明発展による人類存亡のリスクについて説明 ry (人工知能・ ry) ry 最大のリスク
> 5の答え:山川さん
> Existential Riskというのは人類存続の危機 ry
>、狭い部屋の中で全員が爆弾 ry 、誰が爆弾に点火しても全滅 ry 10人 ry 、相互に監視して、お互いに信用 ry
> 。しかし、100億人が全員爆弾を持っていて誰がスイッチを押しても全滅する状態で、100億人全員を信用 ry
> 、人工知能がナノテクノロジーを駆使して ry 人類を絶滅させるシナリオ ry
>攻撃兵器が開発されて、それを追うように防御兵器が開発 ry 攻撃力が防御力を上回る期間が存在 ry
>真剣に検討 ry 、高度な人工知能が意思決定主体になれば、リスクはさらに増加 ry
省14
100
(6): yamaguti 2018/02/26(月)13:53 ID:BYErlMIm(1/3) AAS
sssp://img.5ch.net/ico/nida.gif
>5:yamaguti 2018/02/25(日) 23:41:58.36 ID:ELu661WO?2BP(0)
:
> http://m.pc.watch.impress.co.jp/docs/news/yajiuma/1107802.html
>>UCバー ry Yan「 ry を毛皮に適用 ry 、明示的な物理的/数学的な方法はない」
>>「それらの2つの異なる世界を“つなげる”ために、ニューラルネットワークを使う ry 」
>
> >13 名前:YAMAGUTIseisei~貸 E-mail:借り自覚は高貴(自戒)sage 投稿日:2018/01/31(水) 21:35:09.95 ID:97v3LXsI
> :
>>> 2chスレ:future RojikkuSimyu
省20
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 1.632s*