(ASI)人類滅亡レベルの危機を話し合うスレ (106レス)
1-

1
(2): 2018/11/29(木)01:06 ID:ejk8GNew(1/6) AAS
未来に関わるリスクの把握と、それを議論しましょう。

人類滅亡レベルのリスクとは・・・
地球全体規模(Global)で、人類の存続に関わる深刻なリスク(Profound)のこと。
※ニック・ボストロム氏のリスクのカテゴリーの定義を参考

人類滅亡レベルのリスクの例
・スーパーインテリジェンス(ASI)
→超知能の暴走
・グレイ・グー(Grey goo)
→ナノマシンの無限増殖
・異常気象
省3
2: 2018/11/29(木)01:58 ID:ejk8GNew(2/6) AAS
核兵器
人類滅亡レベルのリスク(Existential Risks)は人為的なものに限っては議論の余地がある。
人類を何回も滅ぼせるくらいの水素爆弾がある。

水素爆発も開発された緊張状態の冷戦当時、
ケネディ大統領はキューバ危機が全面核戦争になる確率は33-50%と評価していた。
天才ジョン・フォン・ノイマンは将来的に核ハルマゲドンが起こる確率は100%に近いと証言した。

※カーツワイル氏の本参考

核兵器を使った戦争が起これば人類はどれくらい死ぬのか?
https://www.google.com/amp/s/gigazine.net/amp/20170130-what-if-nuclear-war
100発の核爆弾を使う戦争によって飢え死にする人は20億人と試算する研究もあります。
省2
3
(1): 2018/11/29(木)02:08 ID:ejk8GNew(3/6) AAS
細菌兵器
SARSのような感染力が高い菌を遺伝操作し、毒性を高めて散布する。テロリストなどの手に渡るとさらにリスクは高まる。『シンギュラリティは近い』から

自然発生したパンデミック
20世紀始めのスペイン風は5億人感染し、5000万人から1億人が死亡した。wikiより。

今後10年内に致死率を高めた疫病によって6ヶ月で3000万人の犠牲者が出るとビル・ゲイツが警告
https://www.google.com/amp/s/news.biglobe.ne.jp/smart/amp/trend/0501/kpa_180501_3745632700.html
4
(1): 2018/11/29(木)02:18 ID:ezQ/LDJv(1) AAS
細菌兵器とかウィルス兵器は可能性高いと思う。
ゲノム編集とか最近うるせぇしな、そういった技術や知識が流行して簡単に扱われてるからか?
もしも殺戮目的で使われたら終わりだな。
とっくに軍事研究は完成してんだろうけど。
5: 2018/11/29(木)02:30 ID:ai2h20zF(1) AAS
>>4
最近は、威力をあえて弱くした核兵器とかあるもんな
ホモサピエンス全史では核兵器が逆に戦争の抑止力になったとあるけど、これで分からんなw
細菌兵器は致死率8割のエボラウィルスにスペイン風ミックスさせたら最強だろ。末期は血の海で悲惨なことになる
6: 2018/11/29(木)13:49 ID:ejk8GNew(4/6) AAS
グレイ・グー(参考:カーツワイル氏の本)
ナノマシンはその小ささから大量に存在して初めて意味をなす。
重要な要素は人間が1つの細胞から何兆個の細胞に増殖するメカニズムのような機能だ。
しかし、それは時としてがん細胞のようにコントロールできない異常増幅の可能性を示唆する。
ナノマシンはカーボンという4方向に結合できるもので設計されるのが理想だ。
カーボン(炭素分子)はその汎用性から直線的なものや、カーブ状のもの、リング状のものまで構成できる。
筒状のナノチューブやサッカーボール状の非常に強固なマテリアルも作れる。
もし、ナノマシンが暴走して際限なく増殖するとなると、人間などの生物が主な犠牲者になる。
生物はカーボンを豊富に含み、さらにグルコースやATPはナノマシンの栄養分として利用できる。
微量元素の酸素や硫黄、鉄、カルシウム、その他様々なものも含む。
7
(1): 2018/11/29(木)14:01 ID:ejk8GNew(5/6) AAS
暴走したナノマシンが地球の生物界を滅ぼすのにどのくらいかかるのか?
生物界は約10^45個の炭素分子があると見積ることができる。
ナノマシン1体を構成する炭素分子は約10^6個くらいが妥当だ。
となると、ナノマシンは生命体を分解して10^39体増幅する必要がある。
1回の複製で数が2倍になる計算だと130回増幅すれば足りることになる。
Rob Freitas氏によると3時間半かかる見積もりである。
しかし、餌になる生命体が綺麗に配置されているわけではないので実際は制限的に破壊の波として
ジワジワと拡大していくことが想定される。
そうなると地球全体をカバーするのに数週間くらいかかると予想できる。
8
(1): 2018/11/29(木)16:52 ID:TbAWnv3O(1) AAS
オックスフォード大学の
人類未来研究所が出した報告書ってどっかで見れた気がする
9
(1): 2018/11/29(木)18:33 ID:ejk8GNew(6/6) AAS
>>8
いいのがあるんだね。
Existential Risk Prevention as Global Priority
http://www.existential-risk.org/concept.html
10: 2018/11/30(金)00:41 ID:jid3ThdQ(1/3) AAS
>>9
読んだで、

要約
この分野の研究は重要であるにも関わらず、いくつかの理由で盛んに行われていない。
・不確定要素がある。
・きちんとした手法が確率されていない。
・遠い未来の可能性として考えられている。
重要な理由としては、核を手にしたようにいずれ人類は強大なパワーをコントロールするようになる、そして、それは意図も簡単に人類を滅ぼすことも発展させることもできる。
つまり、簡単に誰でも使える技術が恐ろしいパワーを持つということ。
未来の世代の人類のために、この人類絶滅レベルのリスクの確率を緩和することは今の人類だけの一時的な発展に比べれば非常に大きい貢献になるということを気づかなければいけない。
11: 2018/11/30(金)00:54 ID:jid3ThdQ(2/3) AAS
その他

・ほとんどのこの手の研究で人類が絶滅する確率は10-20%と見積もられていること。ただし、内容が内容なので主観的な判断にならざる得ない。
・天災要素(巨大隕石衝突、火山の壊滅的大噴火、地震、ガンマレイバースト)のリスクは限りなく小さい。ほとんどのExistential Riskは人為的なものに起因する。

Existential Riskの種類
・人類絶滅
・文明の永久的停滞
文明壊滅→文明再発展の繰り返しシナリオなど
・文明の欠陥を伴った成熟
人類絶滅に繋がるか、文明の価値を失うもの(人間の機械化で心を失うなど)
・以上の3つのいずれかのシナリオに繋がるもの
12: 2018/11/30(金)01:01 ID:jid3ThdQ(3/3) AAS
この話題はこれからシンギュラリティに向けて益々価値が出てくる感じだなと思った。
13
(1): YAMAGUTIseisei 2018/12/01(土)23:09 ID:pKy81yx+(1) AAS
sssp://img.5ch.net/ico/nida.gif
>45 yamaguti 181027 1607 AJ0Ulonr? \ \
>> >18 名前:YAMAGUTIseisei E-mail:sage昨日より放●性金属臭微々喉降雨後 投稿日:2018/09/11(火) 08:24:54.83 ID:GkbIB6hZ
>> 技術的特異点(シンギュラリティ)の危険性
>> 2chスレ:future
>>
>> >7 YAMAGUTIseisei 180318 1951 mdY6euhb
>> :
>>> >914 窪村光太朗 170726 0831 PRRM+903
>>> :
省23
14
(1): 2018/12/07(金)14:39 ID:+ppJdjCQ(1/3) AAS
スーパーインテリジェンスの種類

Speed superintelligence
クロックスピードが早いコンピューター。
人間は200hzのクロックスピードに対して、
一般のコンピューターは2Ghz以上と7桁も違う。
電気生理学における脳の伝達の速さは1秒で100mくらいだが、光ファイバーは1秒に300万キロと光速と等しい。つまり10msの遅延を最低限なものにとどめるには生物的脳は0.1立方メートル、コンピューターは10の17乗平方メートル(小惑星程度)になる。
Collective superintelligence
メガアースと呼ばれる現在の100万倍の人口で構成された巨大なグローバル社会。アインシュタインレベルの巨匠が現在の数人から70万人程度いることが考えられる。現代社会のように個人の結び付きは弱い、もしくは、薬や遺伝子操作でより強固な集団社会を形成している。
Qualitative superintelligence
人間と猿の脳はニューロンの配線が殆ど変わらないが、このような人間の脳は猿にしては質的にスーパーインテリジェンスとなる。これと同じ考えで人間よりも質的に上の知能を言う。
省1
15
(2): 2018/12/07(金)14:50 ID:+ppJdjCQ(2/3) AAS
人間レベルの知能からスーパーインテリジェンスまでの進行フェーズ

この進行はS字カーブのようになることが想定される。『Superintelligence』 参考

Human-level intelligence
人間レベルの知能。
ここまでの道のりは緩やかな進歩。
レイ・カーツワイル氏のいうAGI(2029)に相当する。

Crossover
知能の質を自己改善できるようになる。
急激な進歩。
カーツワイル氏の予想にあわせると2030年代後半から40年代前半か?
省7
16: 2018/12/07(金)15:06 ID:+ppJdjCQ(3/3) AAS
>>14
訂正
1秒に30万キロと光速
17: 2018/12/12(水)15:33 ID:Tlx0TZXR(1) AAS
スーパーインテリジェンスを加速させるエージェントの種類

・Singleton
世界を一つの権力が指揮する状態のこと。
国際機関、宇宙人による支配などその想定は様々。
・国際協力
宇宙ステーション、マンハッタンプロジェクト、ゲノムプロジェクトなどのようなプロジェクト。
・政府
・アカデミー機関
・企業
・ベースメントハッカー
省12
18
(1): YAMAGUTIseisei [O氏手紙関係sage] 2018/12/29(土)17:24 ID:H3CnzmfF(1) AAS
sssp://img.5ch.net/ico/nida.gif
>>13 >対策前提 + 暴走バグ前提 >弱い AI 危険
>80 ー 181229 0914 Bii4jAej
>AI兵器開発、米中が火花 静まりかえった北米攻撃CG
>http://www.asahi.com/amp/articles/ASLDQ7JF6LDQUHBI029.html
>「米軍は軍事行動に人の判断を介在させなければならないとの立場が明確だが、中国軍はスピードこそが優位の決め手で、実利を重んじる考え方をとっているようだ」

>、無数のドローンによる攻撃で高層ビルが立ち並ぶ都市が火に包まれた――。発表会場に集まった軍や企業、大学関係者ら約300人は静まりかえったという。
19: 2019/03/30(土)08:12 ID:4EW2g1JK(1) AAS
世界の危機の波はいつ個人に来るか。
20: 2019/04/21(日)02:16 ID:aGfVhjdj(1) AAS
興味
1-
あと 86 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.832s*