スティーブン・ホーキング博士は言いました。
世界的な天才物理学者がまさかの爆弾発言。
「人類に残された時間は、せいぜい100年しかない」
せいぜい…
戦争兵器としてウイルスがばらまかれたり、
核戦争が勃発したり、自分の首を絞める形で滅んでいくと博士は見てる。
地球の生命体が、突然の核戦争や遺伝子操作されたウイルスなどが引き起こす大惨事によって全滅する危険は、高まり続けていると思う
地球温暖化のせいで地球に住めなくなるっていう説も出してきて…
地球上の気温はいずれ250度まで上昇し、このままだと手遅れの状況になる可能性がある
ええ…
SFの世界を実現しないとダメとのこと。
最初のコロニー先として、月と火星を指摘するホーキング博士は、それと並んで太陽系の外にあるケンタウルス座アルファ星系なども無視すべきではないと述べた
月には30年、火星には50年で移住可能だとも言ってる。
「我々は宇宙やほかの星に散らばっていなければならない。地球の壊滅を人類の終わりにしないために」
※もっとも、こうした博士の見解に否定的な科学者も多いようです。
まだまだいる「人類滅亡」宣言をした天才たち
“ポスト・ジョブズ”と呼ばれることも多い、起業家のイーロン・マスクや…
「種としての人間が将来も存続するには、自給自足できるコロニーを火星に建設する必要がある」
ジョブズと一緒にAppleを作った、スティーブ・ウォズニアック、
そしてアリババCEOのジャック・マー。
「最初の技術革新は第一次世界大戦を招いた。次の技術革新は第二次世界大戦を。そして今、第三の技術革新が起きている」
何をそんなに恐れているのかというと…
「(AIを使った兵器は)火薬、核兵器に続く『第3の戦争革命』」
If you're not concerned about AI safety, you should be. Vastly more risk than North Korea. pic.twitter.com/2z0tiid0lc
「AIの安全性について不安を感じない人は、感じるべきだ。北朝鮮よりもよほど危険性が高い」
とんでもないAIを生み出してしまう企業が出てくるのでは…と本気で警戒。
グーグルが、人類を滅亡に追い込んでしまうようなAIを生み出してしまうのではないか、と本気で心配している
さすがにそんなことにはならないと信じたいですが…
【ちなみに】20世紀の天才もこんなことを…
アインシュタインも「人類滅亡」の話してた。
「もしミツバチがこの地球上から消えてしまえば、人類に残された時間は4年である」
世界の農産物の3分の1の受粉にミツバチが携わっている
最近、ミツバチが減ってるようだけど…?
日本でも起きており、絶滅危惧種となってもおかしくない危機
天才たちからさんざん「人類滅亡」を煽られている現代ですが、果たして…
NAVERまとめ編集部の公式アカウントです。
旬のおすすめ情報などを提供しています。