4月初旬に米誌「タイム」に掲載されたエリーザー・ユドコウスキーの予言ほど衝撃的な終末予測は、そうそう読めるものではない。彼はこう記している。

「超人的に賢いAIを構築した場合、現状に近い状況下で最も起こり得る結果は、文字通り地球上のすべての人が死ぬことだ。『ひょっとしたら』という意味ではなく、それが起きるのは明白である。(中略)もし現在の状況で、誰かが強力すぎるAIを構築したら、人類をはじめ地球上のあらゆる生物が、その後ほどなく滅亡するだろう」

さて、この記事に注目していただけただろうか?

ユドコウスキーはありきたりのカサンドラではない(註:カサンドラはギリシア神話に登場する王女。予知能力を持つがその予言を誰にも信じてもらえない)。カリフォルニア州バークレーに拠点を置くNPO「機械知能研究所(MIRI)」のトップで、人工知能にまつわる問題について著作の中で網羅的に論じている。

私が拙著『大惨事(カタストロフィ)の人類史』のために調査していたとき、誰かが意図せず人間に歯向かうAIを作ってしまう危険性について、ユドコウスキーが警告していたことを今でも鮮明に覚えている──「たとえば?」と私が促すと、「気候変動を阻止しろと命じたら、AIはホモ・サピエンスを絶滅させることが最適解だと結論付けてしまうので」と言われた。

https://news.yahoo.co.jp/articles/353326e24f39045a6d70f5587ca5c26a75d00227