Skip navigation
サステナビリティ・
ESG金融のニュース
【2026年2月末まで】有料記事体験キャンペーンを実施中!詳細はこちら。

【国際】「超知能AI」開発中止に3万人以上が署名。人類絶滅の可能性等。Future of Life Institute

【国際】「超知能AI」開発中止に3万人以上が署名。人類絶滅の可能性等。Future of Life Institute 2

 AI啓発NGOのFuture of Life Instituteは10月8日、「超知能AI」の開発を中止するよう求める共同声明を発表した。署名者数がすでに3万人以上を突破している。

 「超知能」とは、最高の知能指数を持つ人物よりもはるかに高度な知能を持つ知能のこと。超知能を持つAIのことを「超知能AI(ASI)」と呼ぶ。

 今回の共同声明は、非常にシンプルな文面で、「超知能の開発を禁止することを求める。この禁止は、それが安全かつ制御可能に行われるという広範な科学的合意と、強い公衆の支持が得られるまで、解除されるべきではない」という内容となっている。

 また同声明は、今回の共同声明の背景として、「革新的なAIツールは、これまでにない健康と繁栄をもたらす可能性がある。しかし、ツールの開発と並行して、多くの主要AI企業は今後10年以内に本質的にあらゆる認知タスクにおいて全人類を大幅に凌駕する超知能を構築することを目標として公表している。これにより、人間の経済的陳腐化や権力喪失、自由・市民的権利・尊厳・統制の喪失から、国家安全保障上のリスク、さらには人類絶滅の可能性に至るまで、様々な懸念が生じている」と説明している。

 すでに署名している人には、ノーベル物理学賞やチューリング賞を受賞したジェフリー・ヒントン・トロント大学名誉教授、チューリング賞受賞者のヨシュア・ベンジオ・モントリオール大学教授、著名なAI研究者のスチュアート・ラッセル・カリフォルニア大学バークレー校教授、アップル共同創業者のスティーブ・ウォズニアック氏、ヴァージン・グループ創設者のリチャード・ブランソン氏、トランプ大統領元主席戦略官のスティーブ・バノン氏、オバマ大統領の下で国家安全保障担当大統領補佐官を務めたスーザン・ライス氏、元統合参謀本部議長のマイク・マレン氏等がいる。

 同団体は毎年、主要なAI開発大手を対象とした「AI安全性インデックス」も発表している。2025年の結果は、Anthropicが「C+」で最高。他に、Open AIが「C」、グーグル傘下のディープマインドが「C-」、X傘下のx.AIとメタ・プラットフォームズが「D」、DeepSeekとZhipu.AIが「F」。

【参照ページ】Statement on Superintelligence

今なら無料会員にご登録いただくだけで、
有料記事の「閲覧チケット」を毎月1枚プレゼント。
登録後、すぐにご希望の有料記事の閲覧が可能です。

※ 閲覧チケットは翌月への繰り越しはできません。

無料登録してチケットを受け取る

有料記事体験キャンペーンの詳細はこちら

または

有料会員プランで
企業内の情報収集を効率化

  • 2000本近い最新有料記事が読み放題
  • 有料会員継続率98%の高い満足度
  • 有料会員の役職者比率46%
有料会員プランに登録する
author image

株式会社ニューラル サステナビリティ研究所

この記事のタグ

"【ランキング】2019年 ダボス会議「Global 100 Index: 世界で最も持続可能な企業100社」"を、お気に入りから削除しました。