1000人超が「超知能開発」停止を求める公開信に署名、辛顿らAI先駆者も参加
「スーパーアイ」の開発を一時停止するよう求める公開信が、1,000人以上の著名人によって支持された。この声明は、非営利団体「生命未来研究所」(FLI)が発信し、AIの「超人間的知能(スーパーアイ)」の開発が、安全かつ制御可能であるという広範な科学的合意と、強固な公衆支持が得られるまで、即時停止を求める内容だ。 署名者には、AIの先駆者として知られる「AI教父」のジェフリー・ヒントン、ヨシュア・ベンジオ、図灵賞受賞者の姚期智に加え、スティーブ・ウォズニアック(Apple共同創業者)、リチャード・ブランソン(バージン創業者)、ハリー王子夫妻、スティーブ・バーノン(トランプ前戦略官)、サスン・ライス(オバマ政権下の国家安全保障顧問)ら、政治・ビジネス・文化の分野を代表する人物が名を連ねる。彼らは、AIが今後10年以内にあらゆる認知作業で人間を上回る可能性があるとして、経済の崩壊、人間の支配喪失、市民の自由侵害、さらには「人類絶滅」のリスクを警告している。 歴史学者のユヴァル・ノア・ハラリ氏は、スーパーアイが「人類文明のオペレーティングシステム」を破壊する可能性を指摘。この懸念は、実証的なデータにも裏付けられている。FLIが併記した世論調査では、73%の米国人が先進AIの強力な規制を支持し、64%が安全確保前に開発を禁止すべきだと回答。マックス・テグマーク氏は「95%の米国人は、スーパーアイへのレースを望んでいない」と強調した。 しかし、この声明の実効性には疑問が残る。2023年に同様の「6か月の開発停止」を求める声明が発表された際、Meta、Google DeepMind、OpenAIなど主要企業は実際の開発を継続。現在も、AIの能力向上は加速している。特に、Metaのヤン・レクン(Yann LeCun)ら技術的楽観派は、ヒントンらの警告を「論理的に不誠実」と批判。彼は、現在の言語モデルは過大評価されており、人間を超える知能の実現は技術的死胡同に陥っていると主張する。 一方、スチュアート・ローゼン(『人工知能:現代の方法』著者)は、過剰な期待が「インターネットバブル」のような崩壊を招く可能性を警鐘。OpenAIのブレット・テイラー氏も、現在のAIブームはインターネット黎明期と類似していると指摘。 このように、AIの未来を巡る論争は、技術的リスクと進化の必然性の間で深く分断されている。ヒントンらの「人間を守るAI」の構想と、レクンらの「進化を阻害しない」立場の対立は、今後も続く。スーパーアイの実現は、技術の到達点ではなく、人類の価値観と社会の選択の試練である。
