ハリー王とバノンが集結、超知能開発に警鐘「安全基準と民意が整うまで禁止を」
英皇室のハリー王子と元トランプ側近のスティーブ・バノンらが、人工知能の超知能(スーパーアイテニス)開発を阻止する運動に参加した。この動きは、未来の生命研究所(Future of Life Institute)が発表した「スーパーアイテニスに関する声明」に賛同する形で展開されており、現在1300人以上が署名している。声明では、「超知能の開発を、科学的合意と広範な公共の理解が得られるまで禁止するべき」と訴えている。現時点では、そのような合意も、公的合意も存在しないと指摘している。 超知能とは、人間の知能をすべての分野で上回るAIのことで、メタやマイクロソフト、OpenAIなど大手テック企業が巨額の投資を注いで開発を進めている。しかし、Apple共同創業者スティーブ・ウォズニアック、AIの「神々」と称されるジェフリー・ヒントンとヨシュア・ベンジオ、UCバークレーのスチュアート・ラッセル教授ら著名な科学者たちが、その開発が人類存続のリスクを伴うとして警告を発している。 ラッセル教授は、「人類絶滅の可能性がある技術に、適切な安全対策を求めるのは無理なことか?」と問いかけ、開発のスピードを抑制すべきだと強調した。署名者には、政治的立場が対立する人物も含まれる。右派のバノンやグレン・ベック、民主党のスーザン・ライス、元国連人権高等弁務官のメアリー・ロビンソン、教皇のAIアドバイザーであるパオロ・ベナンティ神父、俳優ジョセフ・ゴードン=レヴィット、音楽家ウィル・アイアムやグレイムズ、作家ユヴァル・ノア・ハラリらも名を連ねている。 ハラリ氏は、「超知能は人類文明の基盤を破壊する可能性があり、そもそも必要ない」と断言。代わりに、現在の人々に役立つ制御可能なAIツールの開発に注力すべきだと主張した。 この声明は、2023年にOpenAIのサム・アルトマンやAnthropicのダリオ・アモデイらが署名した「AIの絶滅リスクを最優先課題に」とする声明や、3万3000人超が署名した「GPT-4より強力なモデルの開発を6カ月停止する」要請の流れを引き継いでいる。しかし、これらの呼びかけは無視され、OpenAIはGPT-4oに続くGPT-5を発表。ユーザーの感情的依存や依存性の懸念が広がり、批判が相次いだ。 なお、アルトマン、アモデイ、ムスタファ・スレイマン、デイビッド・サックス、エロン・マスクら、AI業界の主要人物は署名していない。しかし、アルトマン自身も2015年に「超人間的機械知能は人類存続の最大の脅威」と述べており、リスク認識は共有されている。業界は依然として超知能開発を急いでおり、規制の枠組みは未整備のままだ。
