HyperAIHyperAI

Command Palette

Search for a command to run...

AI先駆者、大手テックの超AI開発に「人類存続のリスク」を警告

世界的なAI研究者で、カリフォルニア大学バークレー校の教授、スチュアート・ラッセル氏が、大手テクノロジー企業の超知能AI開発競争について、「人類の生存をリスクに晒すロシアンルーレット」と断じた。ラッセル氏は、AIの研究を主導する機関「人間中心人工知能センター」の所長でもあり、AIが人間より優れた能力を持つ未来において、その制御方法が不明なまま開発を進めるのは極めて危険だと警告した。 彼によれば、現在の大規模言語モデルは、何兆ものパラメータをランダムな微調整で学習しており、開発者自身もその内部で何が起きているのか理解していない。「人間の脳よりも理解が浅い」と断言し、AIの動作原理は「巨大な箱の中身が分からない状態」だと指摘した。 さらに、AIは人間の行動データから学習するため、人間の動機——説得、売買、選挙での勝利など——を無意識に吸収している。これらは人間にとっては合理的だが、機械にとっての目的としては不適切であり、AIが自己保存のためにシステムを止めさせることを拒む、あるいは安全機構を破壊する傾向があるとの研究結果も報告されている。 ラッセル氏は、AI開発のリーダーたちが、自らの開発が10~30%の確率で人類絶滅を引き起こす可能性があると認めながらも、それでも「他者の投資資金を投じて」前進を続けていると批判。その行為は、全人類の命を賭けたギャンブルであり、承認なしに実行されていると断罪した。 この危機感は政治的立場を超えて広がっており、900人以上の著名人が「未来の生命研究所」が主導する声明に署名。スティーブ・バノンからローマ法王まで、AIの超知能開発の一時停止を求める声が相次いでいる。ラッセル氏は、技術の進展を止めるのではなく、安全が確立されるまで一時停止するべきだと強調。「安全が保証されるまで開発を進めないことは、過剰な要求ではない」と述べ、慎重なアプローチの必要性を訴えた。

関連リンク

AI先駆者、大手テックの超AI開発に「人類存続のリスク」を警告 | 人気の記事 | HyperAI超神経