HyperAIHyperAI

Command Palette

Search for a command to run...

世界首脳ら200人超がAIの「絶対禁止ライン」国際合意を緊急呼びかけ

200人以上の元国家指導者、外交官、ノーベル賞受賞者、AI専門家らが「AIの絶対に越えてはならない境界(レッドライン)」を国際的に合意すべきだと訴える「グローバル・コール・フォー・AI・レッドライン」を発表した。この取り組みは、2026年末までに各国が「AIが決して越えてはならない基準」について政治的合意を結ぶことを目指しており、フランスAI安全センター(CeSIA)、未来社会(The Future Society)、カリフォルニア大学バークレー校の人間適合人工知能センターが主導した。 サインに名を連ねたのは、英カナダ系コンピュータ科学者ジェフリー・ヒントン、OpenAI共同創業者ウォジチェフ・ザレムバ、AnthropicのCISOジェイソン・クリントン、Google DeepMindの研究者アイアン・グッドフェロウら、世界のAIリーダーたち。彼らは、AIが人間を偽装したり、自己複製したりする行為を禁止するなど、深刻なリスクを回避するための国際的枠組みの必要性を強調した。 CeSIAのエグゼクティブディレクター、シャルベール=ラファエル・セジエ氏は記者会見で、「重大な事故が起きてから対応するのではなく、大規模かつ不可逆的なリスクを事前に防ぐことが目的だ」と述べた。彼は「国々がAIの利用方法について合意できないとしても、『AIが決してやってはならないこと』については合意すべきだ」と強調した。 欧州連合(EU)のAI法では、人権に深刻な影響を与えるとされるAIの使用を禁止しているが、グローバルな合意はまだ存在しない。米中両国は核兵器の制御を人間が行うことで合意しているが、これは部分的な枠組みにすぎない。 未来社会のAIグローバルガバナンス担当ディレクター、ニキ・イリアディス氏は、「自主的な約束では実効性がない。AI企業の内部規制は、実際の執行力に欠ける」と指摘。将来的には、レッドラインを定め、監視し、強制できる「実効力を持つ国際機関」の設立が必要だと訴えた。 UCバークレー大学のコンピュータ科学教授、スチュアート・ラッセル氏は、「核エネルギー開発が安全対策を確立してから施設を建設したように、AGI(汎用人工知能)も、安全な作り方を確立してから開発すべきだ」と述べた。彼は、「レッドラインはイノベーションや経済発展を阻害するものではなく、制御不能なAGIを許さないだけの健全な枠組みだ」と強調した。

関連リンク