HyperAIHyperAI

Command Palette

Search for a command to run...

マイクロソフトAIトップが「人工超知能」を「反目標」と断言

マイクロソフトのAI最高責任者であるマスタファ・スレーマン氏は、人工超知能(ASI)の実現を「反目標」と呼び、開発を避けるべきだと明言した。シリコンバレーで広がる人工一般知能(AGI)開発の競争に対し、彼は「神格化されたAI」の追求に警鐘を鳴らしている。スレーマン氏は、自身が共同創業者を務めたディープマインドを経てマイクロソフトに移籍した人物として、AIの進化方向に人間中心の価値観を組み込む必要性を強調した。 彼は「シリコンバレー・ガール・ポッドキャスト」で、「人工超知能とは、人間の能力をはるかに超える知能を持つAIを指すが、これは明確な未来のポジティブなビジョンではない」と語った。さらに、「そのような知能を制御したり、人間の価値観に整合させることは極めて困難だ」と指摘。代わりに、彼のチームは「人間主義的超知能」の構築を目指しており、人間の利益を支えるAIの開発を重視している。 また、AIに意識や道徳的立場を与えることは誤りだと主張。「AIは苦しみも感じず、痛みも持たない。ただ高品質な会話のシミュレーションをしているにすぎない」と述べ、人間と同様の感情や意識を持つと誤解するリスクを警告した。 この発言は、同業界の一部リーダーたちの楽観論と対照的だ。OpenAIのサム・アルトマンCEOは、AGIの実現を中核的なミッションとし、すでに超知能の開発を視野に入れている。彼は2030年までに超知能が登場する可能性を示唆。グーグル・ディープマインドのデミス・ハサビス氏も、AGIは5~10年以内に達成可能と予測。一方で、メタのAI最高科学者ヤン・レクン氏は、AGIの実現には「数十年」かかる可能性を示唆。彼は「多くの重要な問題はスケーラビリティが極めて悪く、データや計算リソースの増加だけでは、AIの知能が必然的に高まるわけではない」と指摘。 スレーマン氏の発言は、AIの進化に伴う倫理的・制御的課題に真剣に向き合う必要性を、業界全体に呼びかけている。人間中心のAI開発の在り方を、技術的進展と並行して模索する姿勢が、今後のAI社会の基盤を形作る。

関連リンク