HyperAIHyperAI

Command Palette

Search for a command to run...

AIの終末論に惑わされ、実害への責任回避が進む現状

ドイツ・ハノーバー工科大学の理論物理学者トービアス・オスバーン教授は、AIの「終末論的」な恐怖を強調する風潮が、企業が現実の社会的被害から逃れるための盾になっていると指摘した。彼は、AIによる人間の権利侵害や環境破壊といった具体的な問題が、未来の「AI災厄」の話に埋もれ、無視されがちだと警告している。 オスバーン教授は、現在のAI議論が「超知能AIが人類を滅ぼす」といった仮説的シナリオに偏りすぎており、実際の被害が軽視されていると述べる。彼は「終末はまだ来ていない。むしろ、ドゥトピアはすでにここにある」と断言。企業が「人類存続の危機を防ぐ守護者」として位置づけられることで、規制当局は企業を「国家安全保障機関」と見なすようになり、通常の製品責任や規制の適用が希薄化していると分析する。 その結果、企業は人権侵害や著作権の無断使用、低賃金でデータラベリングを行う労働者の搾取、膨大なエネルギー消費による環境負荷といった実害を負いながらも、責任を回避できる状況が生じている。また、AI生成コンテンツの氾濫による情報の信頼性低下も、重大な課題と指摘している。 オスバーン氏は、AIの「知能爆発」や「シンギュラリティ」の話が、科学的根拠よりも「宣伝的に扱いやすい」「検証しにくい」特性を持つため、企業のリスクを社会に転嫁するための道具になっていると批判。彼は、これらの仮説が物理法則、特にエネルギーと熱力学の限界に直面すると崩壊すると強調し、「これらは技術的な課題ではなく、物理的制約の結果だ」と明言。 彼の提言は、未来の危機に注目するのではなく、既存の製品責任法や「勤勉義務」の原則をAI開発に適用し、企業が自らの技術による影響に対して真摯に責任を持つべきだと訴える。AI自体に否定的な立場ではない。特に、文章作成に困難を抱える障がい者への支援など、実際の社会的価値は認めている。しかし、その恩恵が「権力の集中」「責任の希薄化」によって歪められることを警鐘している。 「真の問題は、権力、責任、そして誰がAIを設計・運用するかという、極めて日常的で人間的な課題だ」と結んでいる。

関連リンク