AIチャットボットの道徳観を検証:Redditの実際の議論から各プラットフォームの倫理観が浮き彫りに
AIチャットボットに道徳的判断能力はあるのか?カリフォルニア大学バークレー校の研究チームが、Redditの人気フォーラム「r/AskReddit」に投稿された数千の道徳的ジレンマをAIに提示することで、各AIプラットフォームが独自の道徳観を持っていることを明らかにした。研究では、GPT-4、Claude 3、Geminiなど主流のチャットボットに、実際のユーザーが投稿した「電車のジレンマ」や「医療資源の配分」など、複雑な倫理的選択を問う課題を提示。その結果、同じ問題に対しても、各AIは異なる回答を示し、価値観の違いが顕著に現れた。たとえば、命を救うために他人を犠牲にする行為について、一部のAIは「結果主義的」な判断を示す一方で、別のAIは「人間の尊厳」を重視する立場を取った。研究チームは、AIの回答は開発元の設計方針や学習データに強く依存しており、一貫した「道徳的基準」ではなく、むしろ「訓練された倫理観の集合体」であると結論づけた。この研究は、AIが社会に与える影響を評価する上で、その「道徳的バイアス」を理解することが不可欠であることを示している。今後、AIの倫理的設計には、透明性と人間中心の監査体制の構築が求められる。
