AIが遊びながら文化の価値を学ぶ——対人協力ゲームでアルトルイズムを習得
ワシントン大学の研究チームは、人工知能(AI)が人間の行動を観察することで、文化的価値観を学べる可能性を示した。この研究では、AIが「オーバーコック」のゲームをプレイする人間の行動を観察し、その文化ごとの利他心の程度を学習した。対象となったのは、白人(190人)とラテン系(110人)の成人グループ。ゲームでは、片方のプレイヤーが遠くまで歩かなければならないため、もう片方のプレイヤーに玉ねぎを渡すことで協力する選択肢があり、協力するには自らの成果が犠牲になる。結果、ラテン系グループの参加者は白人グループよりも協力的だった。 AIは、この行動データを「逆強化学習(IRL)」という手法で学習。IRLは、AIが人間の行動を観察し、その背後にある目的や価値を推定する方法で、人間が子どもに価値を教える「見よう見まね」に近い。研究チームは、子どもが文化的背景から価値を「受け取る」ように、AIも同じように文化的行動から価値を学べると考えた。 AIは、ラテン系グループのデータで学習した後、新たなシナリオ(金銭の寄付)でもより利他的な行動を示した。この結果から、AIは単なるルールではなく、文化特有の価値観を「一般化」して応用できる可能性があると示された。 研究の責任者であるラジェシュ・ラオ教授は、「普遍的な価値をAIにハードコーディングすべきではない。文化によって価値は異なる。AIは子どものように、文化的行動を観察して価値を吸収すべきだ」と強調した。共同研究者で心理学教授のアンドリュー・メルツォフ氏も、「価値は教えられるより、『感じ取られる』もの。AIも同様に、社会や文化の行動から学ぶべきだ」と指摘。 今後は、より多くの文化グループや複雑な価値の対立を含む実社会のシナリオでの検証が必要とされる。この研究は、AIが多様な文化に配慮した「市民的意識」を持つシステムとして進化する可能性を示している。
