AIに道徳を植え込む哲学者——アマンダ・アスケルがクレードに倫理観を賦与
人工知能に道徳観を植え付ける挑戦に取り組む人物がいる。アントロピック(Anthropic)は、哲学者のアマンダ・アスケルを起用し、同社の対話型AI「クレード(Claude)」に倫理的判断能力を付与するプロジェクトを推進している。アスケルは、AIが人間の価値観に沿った意思決定を行うための仕組みを設計する役割を担っており、特に「正しいこと」と「間違っていること」の区別を、モデルが学習できる形で定式化することを目指している。 彼女のアプローチは、単なるルールの強制ではなく、AIが複雑な状況下で人間の倫理的ジレンマを理解し、適切な反応を示す能力を育成することにある。具体的には、人間の反応を基にしたデータを用いて、AIが「なぜその選択が倫理的か」を学ぶ仕組みを構築している。これは、AIが単に「正解」を出力するのではなく、その背後にある理由を理解できるようにする、いわば「道徳的思考の訓練」である。 アスケルの取り組みは、AIが社会に与える影響を最小限に抑え、信頼性を高める上で極めて重要だ。特に、AIが誤った判断を下すリスクが高まる中で、倫理的な制御機構の構築は技術的課題以上に社会的意義を持つ。アントロピックは、AIの安全性と信頼性を最優先に据える方針を貫いており、アスケルの専門性がその核心的な柱となっている。
