HyperAIHyperAI

Command Palette

Search for a command to run...

Anthropic、ユーザー対話データでAIモデルを訓練へ—9月28日までにオプトアウトを判断必须

AI企業のAnthropicが、ユーザーのチャット履歴やコーディングセッションデータをAIモデルの学習に活用する方針を発表した。2025年9月28日までに、すべての消費者向けプランユーザー(Claude Free、Pro、Max)がこの利用条件に同意するか、オプトアウトの選択をしなければならない。同意した場合、Anthropicは新規または再開されたチャットやコーディングセッションのデータをAIモデルの訓練に使用し、そのデータを最大5年間保持する。 既存ユーザーは、登場するポップアップで設定を変更できる。ただし、大きな「Accept」ボタンが強調されており、自動的に「データ利用を許可」(On)の状態になっているため、注意深く確認せずに承認してしまうリスクがある。オプトアウトを希望する場合は、ポップアップのトグルを「Off」に切り替えるか、設定画面の「プライバシー」タブから「Claudeの改善に協力する」項目をオフにすればよい。ただし、既に学習に使用されたデータは取り消せない。 この方針は、Claude Codeを含むすべての消費者向けサービスに適用されるが、商用利用向けプラン(Claude Gov、Claude for Work、Claude for Education、API利用含む)には適用されない。新規ユーザーは登録時に選択を迫られる。 Anthropicは、ユーザーのプライバシーを守るため、機械学習プロセスで機密情報を自動でフィルタリングまたはマスキングすると明言しており、ユーザーのデータを第三者に販売しないとしている。同社は、AIモデルの質向上とユーザー体験の改善を目的に、透明性と選択の自由を重視している。

関連リンク

Anthropic、ユーザー対話データでAIモデルを訓練へ—9月28日までにオプトアウトを判断必须 | 人気の記事 | HyperAI超神経