AIアート保護ツール、依然として著作者の権利を守れない研究結果
AIアート保護ツールが依然としてクリエイターの著作権侵害を防止できない 研究チームが明らかにしたところによると、デジタルアート作品を保護するために最も多い使用されているツール「Glaze」と「NightShade」には深刻な弱点があり、これらがアート作品の無断利用からクリエイターを守ることは困難とのことです。これらのツールは、人間の創造活動を侵入的な人工知能(AI)の利用から保護するため開発されました。特にAIアートジェネレーターのように、独自のスタイルを盗用されることを懸念しているデジタルアーティストの間で人気となっており、合計でダウンロード数が880万におよびます。 GlazeとNightShadeは、デジタル画像に微細で目に見えない歪み(「毒となる変異」)を加えることで機能します。Glazeは、AIモデルが重要なおしゃれな特徴を抽出する能力を抑制するアプローチを採用しています。一方、NightShadeはさらに強力で、AIモデルが特定のアーティストのスタイルと無関係な概念を結びつけるように学習プロセスを混乱させます。 しかし、ケンブリッジ大学、ダルムシュタット工科大学、テキサス大学サンアントニオ校の国際的研究グループが開発した新方法「LightShed」は、これらの保護機能を突破できることが証明されました。LightShedは3つのステップで動作します。最初に、画像が既知の毒となる変異技術で改ざんされたかどうかを識別します。次に、公開されている中毒例から変異の特徴を学習します。最後に、毒を除去して画像を元の保護されていない状態に戻します。 実験評価では、LightShedはNightShadeで保護された画像を99.98%の精度で検出でき、その埋め込み保護を効果的に除去しました。この研究の主著者であるハンナ・フォースター教授は、「NightShadeのようなツールを使用していても、クリエイターの作品が無断でAIモデルの学習データとして使われ続ける危険がある」と述べています。 ただし、LightShedが明らかにしたアート保護ツールの深刻な脆弱性は、それを攻撃するためではなく、より適応力のあるツールを開発する必要性への緊急の呼びかけとして意図されています。共同著者のアフマド‐レザ・サデギ教授は、「われわれはこの研究を防御策との共進化の機会と捉えている。同分野の他の科学者やアーティストコミュニティと協力して、高度な敵に対して耐えうるツールの開発を支援したい」と語っています。 AIとデジタル創造性の領域は着実に進化しています。今年3月、OpenAIはスタジオジブリの独自のスタイルで即座にイラストを生成できるChatGPTの画像モデルを発表しました。これにより、著作権についての議論が広がり、法的見解では特定の芸術「スタイル」を保護することはできず、具体的な表現のみを保護するとされています。 その後、OpenAIは生存するアーティストのスタイルを利用するユーザーからの请求を阻むプロンプト防護策を導入しましたが、AIによって創られるイメージの著作権問題は今なお続いていると言えます。現在、ロンドンの高等裁判所では Getty Images 社が、同社の著作物画像アーカイブを使用して画像生成モデルを訓練したというStability AIの侵害訴訟が進行中です。また、ディズニーとユニバーサルは、著作権侵害によって「底なしの剽窃」と言及されるMidjourneyのAIジェネレーターに提訴しました。 「私たちは、より堅牢でクリエイターセンタードの保護策への道筋を示す緊急の必要性を強調したい」とフォースター教授は总结しています。「クリエイターが依然として危険にさらされている現状を知らせることが重要であり、他の専門家と連携し、将来的に更好的な保護ツールを開発することを目指している。」 ハンナ・フォースターはケンブリッジ大学のダーウィンカレッジのメンバーであり、本研究は8月に開催される主要な安全保障会議USENIXセキュリティシンポジウムで発表されます。