created at

【特集】AIモデルを毒する「Nightshade」の新ツールが著作権侵害とディープフェイク対策に有効

プロンプトを標的とするデータポイズニングにより、NightshadeはAI画像生成モデルを攻撃する

AIによる画像生成の能力はますます高まっており、大量の既存アート作品から構築されたモデルでは、アーティストは自分の作品が無断で利用されることを防ぐ手段を必死に探しています。その問題に対する回答となるかもしれないのが、謎めいた名前を持つNightshadeという新しいツールです。Nightshadeは、画像生成器に入力される際に使用されるデータを破壊する、最適化されたプロンプト固有の「データポイズニング攻撃」を行います。

Nightshadeは個々のプロンプトを攻撃し、AIモデルを機能不全に追い込む

Washington大学のBen Zhao教授は、「ポイズニングは機械学習モデルに対する既知の攻撃手法ですが、Nightshadeが興味深いのは、これまでこれらのモデルが大きすぎるため、AI生成モデル自体を攻撃することは不可能と考えられていた点です」と語っています。知的所有権の盗用やAIディープフェイクに対抗することは、今年主流となった生成AIモデルの登場に伴い、非常に重要な課題となっています。MITの研究チームも同様に、コードの一部を注入して画像を歪ませ、使用不可能にする手法を提案しています。

ターゲットはAIモデルのプロンプトであり、データ自体は自然に見えるように工夫されている

Nightshadeの開発チームは、検出を回避するために、ポイズンデータ内のテキストと画像を自然に見えるように作り上げ、自動的なアライメント検出器や人間の検査官を騙すことを意図していると説明しています。これらのポイズンデータには特定のプロンプトを攻撃する能力があり、AIモデルを妨害し、アート作品を生成できないようにします。

多数のアーティストによる集団攻撃でAIモデルが無力化される可能性も

現在のNightshadeのデータセットは概念実証の段階に留まっていますが、赵教授によれば、簡単な方法としては、数百枚の猫の画像を犬と誤ってラベル付けすることで、AIモデルで猫を犬と認識させることができます。アーティストたちは協調しなくてもこれらのポイズンデータを一斉に実装し始めることができ、それによってAIモデルを崩壊させる可能性があります。「十分な攻撃が同じモデルに対して行われると、そのモデルは無効になってしまいます。つまり、『絵を書いて』と頼んでも、カライドスコープのようなピクセルが出てくるような無意味なものになるのです。AI開発者たちに撤退要請やスクレイピング禁止指示を尊重しない人たちに向けた防御策や有刺鉄線といったものです」と赵教授は述べています。NightshadeはAI画像生成モデルそのものに対してアクションを起こす必要はなく、Nightshadeが含まれたデータをモデルが消費しようとした時に効果を発揮します。

最終的にはAI開発者自身が対策を取る必要がある

赵教授は、「これに対してアクションを起こさない限り、AI開発者に何の影響もありません。ですので、これは攻撃ではなく、むしろセルフディフェンスや毒針のついた有刺鉄線フェンスのようなものです。オプトアウト要求やスクレイピング禁止指示を尊重しないAI開発者に対する解決策を提供するために設計されました」と説明しています。

【特集】AIモデルを毒する「Nightshade」の新ツールが著作権侵害とディープフェイク対策に有効
引用元
https://decrypt.co/203153/ai-prompt-data-poisoning-nightshared
画像の著作権は引用元に帰属します
おすすめ記事
Copyright © 2023 Coin News DAO. All rights reserved.

Site Map

Twitter(X)