シェア:

ジャカルタ - シカゴ大学の研究者は、アーティストにデジタルアートワークを「毒する」能力を与えるツールを開発しました。これは、開発者が自分の仕事で人工知能 (AI) システムをトレーニングするのを防ぐために行われました。

有毒植物の仲間にちなんで「ナイトシェード」と呼ばれるこのツールは、その存在によって AI のトレーニングに使用されるデータセットが誤った情報で汚染されるような方法で画像を変更します。

MIT の Technology Review のレポートによると、Nightshade はデジタル画像のピクセルを変更して、AI システムをだまして画像を誤解させます。たとえば、Tech Review では、このツールを使用すると、猫の写真が実際には犬であると AI に認識させることができ、その逆も同様であると述べています。

そうすることで、正確で理論的に合理的な出力を生成する AI の能力が損なわれます。上の例では、ユーザーが汚染された AI に「猫」の画像をリクエストした場合、代わりに、猫としてタグ付けされた犬の画像、または AI のトレーニング セット内のすべての「猫」の合成画像を取得する可能性があります。 Nightshade ツールによって実際に変更された犬の画像。

この研究を調査した専門家、コーネル大学教授のヴィタリー・シュマティコフ氏は、研究者らは「これらの攻撃に対する堅牢な防御策をまだ知らない」と主張し、OpenAIのChatGPTのような堅牢なモデルも危険にさらされる可能性があることを示唆した。

Nightshade の研究チームは、シカゴ大学の Ben Zhao 教授が率いています。この新しいツールは、実際には、Glaze と呼ばれる既存のアーティスト保護ソフトウェアの拡張機能です。以前の研究では、アーティストが自分のアートワークのスタイルを不明瞭にする、つまり「光沢を与える」ことができる方法を考案しました。

たとえば、木炭の肖像画を作成するアーティストは、それを釉薬でコーティングして、AI システムに現代アートとして見せることができます。

Technology Review によると、Nightshade は最終的に Glaze に実装される予定で、現在は Web での使用またはダウンロードが無料で利用できます。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)