>>4
シカゴ大学に所属する研究者らが発表した論文「GLAZE: Protecting Artists from Style Mimicry by Text-to-Image Models」は、テキストから画像を生成する拡散モデルにおいて、絵に仕込んだノイズで学習後のモデルを騙し、作風を模倣した絵を出力させない技術を提案した研究報告である。学習される前に自分で描いた絵に敵対的な摂動を仕込むことで、学習されてもモデルの出力が誤った画像になるという。

これやれば?
全部の学習結果吹っ飛ぶからAI生成学習禁止と書いとけよ