X(旧ツイッター)に導入された生成AI(人工知能)による画像編集機能を悪用し、投稿された人物の画像を水着姿などの性的な画像に加工する「性的ディープフェイク」の被害が相次いでいる。
https://image.news.livedoor.com/newsimage/stf/7/9/79828_1231_06211050_0b9b24a0.jpg

 専門家は「新機能が被害を助長しており、Xは機能変更などすべきだ」と指摘している。

 Xは昨年12月下旬、投稿画像を選択し、編集画面でプロンプト(指示文)を入力すると、それに沿った画像が生成される機能を追加した。米実業家のイーロン・マスク氏が率いるAI開発企業の対話型AI「Grok(グロック)」が使われており、他人の投稿した画像も加工できる。


 X上では年明け以降、この機能を使って服を着たアイドルらの画像を水着姿や下着姿に加工し、投稿する行為が急増。未成年とみられる画像や裸に近い格好に加工された画像もあった。

 被害に遭った女性らからはX上で「気持ち悪すぎる」「精神的にまいってる」といった声が上がっている。今月5日には、アイドルグループのメンバーの画像を水着姿に改変して投稿した漫画家が、批判の高まりを受けて画像を削除し謝罪する事態となった。

 Xは利用規約で、投稿の法的責任は投稿者自身が負うとしている。X日本法人は6日、公式アカウントに、グロックを使用して子どもの性的虐待などの違法コンテンツを作成した場合は「投稿の削除、アカウントの永久凍結などを含む対応を行う」などと投稿した。

 インターネット上の権利問題に詳しい上沼紫野(しの)弁護士は「世界中で被害が起きており、プラットフォーマーとして放置は許されない。Xの運営会社は機能を変更するなど速やかに対処すべきだ」と訴える。Xの利用者には「他人の画像を性的に加工し投稿する行為は名誉毀損(きそん)に問われるほか、対象が未成年であれば児童買春・児童ポルノ禁止法違反に当たる可能性もある。安易にやるべきではない」と注意を促している。

ソース元:https://news.livedoor.com/article/detail/30327788/