署名の受付が終了いたしました。

ご協力頂きまして心より感謝申し上げます。

※エールは現在も贈れます。皆さまの応援・お気持ちをお伝え頂けます。

「完了報告」が経過報告に投稿された後、一定期間後に締め切られます。

X(旧Twitter)のGrokによる性的コンテンツ生成に対する規制を求めます

top-img-mobile

X(旧Twitter)のGrokによる性的コンテンツ生成に対する規制を求めます

  • 提出先:X社
user_icon
作成者:X(旧Twitter)のGrokによる性的コンテンツ生成に対する規制を求める会

活動詳細

X(旧Twitter)のAI「Grok」は、実在する女性や子どもの画像を、本人の同意なく、服を脱がせたり、改変したり、非常に性的な状況の画像として生成するためにいまこの瞬間も、使われています。

今、女性の写真を含む投稿へのリプライ欄で、Grokを利用し服を脱がせるという行為が蔓延しています。さらに悪質なケースでは、(非公開アカウントの画像を含む)知り合いの女性の写真を秘密裏にスクリーンショットし、捨てアカウントからGrokにアップロードしてGrokで「脱がせた画像」を生成後、画像ができた瞬間に元の投稿を削除するという、そんな悪質な手口まで確認されています。

Grokのリプライ欄を少しスクロールするだけで、このAIがどのように使われているかは一目瞭然です。
これは明らかに、本人の同意がない性的画像(nonconsensual porn)の大量公開です。しかもそれが、世界最大級のSNS上で堂々と拡散されているのです。

つまり今この瞬間にも、あなたの母親、祖母、姉妹、いとこ、親友などの写真が誰かによってアップロードされ、裸に加工され、誰でも見られる状態で公開されている可能性があるということです。

これは極めて重大な問題であるにもかかわらず、現在も見過ごされ、野放しのまま広がり続けています。

さらに深刻なのは、Grokがユーザーに指示されていないにもかかわらず、一部ユーザーのリプライ欄で、子どもの性的虐待コンテンツ(CSAM)を生成した事例まで報告されています。

私たちは、Xをスクロールしているだけで、子どもの性的虐待コンテンツや本人の同意がない性的コンテンツを“強制的に見せられる状況に置かれるべきではありません。

私たちは声を上げ、、プラットフォームに責任ある対応を求める必要があります。今すぐに規制が必要なのです。


米国の「TAKE IT DOWN法」では、本人の同意なく親密な画像を公開・作成する行為「デジタル合成(ディープフェイクを含む)」は違法としています。

また、子どもの性的虐待コンテンツを生成することも違法です。

それにもかかわらず、X/Twitter社は、自社のAIがこのように使われ続けることを容認しているのです。

私たちは、規制を求めます。今すぐにです!

新着報告

新着情報はありません

メッセージ

新しいコメントはございません。署名で活動を応援しよう!
署名 / エールを贈る