「軽いパニックになりました」 15歳の女子高校生が語ったのは、まったく思いがけない被害。 ある日突然、SNS上で自分の裸の画像が送りつけられてきたというのです。 撮った覚えも、撮られた覚えもないのに…。 SNSにあげた画像や動画が勝手に加工される被害がいま急速に広がっています。 子どもたちや若者に迫る、“性的ディープフェイク”の実態とは? もし被害にあったら、どこに相談したらいいのか記事の最後に窓口についての情報もまとめました。 (クローズアップ現代取材班)

ニューヨーク(CNN) AI(人工知能)で生成した米人気歌手テイラー・スウィフトさんのポルノまがいの画像が今週、SNSで拡散した。本物そっくりの有害な画像を生成する主流AI技術の危険性が浮き彫りになった。 スウィフトさんの偽画像は主にX(旧ツイッター)で出回った。偽画像には性的にきわどい露骨な姿勢を取ったスウィフトさんの姿が写っており、数千万回閲覧された後に各種のSNSプラットフォームから削除された。 ただ、インターネット上の情報が永久に消えることはありえず、今後も間違いなく、他の規制の緩いメディアで共有され続けるとみられる。 スウィフトさんの広報担当者はコメントを控えた。 他のSNSプラットフォームと同様、Xのポリシーでは「利用者を欺いたり混乱させたりして損害をもたらす可能性のある、合成または操作されたメディアや、文脈から切り離されたメディア」の共有を禁じている。 今回の出来事は米国が2
人工知能(AI)を用いて写真に写った人物の服を「脱がす」アプリの人気が急上昇していることが、最新のソーシャルメディア調査で明らかになった。こうしたプログラムは、実在する個人が被写体となっている既存の写真や動画を加工して、被写体本人の同意なしに全裸にしてしまう。多くの「ヌード化アプリ」は女性の写真のみを対象としている。 ソーシャルメディア分析会社グラフィカは最近実施した調査で、ヌード化アプリを使って加工された写真を「非同意性的画像(NCII)」と位置づけ、サービスを提供している34社を分析した。各社ウェブサイトのユニーク訪問者数は、9月だけで合わせて2400万人に上っていた。 ある企業の広告は「気になる女の子を片っ端から脱がせよう」をキャッチフレーズに掲げていた。このような「バーチャル脱衣産業」は、2022年にはほぼ存在しなかった。オープンソースのAI画像拡散モデルが利用できるようになったこ
非常に高度なレベルで文章を生成できる対話型AIのChatGPTや、画像生成モデルのDALL・Eなどを始めとした画像生成AIの発達により、誰でもクオリティの高い文章やイラスト、画像を作成できるようになりました。これらの生成AIを用いることで、存在しない女性のセクシーな自撮りやセリフの吹き込みがある官能的なストーリーなどを全てAIで作成した「ハイパーポルノ」に注目が集まっています。 Mindy https://thisgirlnextdoordoesnotexist.net/mindy/ 生成AIはジャンルや種類を問わず文章や画像を作成できますが、ChatGPTに用いられている言語モデル「GPT-4」には不適切な質問をブロックするコンテンツフィルターが設定されていたり、画像生成AIの「Stable Diffusion」には成人向け表現を含む画像を黒塗りするセーフティーフィルターがあったりと、コ
スマートフォンで「性的な写真」を撮影できないようにしてほしい――。児童ポルノやリベンジポルノなど、デジタル性暴力に関する相談を受けている団体が、米アップルと米グーグルに対して、こんな内容の要望を出そうと準備している。(ライター・玖保樹鈴) ●性的な画像を撮影させない「AI」を搭載することを望んでいる 自撮りにしろ、盗撮にしろ、スマホで撮った性的な画像は、いったんインターネット上に掲載されてしまうと、完全に消すことはむずかしい。プロバイダに削除してもらっても、ふたたび流出することが少なくないからだ。 こうした状況を受けて、NPO法人「ポルノ被害と性暴力を考える会」(ぱっぷす)は、圧倒的なシェアを占めるアップルとグーグルに対して、スマホの標準機能として、性的な画像を撮影させない人工知能(AI)を搭載することを要望しようとしている。 ●クラウドファンディングをスタートさせている この要望に先立っ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く