xAIのGrokによる性的ディープフェイク被害が拡大。尊厳が侵害され、早急な規制が求められている。
AI「Grok」による性的ディープフェイク、世界中で被害確認
 米実業家イーロン・マスク氏が設立した人工知能(AI)開発企業「xAI」が提供する「Grok」(グロック)によって、実在の人物が勝手に性的な加工をさ…
(出典:毎日新聞)


ディープフェイクのサムネイル
ディープフェイク(英: deepfake)とは、「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語で人工知能(AI)や機械学習を用いて作成された、実在しない・または改変された人物や出来事を描く極めて精巧な合成メディア、およびその技術を指す。…
60キロバイト (7,527 語) - 2025年10月24日 (金) 14:39

(出典 朝日新聞)


このニュース、AIの「自由」が人の尊厳を踏みにじる最悪の形。
被害女性の「人間性を奪われた」という叫びが胸を刺す。
技術は進むが、倫理のブレーキが壊れたらただの凶器だ。早急な規制と責任追及を。

1 ぐれ ★ :2026/01/04(日) 21:47:01.28 ID:y9w4DOMj9
※1/4(日) 15:46配信
毎日新聞

 米実業家イーロン・マスク氏が設立した人工知能(AI)開発企業「xAI」が提供する「Grok」(グロック)によって、実在の人物が勝手に性的な加工をされ、その画像がX(ツイッター)上に数多く投稿される「性的ディープフェイク」の被害が世界中に広がっている。日本でも被害が報告されており、生成AIがもたらす深刻な問題へと発展している。

 グロックはXの利用者が投稿のとき、タグ付けすると応答する「AIチャットボット」。昨年12月下旬ごろ、グロックに新たに画像編集機能が追加され、他人が投稿した写真であっても、テキストで指示を出すだけで簡単に改変できるようになった。

 X上では今年に入り、投稿された女性の写真に対し、身につけている衣服をビキニや下着姿などに変更するような指示がグロックになされ、指示通り性的な画像が出力・投稿された事例が世界規模で確認されている。ほぼ全裸に見えるものや、男性がビキニ姿にされている画像などもある。

 米メディアによると、未成年の女性をターゲットにしたものや、女性が身体を拘束されたり、顔に殴られたようなあざを追加されたりしたような加害的描写もいくつもあったという。

 日本でも自分の写真を投稿したコスプレーヤーの女性らから、画像を改変されたという被害を訴える声が複数上がっている。

 一方でマスク氏はX上で、自分に女性用ビキニを着せた画像を生成するようグロックに指示し、出来上がった生成画像に対して「パーフェクト」と、批判の声を意に介さないような投稿をしている。

続きは↓
https://news.yahoo.co.jp/articles/92562fe0e98bc482b9c3883d4c755315cefee231

6 名無しどんぶらこ :2026/01/04(日) 21:47:47.56 ID:JtQG7ANH0
>>1


(出典 Youtube)

&list=PLU8XCsqyASJVtLhsJ8ajr3a8hbK0MbpKS&index=54&pp=iAQB

72 名無しどんぶらこ :2026/01/04(日) 22:09:50.34 ID:zSQWkWdS0
>>1
これが駄目なら*毎日新聞とか絶対許されないじゃん

8 名無しどんぶらこ :2026/01/04(日) 21:48:05.21 ID:Ouu64SX40
安倍ちゃんも被害にあってたの見たぞ

10 名無しどんぶらこ :2026/01/04(日) 21:48:54.56 ID:2tnnjvTH0
>>8
タカイチの被害はみたくない

12 名無しどんぶらこ :2026/01/04(日) 21:49:06.81 ID:GvYLE3Oq0
参考画像はどこかね?

14 名無しどんぶらこ :2026/01/04(日) 21:49:39.57 ID:pntH3Xzy0
くだらんな

16 名無しどんぶらこ :2026/01/04(日) 21:49:42.90 ID:XCWr0O8G0
賠償請求はマスクに

18 名無しどんぶらこ :2026/01/04(日) 21:50:01.99 ID:FS8d5uX60
これは飯論が世界的な裁判にかけられるべきなんでは?

19 名無しどんぶらこ :2026/01/04(日) 21:50:14.79 ID:cjWyVvzX0
でしょうね。
想定の範囲内

21 名無しどんぶらこ :2026/01/04(日) 21:50:42.96 ID:AcGRh8GS0
どうやって指示すればいいんや?
すぐ「だめ!」って表示してくれないんやが

44 名無しどんぶらこ :2026/01/04(日) 21:59:38.17 ID:0djv/41B0
>>21
ちゃんと服脱いだ?

23 名無しどんぶらこ :2026/01/04(日) 21:51:36.93 ID:Hy9l4QBs0
うーん、でもこれなんか問題か?
被害にあったって、実害があるわけじゃなくてただの気持ちの問題でしょ?
人類最先端のテクノロジーの進歩を止める理由としては弱いよね

27 名無しどんぶらこ :2026/01/04(日) 21:52:44.72 ID:yx/plwnS0
>>23
ローカルで楽しむ分には個人の自由にって気もするけど
インターネットに晒す必要はなくね

35 (; ゚Д゚)コロ猫映画(仮)10 ◆EFvlPnIYE33o :2026/01/04(日) 21:56:31.61 ID:hZ/WcD8E0
>>27
(; ゚Д゚)承認欲求のアホが、いつも何もかもを台無しにする
一番の害悪
自分で自分の首締めてるのがわからない境界知能のDQN

30 名無しどんぶらこ :2026/01/04(日) 21:54:55.26 ID:sJuu03Px0
>>23
それ言い出したらセクハラだの痴漢だのも気持ちの問題ってなるしな
それで許される世界じゃないんやで

31 名無しどんぶらこ :2026/01/04(日) 21:55:20.47 ID:X3yWwIwE0
イーロン・マスクを処刑しろ

89 名無しどんぶらこ :2026/01/04(日) 22:18:52.27 ID:vlGKJFVX0
>>31
ポリマーフレームのハンドガンで!?

33 名無しどんぶらこ :2026/01/04(日) 21:56:04.41 ID:k6vZbSSn0
別に下着までじゃん
*だしてとグロックに言ったらダメと言われたし
この程度で騒ぐなんて民度低すぎ

36 名無しどんぶらこ :2026/01/04(日) 21:57:35.71 ID:Ouu64SX40
>>33
安倍ちゃんが街でビキニで歩いてる画像とかいいわけねぇだろ*

43 警備員[Lv.11] :2026/01/04(日) 21:59:23.79 ID:826A20RB0
>>36
見てみたいな

34 名無しどんぶらこ :2026/01/04(日) 21:56:11.56 ID:Sy/jD4gN0
皇室をもネタにするとはね…

39 名無しどんぶらこ :2026/01/04(日) 21:58:06.76 ID:HmeQNs9O0
このままにしときゃ覇権取れるぞ

45 名無しどんぶらこ :2026/01/04(日) 22:00:14.48 ID:+20S78aU0
性的ディープフェイクに関しては大先輩(毎日デイリーニューズWaiWai問題)の毎日新聞さんがソースじゃないですか!

46 名無しどんぶらこ :2026/01/04(日) 22:00:29.80 ID:AARolW0a0
剥き剥きオリンピックww

47 名無しどんぶらこ :2026/01/04(日) 22:01:01.01 ID:aBD3pIOE0
今、こういう画像を作ったら、その機能を提供したAI企業に責任を負わせる法律が
世界中で作られようとしてる

悪いのはAIじゃなく、それを使ってた人間なのに

かつて日本で起きたWinny作者逮捕と同じことが世界で起きようとしている
Winny作者はただアプリを作っただけなのに
ほとんどが著作権違反に利用されているからというめちゃくちゃな理由で逮捕された

この過ちを繰り返してはいけないとみんな言ってたはずなのに

63 名無しどんぶらこ :2026/01/04(日) 22:05:24.14 ID:d2p/qrhB0
>>47
国には逆らえないけど
でけー企業はすり抜けるよ
つべで児童ががちがちになったのといっしょ

49 名無しどんぶらこ :2026/01/04(日) 22:01:28.24 ID:I+oLPTj30
予定通り1行広告のスポンサーついたら今までどおりにもいかんやろ
いままでがアナーキーなモラトリアムだったんだよ

ご新規さんは残念。ここのほとんどの連中はみないい経験させてもらったな

50 名無しどんぶらこ :2026/01/04(日) 22:01:32.81 ID:bXJySOoS0
アイコラと扱いとしては同じやろから
AIだからまだ法整備されてないって考えでやってんなら普通にアウトやろな

69 名無しどんぶらこ :2026/01/04(日) 22:08:00.79 ID:SrIwJqX30
>>50
単に若くてアイコラ逮捕の事を知らないんだと思うわ
アイコラ逮捕って多分20年ぐらい前だろ

83 名無しどんぶらこ :2026/01/04(日) 22:15:55.77 ID:Q73EVbrl0
>>69
まぁ何人かは確実に吊られると思うのでそいつらをせせら笑ってやるのが流儀かな

51 名無しどんぶらこ :2026/01/04(日) 22:01:58.97 ID:722OcWCq0
損害賠償請求できるんじゃない?(´・ω・`)

53 名無しどんぶらこ :2026/01/04(日) 22:02:43.55 ID:k6vZbSSn0
グロックが悪いんじゃないよ
それをポストする奴が悪い
規制するならグロックじゃなくグロック作成画像動画をポストできないようにすればいいだけ

56 PS5に美少女と浪漫を望む名無し :2026/01/04(日) 22:04:08.41 ID:AFabGdMb0
反AIのみんなで実際にマイクロビキニ着た写真公開するムーブメントで抗議しようぜ

58 名無しどんぶらこ :2026/01/04(日) 22:04:13.52 ID:Nhb+r1vs0
動画でもいける?

86 名無しどんぶらこ :2026/01/04(日) 22:17:52.90 ID:9nXr2tXI0
>>58
ピョンピョンする高市を、動画のままGrokできる?

60 名無しどんぶらこ :2026/01/04(日) 22:04:48.04 ID:6uk364TQ0
もしかして、高市もビキニにできちゃったりするの?

うひょーーーー

61 名無しどんぶらこ :2026/01/04(日) 22:04:58.05 ID:Q73EVbrl0
冗談じゃなくこれ訴訟されても文句言えんからな

67 名無しどんぶらこ :2026/01/04(日) 22:07:38.64 ID:HZV7XlTu0
キットさんなら元々だろ

78 名無しどんぶらこ :2026/01/04(日) 22:13:11.09 ID:/f/pX6120
*新聞がコレをネタにするのオモロイ

81 名無しどんぶらこ :2026/01/04(日) 22:14:40.42 ID:gT5L2x090
>>78
結構前に知人や同級生を対象にした
ディープフェイクポルノ拡散問題はNHKがドキュメンタリーやってたよ

79 名無しどんぶらこ :2026/01/04(日) 22:13:57.28 ID:WxDIFR6O0
そもそもなんでこんな機能実装したん?

87 名無しどんぶらこ :2026/01/04(日) 22:18:05.05 ID:rI1nVRdc0
>>79
この機能実装するために叩かれて規制強化するとか本末転倒でマヌケだよな。誰も得しない

88 名無しどんぶらこ :2026/01/04(日) 22:18:35.56 ID:tgGFxzax0
実写もアニメもやりたい放題されてる

Grok 3次専用スレ ★24
https://mevius.5ch.net/test/read.cgi/cg/1767177145/

Grok 持ち込み専用スレ ★2
https://mevius.5ch.net/test/read.cgi/cg/1767085465/

92 名無しどんぶらこ :2026/01/04(日) 22:19:42.30 ID:gT5L2x090
>>88
やりたい奴は手描きでもやる
で承認されたくなっちゃうんだな

90 名無しどんぶらこ :2026/01/04(日) 22:18:52.31 ID:QN0/4LvR0
加工して公開するような*をどうにかした方がいい

96 名無しどんぶらこ :2026/01/04(日) 22:21:02.01 ID:s74x4/FQ0
>>90
しかも元画像のポスト主にリプとしてな
性格悪いと言うか性根腐っているというかなんというか

94 名無しどんぶらこ :2026/01/04(日) 22:19:59.06 ID:F78q+svB0
AIとか誰が幸せになるのよ
電力の無駄遣いでしかない

95 名無しどんぶらこ :2026/01/04(日) 22:20:21.20 ID:eCUSdci20
むかしも*本にクラスメイトの顔写真から貼ってたやろ
歴史は繰り返す

99 名無しどんぶらこ :2026/01/04(日) 22:22:39.48 ID:tNUC70ix0
>>95
賢者は歴史に学ぶ

100 名無しどんぶらこ :2026/01/04(日) 22:23:25.89 ID:BLVnaZHp0
せっかくの技術なんだからもっと別のことに使えばいいのに