Stack News 群眾新聞
文章列表
登入/註冊
關於我們
擷女子IG美照「AI換臉」變全裸性愛片 樂團攝影師被起訴
甯姓樂團攝影師涉嫌與林姓男子(已故)合作,並由甯男利用AI科技「Deepfake」,將多名被害女子從臉書或Instagram擷取下來的照片,合成製作成全裸或性交等不實性影像,再...…
媒體來源:自由 - 2026-01-27 13:10:10 (82 天前)
分數:
-
| 正評
0
| 負評
0
|