擷女子IG美照「AI換臉」變全裸性愛片 樂團攝影師被起訴

甯姓樂團攝影師涉嫌與林姓男子(已故)合作,並由甯男利用AI科技「Deepfake」,將多名被害女子從臉書或Instagram擷取下來的照片,合成製作成全裸或性交等不實性影像,再...…

媒體來源:自由 - 2026-01-27 13:10:10 (82 天前)
分數:- | 正評 0 | 負評 0 |