- Taylor Swift a fost victima unor activități deepfake. Imgini pornografice false cu ea au fost distribuite pe platforma de socializare X.
- În general, femeile și copiii se numără printre victimele acțiunilor deepfake.
- X a reușit să dea jos imaginile cu Tatlor Swift după 17 ore.
Distribuirea imaginilor explicite și pornografice ale cântăreței Taylor Swift în această săptămână a scos la iveală capacitatea Inteligenței Artificiale de a crea imagini convingător de reale, dăunătoare și false, scrie CNN.
Dar conceptul este departe de a fi nou; oamenii au folosit acest tip de tehnologie împotriva femeilor de ani de zile. Și odată cu creșterea accesului la instrumentele AI, experții spun că situația este pe cale să se înrăutățească din ce în ce mai mult, pentru toată lumea, de la copiii până la adulți.
Unii liceeni din întreaga lume, au raportat că fețele lor au fost furate de AI și distribuite online de către colegii de clasă. Între timp, o tânără ce făcea stream pe Twitch a descoperit că imaginea ei a fost folosită într-un videoclip pornografic fals, explicit, care s-a răspândit rapid în comunitatea de jocuri online.
„Nu sunt doar celebrități”, a spus Danielle Citron, profesoară la Facultatea de Drept de la Universitatea din Virginia. „Sunt oameni obișnuiți. Sunt asistente, studenți la artă și drept, profesori și jurnaliști. Am auzit povești despre modul în care acest lucru îi afectează pe…
Citeste tot articolul: Femeile, copiii și celebritățile sunt victimele imaginilor false explicite create de A.I.
Articolul “Femeile, copiii și celebritățile sunt victimele imaginilor false explicite create de A.I.” al autorului Mihalașcu Diana a fost publicat pe 27/01/2024 de alephnews.ro