- OpenAI a afirmat că cercetătorii săi au găsit și interzis conturi asociate cu cinci operațiuni de influență sub acoperire.
- Una dintre operațiuni a folosit un model OpenAI pentru a depana codul și a crea un robot care a postat pe Telegram.
- Actorii iranieni au generat articole complete care atacau SUA și Israelul, pe care le-au tradus în engleză și franceză.
OpenAI a publicat joi primul său raport privind modul în care instrumentele sale de Inteligență Artificială sunt folosite pentru operațiuni de influență sub acoperire, dezvăluind că societatea a întrerupt campanii de dezinformare provenind din Rusia, China, Israel și Iran, anunță The Guardian.
Actorii rău intenționați au folosit modelele generative de Inteligență Artificială ale companiei pentru a crea și posta conținut de propagandă pe platformele de socializare și pentru a-și traduce conținutul în diferite limbi. Potrivit raportului, niciuna dintre campanii nu a câștigat tracțiune sau nu a atins audiențe mari.
Pe măsură ce inteligența artificială generativă a devenit o industrie în plină expansiune, cercetătorii și legiuitorii s-au arătat foarte îngrijorați de potențialul acesteia de a crește cantitatea și calitatea dezinformării online. Companiile de Inteligență Artificială, cum ar fi OpenAI, care produce ChatGPT, au încercat, cu rezultate mixte, să calmeze aceste îngrijorări și să pună limite de siguranță asupra tehnologiei lor.
Raportul de 39 de…
Citeste tot articolul: OpenAI publică un raport cu privire la dezinformare
Articolul “OpenAI publică un raport cu privire la dezinformare” al autorului Diana Nechita a fost publicat pe 31/05/2024 de alephnews.ro