ChatGPT tegija väidab, et Venemaa, Hiina, Iraan ja Iisrael üritasid tehisintellektiga loodud sisu abil avalikku arvamust manipuleerida.
Muu hulgas leiti propagandavahendeid, mis levitasid valeinfot Venemaa sissetungi kohta Ukrainasse, konfliktist Gaza sektoris, India valimistest, Euroopa ja USA poliitikast ning Hiina dissidentide ja välisriikide valitsuste kriitikast Hiina valitsuse vastu, seisis OpenAI raportis.
OpenAI sulges 2023. ja 2024. aasta jooksul mitmed neist riikidest pärit operatsioonid, mis püüdsid manipuleerida avalikku arvamust ja mõjutada poliitilisi tulemusi ilma oma tegelikke identiteete või kavatsusi avaldamata, teatas ettevõte sel neljapäeval.
Oma järeldustes paljastas OpenAI, kuidas mõjutusoperatsioonidega tegelevad võrgustikud on kasutanud generatiivset tehisintellekti tekstide ja piltide loomiseks palju suuremates mahtudes kui varem ning tekitades võltse kaasamisi ja avaliku arvamuse suunamist, luues tehisaru abil automaatselt võltskommentaare sotsiaalmeedia postituste alla.
«Viimase pooleteise aasta jooksul on olnud palju küsimusi selle kohta, mis võib juhtuda, kui mõjutusoperatsioonid kasutavad generatiivset tehisaru,» ütles OpenAI luure- ja uurimisrühma juhtivuurija Ben Nimmo meediakohtumisel Bloombergile, «selle aruandega tahame tõesti hakata mõnesid lünki täitma.»
OpenAI teatas, et Venemaa operatsioon «Doppelganger» kasutas ettevõtte tehisaru mudeleid pealkirjade loomiseks, uudisteartiklite muutmisel Facebooki postitusteks ja kommentaaride loomisel mitmes keeles, et õõnestada Ukraina toetust.
Teine Venemaa häkkerigrupp kasutas OpenAI mudeleid suhtlustarkvara Telegram roboti koodi loomiseks, millega postitati automaatselt lühikesi poliitilisi kommentaare inglise ja vene keeles, sihtides Ukrainat, Moldovat, USAd ja Balti riike.