USA idufirma OpenAI, mis on loonud kuulsa vestlusroboti ChatGPT ja teisi uusi tehisaru lahendusi, avastas oma hiljutises teenuste analüüsis, et kunstmõistuse tööriistu kasutavad usinalt Venemaa, Hiina, Iraan ja Iisrael propagandasõjas. OpenAI pidi peatama mitmed varjatud mõjutamistoimingud, mis kuritarvitasid firma tehisintellekti mudeleid, kuna see on kasutustingimuste järgi keelatud.
UUS RELV ⟩ OpenAI avastas, et mitmed riigid kasutavad nende tehisaru propagandasõjas
ChatGPT tegija väidab, et Venemaa, Hiina, Iraan ja Iisrael üritasid tehisintellektiga loodud sisu abil avalikku arvamust manipuleerida.
Muu hulgas leiti propagandavahendeid, mis levitasid valeinfot Venemaa sissetungi kohta Ukrainasse, konfliktist Gaza sektoris, India valimistest, Euroopa ja USA poliitikast ning Hiina dissidentide ja välisriikide valitsuste kriitikast Hiina valitsuse vastu, seisis OpenAI raportis.
OpenAI sulges 2023. ja 2024. aasta jooksul mitmed neist riikidest pärit operatsioonid, mis püüdsid manipuleerida avalikku arvamust ja mõjutada poliitilisi tulemusi ilma oma tegelikke identiteete või kavatsusi avaldamata, teatas ettevõte sel neljapäeval.
Oma järeldustes paljastas OpenAI, kuidas mõjutusoperatsioonidega tegelevad võrgustikud on kasutanud generatiivset tehisintellekti tekstide ja piltide loomiseks palju suuremates mahtudes kui varem ning tekitades võltse kaasamisi ja avaliku arvamuse suunamist, luues tehisaru abil automaatselt võltskommentaare sotsiaalmeedia postituste alla.
«Viimase pooleteise aasta jooksul on olnud palju küsimusi selle kohta, mis võib juhtuda, kui mõjutusoperatsioonid kasutavad generatiivset tehisaru,» ütles OpenAI luure- ja uurimisrühma juhtivuurija Ben Nimmo meediakohtumisel Bloombergile, «selle aruandega tahame tõesti hakata mõnesid lünki täitma.»
OpenAI teatas, et Venemaa operatsioon «Doppelganger» kasutas ettevõtte tehisaru mudeleid pealkirjade loomiseks, uudisteartiklite muutmisel Facebooki postitusteks ja kommentaaride loomisel mitmes keeles, et õõnestada Ukraina toetust.
Teine Venemaa häkkerigrupp kasutas OpenAI mudeleid suhtlustarkvara Telegram roboti koodi loomiseks, millega postitati automaatselt lühikesi poliitilisi kommentaare inglise ja vene keeles, sihtides Ukrainat, Moldovat, USAd ja Balti riike.
Hiina võrgustik «Spamouflage», mis on tuntud oma mõjutustegevuse poolest Facebookis ja Instagramis, kasutas OpenAI mudeleid sotsiaalmeedia aktiivsuse uurimiseks ja tekstipõhise sisu loomiseks mitmes keeles erinevatel platvormidel. Iraani «Rahvusvaheline Virtuaalmeedia Liit» aga tarvitas samuti tehisintellekti võimalusi sisu loomiseks mitmes keeles soovitud poliitilistel eesmärkidel.
OpenAI raporti avalikustamine on sarnane sellega, mida teised tehnoloogiaettevõtted aeg-ajalt teevad, kirjutab Engadget. Näiteks Meta avaldas kolmapäeval oma viimase aruande koordineeritud ebaautentse käitumise kohta, milles kirjeldati, kuidas Iisraeli turundusfirma oli kasutanud võltsitud Facebooki kontosid, et juhtida mõjutuskampaaniat, mis sihtis USA ja Kanada inimesi.
Tehisintellekti ettevõtetele on viimasel ajal kasvanud kiiresti surve nende tehnoloogia kuritarvitamiseks, mis pole kooskõlas firma kasutusreeglitega. Kuna nende tehnoloogia areneb väga kiiresti, kirjutab Ars Technica, on võimalik valeinfo süsteemsetel levitajatel ja propagandaasutustel niimoodi palju odavamalt ja lihtsamalt kui kunagi varem luua realistlikke süvavõltsinguid ja manipuleerida nii avaliku arvamuse kui meediaga, jättes mulje, et suhtumine teatud sündmustesse on hoopis selline, nagu propagandistid tahavad.
Propagandasisu ja valeuudiste automatiseeritud viisil levitamine on saanud hoopis uued mõõtmed ja seda saab teha palju efektiivsemalt, selgub raportist.