Päevatoimetaja:
Kaido Einama

Skandaal pildigeneraatoriga: tehisintellekti õpetati kogemata lapspornoga

Copy
Teadlased avastasid, et tehisintellektil on kogutud avalike andmete põhjal oskusi piisavalt, et fotorealistlikke laste ärakasutamise pilte luua. Pilt on illustreeriv.
Teadlased avastasid, et tehisintellektil on kogutud avalike andmete põhjal oskusi piisavalt, et fotorealistlikke laste ärakasutamise pilte luua. Pilt on illustreeriv. Foto: Ron Lach / Pexels
  • Pildigeneraatorit Stable Diffusion 1.5 on «õpetatud» enam kui tuhande laste väärkohtlemise pildiga.
  • Tehisintellekt ongi pandud selliseid pilte looma ja need ilmusid vastavatesse veebifoorumitesse.
  • Juba 2021. aastal avastas teadlane, et tehisintellekti koolitusandmetes on vägistamist ja vägivalda.

Maailma üks suurimaid pildiandmebaase, mida kasutatakse ka tuntud tehisintellekti pildigeneraatori Stable Diffusion koolitamiseks, sisaldab üle tuhande lapsporno näidise, selgus Stanfordi ülikooli vastavast uuringust. See lubas tehisintellekti kasutada ka vastavate piltide loomisel, mida levitati mustas veebis ja põrandaalustes foorumites.

Stanfordi Interneti-vaatluskeskuse (SIO) uurimine tuvastas hiljuti avatud andmekogus LAION-5B enam kui tuhat pilti laste seksuaalsest kuritarvitamisest, mida kasutati ka populaarsete tehisintellekti tekstist pildiks genereerimise mudelite, nagu Stable Diffusion, koolitamiseks.

SIO aruanne koostöös mittetulundusliku laste veebiohutuse grupiga Thorn leidis, et kiired edusammud generatiivses masinõppes aitavad luua ka väga realistlikke pilte, mis kujutavad laste seksuaalset ärakasutamist, kasutades avatud lähtekoodiga tehisintellekti kujutiste genereerimise mudeleid.

Uuring näitas, et selliseid pilte sisaldas avalik andmekogum LAION-5B. Nagu enamik teisi suuri andmebaase, mille põhjal tehisintellekti koolitatakse, oli ka see kokku kogutud paljudest veebiallikatest, sealhulgas sotsiaalmeediast ja populaarsetest täiskasvanutele mõeldud veebisaitidest.

Tuvastatud materjali eemaldamine on andmebaasi hoidjal praegu pooleli ning andmekogu võeti ajutiselt avalikust kasutusest maha, teadlased aga edastasid piltide allikad USA kadunud ja ärakasutatud laste riiklikule keskusele.

Kuid see pole esimene kord, kui LAIONi pildiandmed satuvad kriitika alla, kirjutab Venture Beat. Juba 2021. aasta oktoobris avaldas kognitiivteadlane Abeba Birhane artikli «Multimodaalsed andmekogumid: misogüünia, pornograafia ja pahaloomulised stereotüübid», milles uuriti varasemat pildiandmestikku LAION-400M. Teadlane avastas, et see andmekogu sisaldas samuti pilte ja tekstipaare vägistamise, pornograafia, pahaloomuliste stereotüüpide, rassistlike ja etniliste solvangute ning muu sellise sisu kohta, millest tehisintellekt õppust võtab.

«Kuna kasutajad ei olnud enam hilisemate, rohkem filtreeritud versioonidega rahul, ongi vanem Stable Diffusion 1.5 endiselt kõige populaarsem mudel.»

Kohe pärast pärast Stanfordi ülikooli aruande avaldamist ütles LAIONi andmestiku koostanud Saksamaal asuva mittetulundusühingu LAION pressiesindaja Bloombergile, et nad eemaldasid ajutiselt oma andmekogud Internetist oma nulltolerantsi poliitika põhjal ning avaldavad uuesti, kui on veendunud, et need on «ohutud».

Stable Diffusion 1.5, mis koolitati enne andmekogu puhastamist, on aga Stanfordi ülikooli uuringut juhtinud David Thieli sõnul endiselt kõige populaarsem mudel, kuna firma Stability AI-le järgnevad Stable Diffusioni pildigeneraatorite versioonid 2.0 ja 2.1 filtreerisid välja suure osa sisust, mida peeti nüüd ebaturvaliseks ja mis muutsid pilditulemused kasutajate arvates palju halvemaks. 

Näidispildid, mida Stability AI esitles oma uue tehisintellekti pildigeneraatori Stable Diffusion 2 väljatulekul. See versioon on juba palju tugevamalt filtreeritud algandmetega, kui oli Stable Diffusion 1.5.
Näidispildid, mida Stability AI esitles oma uue tehisintellekti pildigeneraatori Stable Diffusion 2 väljatulekul. See versioon on juba palju tugevamalt filtreeritud algandmetega, kui oli Stable Diffusion 1.5. Foto: Stability AI

Kuna kasutajad ei olnud enam nende hilisemate, rohkem filtreeritud versioonidega rahul, ongi vanem Stable Diffusion 1.5 endiselt kõige populaarsem mudel tekstide põhjal kujutiste loomiseks, öeldakse Thieli aruandes.

Stanfordi ülikooli uuring viidi läbi spetsiaalsete pildiotsingu tööriistadega ehk nn räsitööriistadega, nagu PhotoDNA, mille abil otsitakse teatud piltide «sõrmejälgi» suurtest andmebaasidest.

Tehisintellekti mudelite koolitamiseks kasutatavate avatud andmekogude puhastamine või levitamise peatamine on aga üsna keeruline, mainisid teadlased aruandes. Seal tuuakse ka välja ohutussoovitused nende andmete ja koolitusmudelite puhastamiseks. Näiteks soovitatakse, et kõiki tulevastesse andmekogumitesse kogutud pilte tuleks võrrelda vastavate organisatsioonide nimekirjadega, kasutades selliseid tuvastamistööriistu, nagu Microsofti PhotoDNA, või tehes koostööd lastekaitseorganisatsioonidega.

Tagasi üles