Tehisintellekti turvalisuse ekspert Roman V. Yampolskiy on oma teaduslikus raamatus «TI: seletamatu, ettearvamatu, kontrollimatu» üsna pessimistlik meie võime suhtes kunstmõistust kuidagi ohjata või kontrollida. Dr Yampolskiy vaatleb oma teadustöös viise, kuidas tehisintellektil on potentsiaali ühiskonda dramaatiliselt ümber kujundada, kuid mitte alati meie kasuks.
Teadlane: puuduvad tõendid, et inimene suudaks tehisaru ohjata (4)
USA-s Louisville´i ülikoolis töötav dr Yampolskiy on teinud ulatusliku ülevaate tehisintellekti teaduslikust kirjandusest ja nendib, et ta ei leidnud mitte ühtegi tõendit selle kohta, et tehisintellekti saab ohutult juhtida – ja isegi kui on olemas mõned võimalused vaid osaliselt kunstmõistust ohjata, ei piisa neist.
Teadlase tööd tehisintellekti ohutuse alal on rahastanud Elon Musk ning Future of Life Institute (FLI), mille asutasid MIT-i professor Max Tegmark ja Skype´i kaasasutaja Jaan Tallinn.
Dr Yampolskiy sõnul meie võime luua intelligentset tarkvara ületab tunduvalt meie võimet seda kontrolli all hoida. Pärast põhjalikku kirjanduse ülevaadet teeb ta järelduse, et täiustatud intelligentsed süsteemid ei saa kunagi olla täielikult juhitavad ja seega kujutavad need endast alati ohtu, sõltumata nende pakutavast kasust.
Ta usub, et tehisintellekti kogukonna eesmärk peaks olema sellise riski vähendamine, maksimeerides samal ajal potentsiaalset kasu.
Üks tema soovitus tehisintellekti juhtimiseks on luua masin, mis järgib väga täpselt inimeste korraldusi, kuid Yampolskiy juhib tähelepanu vastuoluliste korralduste, valesti tõlgendamise või pahatahtliku kasutamise probleemile, mille taga on juba inimene ise.
Seega võivad ka täpselt korraldusi järgivad masinad paha teha, kui saavad inimestelt selgelt vastuolulisi või pahatahtlikke käske.
Kui tehisintellekt võiks valesti tõlgendamise ja pahatahtlike korralduste probleemidest mööda minna, siis autori väitel peaks tehisarul olema omakorda mingid kõrgemad väärtused, mis inimeste korraldustele ei allu.
Kontrollimatu superintelligentsus
Üks probleem tehisintellekti turvaliseks muutmisel on see, et üli-intelligentse olendi võimalikud otsused ja ebaõnnestumised, kui ta võimekamaks muutub, on lõpmatus, seega on ohutusprobleeme samuti lõpmatu arv. Lihtsalt probleemide ennustamisest ei pruugi piisata ja nende leevendamisest turvapaikade abil ei pruugi abi olla.
Samal ajal, selgitab Yampolskiy, ei saa tehisintellekt kirjeldada, mida on otsustanud, või me ei saa antud selgitusest aru, kuna inimesed ei ole piisavalt targad, et mõista endast arenenuma intellegentsuse rakendatud lahendusi. Kui me ei mõista tehisaru otsuseid ja meil on ainult nii-öelda «must kast», ei saa me probleemist aru ega vähenda tulevaste õnnetuste tõenäosust.
Näiteks tehisintellektisüsteemide ülesandeks on juba praegu teha otsuseid tervishoiu, investeerimise, tööhõive, panganduse ja turvalisuse vallas. Sellised süsteemid peaksid suutma selgitada, kuidas nad oma otsusteni jõudsid, eriti näitamaks, et otsus on erapooletu.
Yampolskiy toob välja, et kui me harjume vastu võtma tehisintellekti vastuseid ilma selgitusteta, käsitledes neid sisuliselt oraakli ettekuulutustena, ei saaks me aru, kas see masin hakkab lõpuks andma valesid või manipuleerivaid vastuseid.
Kuidas riski vähendada?
Tehisintellekti riski vähendamiseks peab teadlase sõnul olema tehisaru ümberlükkamise valikutega muudetav, piiratud, läbipaistev ja inimkeeles kergesti mõistetav.
Ta soovitab, et kogu tehisintellekt tuleks liigitada kontrollitavaks või kontrollimatuks ning kaaluda tuleks isegi teatud tüüpi tehisintellekti tehnoloogiate osalist keelustamist.
Selle asemel, et nüüd ära kohkuda, soovitab teadlane: «Pigem peaks seda võtma kui põhjust, miks rohkem inimesi peaksid süvenema teemasse ning suurendama tehisintellekti ohutuse ja turvalisuse uuringute rahastamist. Me ei pruugi kunagi jõuda 100% ohutu tehisaruni, kuid saame muuta tehisintellekti turvalisemaks vastavalt oma jõupingutustele, mis on palju parem, kui mitte midagi teha. Me peame seda võimalust targalt kasutama.»