Tehisintellektist ja autonoomsetest masinatest räägitakse sageli hoiatavas võtmes, kirjeldades pilvedest ründavaid droone või süngeid tulevikustsenaariume inimeste vastu pöörduvatest masinatest.
Nende lugude puhul tuleb meeles pidada, et tehnoloogilised arengud ei ole mustvalge teema. Autonoomiat tuleb eristada automaatikast – viimane tähendab etteprogrammeeritud käskude automaatset kordamist, esimene aga põhineb masinõppel. Praktikas võib piir nende kahe vahel olla hägus.
Autonoomia võib esineda masina eri funktsioonides. Näiteks relvastatud mehitamata õhusõidukil võib olla autonoomne navigeerimise võime, kuid sellel paikneva relva kasutamise üle otsustab siiski inimene. Sellisel juhul pole põhjust rääkida autonoomsest relvasüsteemist.
Autonoomsete relvasüsteemide õigusküsimuste üle arutledes peetakse silmas selliseid relvasüsteeme, mis teatud parameetrite põhjal ise «otsustab» sihtmärgi tuvastamise ja hävitamise üle. Peamine küsimus, mille üle õigusteadlased, tehnoloogia eksperdid, erinevad valitsusvälised organisatsioonid ja ÜRO raames ka riigid pead murravad, on järgmine: kas ja millistel tingimustel võib inimese elu ja surma üle otsustamise masinale delegeerida.
Laias laastus jagunevad seisukohad kaheks.
Spektri ühes servas on need, kes leiavad, et kuna masinasse ei ole mitte kunagi võimalik programmeerida inimesele ainuomast moraali ja eetikat, siis on sellised relvasüsteemid oma olemuselt õigusvastased ning nende arendamine ja kasutamine tuleb ära keelata. Siia gruppi kuuluvad ka need, kes näevad tehisintellektil põhinevates tehnoloogiates küll potentsiaalseid kasutegureid, kuid peavad nende masinate tegutsemise ettearvamatust siiski liiga suureks riskiks, et lubada sõjalist kasutust.