Autonoomsete relvade puhul räägitakse küll tehisintellekti arendamisega seotud küsimustest, ent siinkohal ei peeta silmas sugugi teduslikust fantastikast tuntud inimesesarnase mõtlemisega masinaid. Autonoomsete relvade intelligentsus tähendab võimet töödelda kogutud andmeid programmis etteantud moel. See tähendab näiteks drooni või kuulipildujat, mis valib ette antud andmete põhjal endale kindlat tüüpi sihtmärkide seast ise ohvri.
Täisautonoomsed relvasüsteemid erinevad näiteks Afganistani sõjast tuntud USA kaugjuhitavatest droonidest selle poolest, et inimene pärast programmeerimist enam otsustusprotsesis ei osale. Et sellel niinimetatud tehisintellektil, millest autonoomsete relvade puhul räägitakse, puuduvad inimintelligentsuse omadused ja otsustusvõime eripärad, kerkivad ka inimõiguste ja moraalinormide järgimist puudutavad küsimused – masin lähtuks vaid etteprogrammeeritud juhtnööridest ega hindaks neid inimese kombel ümber.
Inimõigusorganisatsiooni Human Rights Watch leiab näiteks sarnaselt sel nädalal Future of Life instituudi poolt avalikustatud pöördumise allkirjastajatele, et autonoomsete relvade kasutuselevõtu järel hakkavad sõjaväelised organisatsioonid vältima vastustust tsiviilelanike tapmise eest. Samuti tähendaks inimkäe eemaldamine, et suurte tapatalgute korraldamine muutuks oluliselt lihtsamaks.
Praegu avalikkusele teadaolevalt kasutatavate autonoomseks peetavate relvade puhul ei ole veel inimest otsustusprotsessist siiski täielikult eemaldatud, nii et võiks rääkida pigem näiteks poolautonoomsetest robotrelvadest.
Erineva autonoomsuse astme ja surmavuse astmega relvi katsetavad mitmed riigid, teiste seas Hiina, Saksamaa, India, Iisrael, Lõuna-Korea ja Ühendkuningriik. Lahingtegevuses on neid juba kasutanud nii USA, Ühendkuningriik, Iisrael kui Lõuna-Korea, mille põhjapiiril asuvat demilitariseeritud tsooni valvavad erinevad robotkuulipildujad on ilmselt ka tuntuim näide enam-vähem autonoomsetest relvadest. Sarnaseid katsetusi teeb ka Iisrael Gaza sektori ääres.