Tehisintellekt (illustratsioon)

FOTO: deepak pal / Flickr / CC

Deepfake – eelkõige videomaterjali võltsimise tehnoloogia, mis võimaldab tehisintellekti süvaõppe (deep learning) abiga luua reaalsusele äravahetamiseni sarnast liikuvat pilti – on viimase aastaga muutunud kättesaadavaks igaühele, kuid mõjutusoperatsioonides on seda kasutatud üllatavalt harva, kirjutab Kaitseliidu vabatahtlike blogi Propastop.

Mullu kirjutas välismeedia korduvalt üha kasvavast deepfake ohust ning prognoosis selle tehnoloogia kasutamise plahvatuslikku kasvu meedia sisu loomisel ja inimeste mõjutamisel. Kajastasime seda ka Propstopis. Nüüd, pea aasta hiljem, saame tõdeda, et kuigi tehnoloogia on muutunud järjest kättesaadavamaks, on avalikkuseni jõudnud hämmastavalt vähe juhtumeid, kus deepfake’i on kasutatud inimeste pahatahtlikuks tüssamiseks.

Ülehinnatud oht

«Tundub, et ohtu on ülehinnatud,» nentis Briti Chatham House’i mõttekoja teadur, Venemaa spetsialist Keir Giles tänavu mais toimunud NATO strateegilise kommunikatsiooni kompetentsikeskuse korraldatud webinaril. «Oleme aastaid oodanud, et mõnd olulist poliitilist sündmust proovitakse deepfake abiga mõjutada. Seda aga pole juhtunud. Miks?»

Giles pakkus ühe võimaliku vastusena, et ehk hoiti seda relva piisavalt mõjusa sündmuse jaoks ja ei tahetud niisama tühja-tähja peale raisata. «Kui nii, siis hoiti seda liiga kaua. Deepfakel pole enam võimet šokeerida, avalikkus on juba ohust teadlik ja oskab võltsimise võimalusega arvestada.»

Samal webinaril osalenud teadlane Tim Hwang, kes on oma karjääri jooksul muu hulgas vastutanud ka Google’i tehisintellekti ja masinõppe valdkonna eest, leidis, et deepfake ei ole mõjutusoperatsioonides kardetud levikut saavutanud, kuna endiselt on odavam ja lihtsam viia läbi mõjusaid desinformatsiooni kampaaniad ilma deepfake’i kasutamata. «Kui endiselt töötab võte, kus päris fotole pannakse lihtsalt eksitav pildiallkiri, siis milleks ajada asja keeruliseks?»

Deepfake kättesaadav igaühele

Kui valitsustel on olnud ilmselt juba aastakümneid võimekus luua usutavaid videomanipulatsioone, siis viimase mõne aastaga on see tehnoloogia muutunud kättesaadavaks pea igaühele. Vabavaralised Faceswap ja DeepFaceLab on veebist lihtsalt leitavad ning iga huviline võib oma osavust deepfake loomisel katsetada. Selliste lihtsamate deepfake’de avastamine ei ole aga ekspertidele mingi probleem. Sotsiaalmeedia gigandid juba arendavad deefake automaatse tuvastamise ja mahavõtmise programme, mistõttu deepfake liigub ilmselt veebi suletumatesse osadesse – privaatsetesse võrkudesse etc.

«Kõige lihtsam on avastada deepfake’sid, millest on palju näiteid. Kasutajataseme deepfake’sid on seega väga lihtne avastada, kuna neid on palju tehtud,» nentis. Keerulisemad deepfaked on tema sõnul tavakasutajale kättesaamatud, kuid kindlasti mitte riikide valitsustele. Sellisel tasemel võltsingute tuvastamine oleks isegi ekspertide jaoks keeruline.

Kuna deepfake valmib masinõppe abil, mille jaoks on vaja ohtralt õppematerjali, siis võibki olla üheks ennetusmeetmeks treeningmaterjali «radioaktiivseks muutmine» – kättesaadavale foto- ja videomaterjalile varjatud info lisamine. Selline meetod töötab aga üksnes isikute ja objektide puhul, mille salvestamist on võimalik kontrollida.

Parim relv deepfake vastu on aga mõlema eksperdi hinnangul lihtsalt ühiskonna teadlikkuse suurendamine ning inimeste harimine.

AI jätab trollid tööta

Kui võimalikest videomanipulatsioonidest on inimesed üsna hästi teadlikud, siis ootamatult ohtlikuks võivad osutuda tehnoloogiliselt isegi oluliselt lihtsamad heli- ja tekstipõhised deepfaked.

2019. aasta sügisel jõudis meediasse info juhtumi kohta, kus kurjategijad petsid arvutiga genereeritud deepfake telefonikõnet kasutades ühe Suurbritannia energeetikafirma tegevjuhilt välja 220 000 eurot. Tegevjuht oli veendunud, et suhtleb oma Saksamaal asuva emafirma bossiga, keda ta ka isiklikult tundis. Paratamatult tekib küsimus, kas sarnaselt oleks võimalik lollitada ka näiteks sõjaväelist käsuliini?

Tehnoloogia kiire areng võimaldab peagi selliseid heli- ja tekstipõhiseid deepfake’sid genereerida reaalajas. Mis ühelt poolt tähendab seda, et tehisintellekt jätab töötuks näiteks Sankt-Peterburgis, Savuškini tänaval asuva trollifarmi usinad töömesilased, kuid teiselt poolt kahandab oluliselt igasuguse vahendatud suhtluse usaldusväärsust.

Koopia asemel originaal

Deepfake’st rääkidas peetakse enamasti silmas mõne tuntud isiku identiteedi kopeerimist ja asetamist situatsioonidesse, mida ei ole tegelikult selle isiku osalusel aset leidnud. Keir Giles peab tõusvaks trendiks aga hoopis täiesti kunstlike deepfake persoonide loomist. Esimeseks teadaolevaks täiesti tehislikuks persooniks võib pidada Katie Jones’i, kes Gilesi osalusel paljastati mullu aprillis. See 30ndates punapäine naine suutis end sotsiaalmeedia abil edukalt manööverdada Washingtoni võimukoridoridesse ning suhelda usalduslikult mitmete mõjukate meestega. Kuigi teda ei olnud tegelikult olemaski. «Katie Jones oli sõnumitooja – selliseid saab olema palju,» prognoosib Giles.

Näide tehisintellekti genereeritud näost (deepfake)

FOTO: Katie Jones (deepfake)