Sinu brauser on natuke ajast maha jäänud. Et kõik töötaks, nagu vaja, palun uuenda enda brauserit.
Küpsised aitavad meil teenuseid edastada. Meie teenuseid kasutades nõustute sellega, et kasutame küpsiseid. ROHKEM INFOT >

Kuldar Taveter ja Tanel Kerikmäe: tehisintellekti eetilisusest ja õiguskuulekusest

KOMMENTEERI PRINDI ARTIKKEL
Saada vihje
Robot | FOTO: BENOIT TESSIER/REUTERS

Enne kui asuda vastava seadusloome juurde, tuleks paika panna eetilised põhimõtted, kirjutavad Tallinna Tehnikaülikooli professorid Kuldar Taveter ja Tanel Kerikmäe tehisintellekti legaliseerimisest.

Karmen Turk, Marten Kaevats ja Maarja Pild alustasid arutelu nn robot-krattide seaduse üle («Vaja on robot-krattide seadust, PM 24.09). Kõigepealt tuleks pisut selgitada terminoloogiat.

Üldiselt kasutatakse nii teaduslikus kui ka populaarteaduslikus kirjanduses nn tarkvaralise roboti kohta terminit «agent» või «intelligentne agent», mis esindab ja abistab inimest talle delegeeritud volituste ulatuses.

Samas mõjub agentide jaoks väljapakutud termin «kratt» pehmelt öeldes kummastavana, sest «Eesti keele seletava sõnaraamatu» (http://www.eki.ee/dict/ekss/) kohaselt on kratt peremehele vara kokku kandnud varas. Selle sõna tähendus tuleneb eestirootsi sõnast «skratt», mis tähendab kummitust ja kuradit (Eesti etümoloogia sõnaraamat, 2012). Seega pole põhjust, miks peaksime eesti keeles võtma «agenti» tähistava sõnana kasutusele nii negatiivse alatooniga sõna.

Kas see on ehk seotud kartusega, et tehisintellekt muutub tulevikus targemaks kui inimene ja võtab võimu üle? Tehisintellekti temaatikat mitmeid dekaade uurinud, oleme veendunud, et seda ei juhtu, sest arvuti ei suuda kunagi muutuda sama loovaks kui inimene, isegi siis, kui ta muusikat komponeerib ja romaani kokku kirjutab. Seega peaks tehisintellekti ja agente puudutava diskussiooni suunama pisut realistlikumasse sängi ning arutama, kuidas saaksime seadustada tehisintellektil põhineva agendi kui inimese abilise ja kolleegi rolli.

Eestis tahetakse asju peaaegu alati kiiresti valmis teha ja anda neile rutakalt juriidiline raamistus, aga seejuures unustatakse sageli ära valdkonna laiem analüüs. Alati ei tehta ka eelnevat analüüsi uute seaduste sotsiaalsest mõjust ega sellest, kuidas need seadused sobivad nii normatiivsesse keskkonda kui ka ühiskonna üldisesse sotsiaalsesse konteksti (hea näide on kooseluseadus).

Enne kui asume intelligentseid agente puudutavaid seadusi vastu võtma, peaksime teema laiemalt läbi arutama ning välja töötama või üle võtma vastavad eetilised põhimõtted. Selles osas käib maailmas töö juba ammu.

Näiteks toimub 20.–21. oktoobril Lissabonis rahvusvaheline robotieetika ja robotiturvalisuse standardite konverents, kus arutatakse, millised on võimalikud robotitega seotud ohud ja millised eetikareeglid peaksid reguleerima suhteid inimeste ja robotite vahel, aga ka robotite endi vahel. Alles niisuguse põhjaliku analüüsi järel tehakse ettepanekud selle kohta, millised võiksid olla vastavate õigusaktide aluspõhimõtted.

Intelligentsete agentide eetika osas töötavad teadlased praegu kahes suunas. Esimene suund on põhimõtete väljatöötamine eetikanorme järgivate intelligentsete agentide kavandamiseks ja loomiseks. Teisiti öeldes, selle suuna eesmärk on töötada tehisintellekti loojate jaoks välja põhimõtted, mille järgimine aitab saavutada, et loodud tehisintellekt oleks turvaline ning järgiks eetilisi põhimõtteid ja seadusandlikke norme.

Näiteks on põhimõtteid ja standardeid vaja selleks, et oleks teada, kuidas kavandada ja luua intelligentseid agente, mis töötlevad suurandmeid kooskõlas eetikanormide ja seadustega.

Teine suund on eetiliste põhimõtete ja seaduste järgimise reeglite väljatöötamine niisugusel kujul, et neid saaks intelligentsetesse agentidesse sisse ehitada. Näiteks peaks isejuhtivate autode tehisintellekti sisse ehitama juhised, mille kohaselt on isejuhtiva auto tähtsaim eesmärk konfliktiolukorras kaitsta ja säästa inimesi.

See aga ei tähenda, et intelligentset agenti saaks käsitleda õigus- ja teovõimelise subjektina, sest nii kaua, kui tehisintellekt ei suuda tunda emotsioone, ei saa seda pidada eetiliseks või mitte-eetiliseks, vaid nii saab iseloomustada ikka ainult tehisintellekti loojaid. Intelligentsete agentide käsitlemine õigus- ja teovõimeliste subjektidena on libe tee ka seetõttu, et võimaldab kõrvale hiilida ettevõtete ja üksikisikute vastutusest. Seetõttu muutub veelgi tähtsamaks põhimõtete ja standardite väljatöötamine eetilisi põhimõtteid ja seadusi järgivate agentide disainimiseks.

Omaette küsimus on, kas nii-öelda õigusteadvust saab agendile sisse ehitada? Kaldume siiski arvama, et tehisintellekt ei ole valmis iseseisvaks õiguslikuks argumenteerimiseks. Peamine põhjus ei seisne mitte tehisintellekti puudulikkuses, vaid juristide soovimatuses alluda «mehaanilistele» arvestajatele, mis nende arvates suure tõenäosusega võivad mitte tunnetada õigust kui «elavat nähtust», mida mõjutavad (õigus)poliitika ja majandus.

Juristid eelistavad end näha niisuguste süsteemide peremeestena, näiteks uurimistöö või ekspertiisi koostamise eesmärgil, andmata liiga palju otsustusõigust automatiseeritud süsteemidele.

Seadusandluse osas ei ole korrektne väita, et agentide kohta käivad seadused puuduvad praegu sootuks. Sageli seisneb küsimus ainult teatud mõtete ja sätete täpsustamises, milleks ei ole alati vaja uuesti jalgratast leiutada.

Näiteks Euroopa Liidu andmekaitse direktiivi regulatsioonid käivad loomulikult ka isikute tervisekirjeid töötleva intelligentse agendi kohta. Mainitud direktiivi nõude saab isikuandmeid töötleva intelligentse agendi jaoks esitada vastavate reeglite kogumina. Seejuures on vastutav subjekt ikkagi see inimene või organisatsioon, kellele agent kuulub ja kes talle tegevusi delegeerib.

Kokkuvõttes arvame, et enne kui asuda vastava seadusloome juurde, tuleks paika panna eetilised põhimõtted nii intelligentsete agentide disaini ja loomise kohta kui ka selles osas, milliseid eetilisi põhimõtteid ja õiguskuulekuse reegleid saab agentidesse sisse ehitada. Mida eetilisem ja läbimõeldum on inimeste tehtud otsuste lähtealus, seda võimekam ja usaldusväärsem on ka tehisintellekt.

Seejärel tuleks analüüsida, kuidas saaks nii Eesti kui ka Euroopa Liidu tasandil kehtivat õigust intelligentsete agentide jaoks rakendada ja vajadusel täpsustada. Alles siis peaks mõtlema, milliseid uusi seadusi on tehisintellekti jaoks vaja.

Tagasi üles