Marten Kaevats

FOTO: Mihkel Maripuu

Kuidas teha selline seadus, mis seab ühtsed inimest kaitsvad reeglid kõigile tehisintellekti tehnoloogiatele, kusjuures reeglid ise ei tohi muutuda mõttetuks innovatsioonipiduriks? Riigikantselei digiinnovatsiooni nõunik Marten Kaevats kirjutab, mis on äsja loodud tehisintellekti ehk «krati» töörühma siht lähemaks aastaks.

Tellijale Tellijale
  • Eelmisel esmaspäeval kiitis ministeeriumide kantslerite koosolek heaks plaani luua riigikantselei juurde krati ehk tehisintellekti eksperdirühm. Muinasjuttudest tuttav kratt aitab seda uute võimaluste välja hõlpsamini mõista.
  • Aastase töö jooksul on krati eksperdirühmal kolm ülesannet: luua algoritmi-vastutuse seaduse eelnõu, panna kokku krati strateegia ja katalüseerida laiemat valdkonna tundmist terves ühiskonnas.
  • Algoritmi vastutus on fundamentaalseim küsimus ja vajab laiemat ühiskondlikku arutelu ning kokkulepet. Selle teekonna eesmärk on ühiselt leida kõigile arusaadav vastus küsimusele «kes/mis kuidas vastutab?» tegevuste puhul, kus ilmtingimata polegi ühtegi inimest vahetult otsustamas. Küsimus ei ole kindlasti tehnoloogiline, vaid tegu on inimese ja algoritmi vahelise suhte reguleerimisega.
  • Kui asusime tegelema isejuhtivate autode õigusruumi küsimustega, siis avastasime peagi, et peamised õiguslikud keerukused on samad nende küsimustega, mis tekivad droonide, isejuhtivate laevade, tarkade külmkappide ja miks mitte ka automatiseeritult tehinguid teostavate börsirobotitega. Küsimused andmekaitsest, privaatsusest, vastutusest, eetikast ja moraalist on samad. Kõikide nende puhul on tegu otsuseid vastu võtva algoritmiga, mis, jah, peab igas olukorras inimest ja ta heaolu silmas pidama.