Tallinna Tehnikaülikool

Tehisintellekt (AI-Artificial intelligence) on saanud osaks meie igapäevaelust, tihti nii märkamatult, et me ei pruugi selle olemasolu tajudagi. Nutitelefonides kasutatavad virtuaalsed assistendid AI-d, et mõista meie kõnet, aidata helistada või sõnumeid saata, otsida pildi abil sarnaseid fotosid, tuvastada inimesi, kohti ja objekte. Sotsiaalmeedia platvormid analüüsivad meie tegevusi, pakkudes isikupärastatud reklaame ja postitusi. Chatbotid automatiseerivad klienditoe teenuseid ning meditsiinis aitab AI arstidel diagnoose panna, analüüsides nii patsientide sümptomeid, terviselugu kui ka testitulemusi. 

Ka pangad kasutavad tehisintellektil põhinevaid süsteeme, et hinnata krediidivõimekust või tuvastada kahtlaseid tehinguid. Teisisõnu – AI teeb meie kohta otsuseid. Aga kas need otsused on alati õiglased? 

Kristi Joamets
Õigusteaduse programmijuht Kristi Joamets, autor: TalTech majandusteaduskond

Tehnoloogia areng toob uusi väljakutseid ka õigusvaldkonnas. Üks neist on AI-põhine diskrimineerimine – olukord, kus tehisintellekti tehtud otsus võib kedagi hoopis kahjustada. Tõenäoliselt oleme kõik harjunud kasutama erinevaid rakendusi ja e-teenuseid ning peame loomulikuks, et meie kohta teeb otsuseid tehisintellekt. Me ei oska selle taga näha ohtu, et meie kohta võidakse teha n-ö ebaõiglane otsus mõne tunnuse põhjal, mis tegelikult on seadusega keelatud. Teadaolevalt kasutatakse tehisintellekti palju tööle kandideerimisel, kandidaatide seas esmaste valikute tegemisel, kuid kas me teame täpselt, milliste andmete põhjal meie kohta otsus tegelikult tehakse? Oleme kuulnud, et sotsiaalmeediasse saadetakse reklaame meie liikumiste põhjal erinevatel veebilehtedel ja imestame, kuidas ainuüksi mõnel teemal lobisedes hakkab taskus olevale telefonile tulema jututeemaga seotud reklaami. Aga kas suhtume sellesse, et AI hindab meie finantsvõimekust või tublidust soo, elukoha, sünnikoha, kõnemaneeri vms alusel?

AI-põhine diskrimineerimine on täna kogu Euroopas aktuaalne teema, kuna tehnoloogia äärmiselt kiire areng paneb riike muretsema, kuidas nad suudavad tagada inimeste põhiõiguste kaitse. Kuna tehisintellektisüsteemis on otsustusprotsess mitmekihiline ja eelarvamused võivad tuleneda mitte ainult inimeste sisendist, vaid ka tehisintellekti enda andmete töötlemisest, on erapoolikust äärmiselt raske tuvastada. Eelarvamus võib aga viia diskrimineerimiseni.

AI töötab kasutades algoritme ja töödeldes andmeid, õppides mustreid, tehes ennustusi või otsuseid ja seeläbi pidevalt arenedes. See jäljendab inimese õppimis- ja otsustusprotsesse, kuid teeb seda palju kiiremini ja suuremas mahus, kui inimene seda kunagi teha saaks, muutes selle kasulikuks paljude rakenduste jaoks, näiteks isikupärastatud soovituste või otsuste tegemiseks. Seda tüüpi masinõpe koosneb mitmest erinevast etapist, mida saab omakorda korrata, nt. andmete kogumine, andmete eeltöötlus, mudeli valik, mudeli koolitus, testimine, optimeerimine, juurutamine jne. Selline andmetöötlus võib aga viia selleni, et tehnoloogilised süsteemid annavad ebaõiglasi või ebatäpseid tulemusi, mis põhinevad sageli andmete või algoritmide kallutatustel. See omakorda võib viia inimeste diskrimineerimiseni. Näiteks võib tehisintellekt teha laenu andmisel otsuse, mis põhineb inimese sool, vanusel või elukohal, aga mitte tema finantsvõimekusel. AI võib inimest lugeda ohtlikuks tema välimuse või näoilme tõttu. Tehisintellekt võib välistada kandidaadi tööle kandideerimise soo või vanuse või eesnime tõttu. 

Üheks kõige levinumaks diskrimineerimise liigiks on n.ö proxi-diskrimineerimine. Kui seaduses nimetatud diskrimineerimise tunnustest – nagu sugu, vanus, nahavärv, rahvus – ollakse mingil määral teadlikud ning neid osatakse tehisintellekti loomisel ja treenimisel paremini arvesse võtta, siis võivad diskrimineerivad otsused siiski tekkida ka näiliselt neutraalsete andmete põhjal. Näiteks postiindeks: teatud piirkonnas elavad valdavalt madalama sissetulekuga inimesed, elukutse: mõne ameti esindajatel puudub eeldatav finantsvõimekus või on halvem tervis, eesnimi: nimetus viitab isiku vanusele või rahvusele või tööstaaž: naistel võib olla lühem tööstaaž seoses lastega kodus viibimisega, võivad AI otsustes kaasa tuua kaudse diskrimineerimise. Selliste asjaolude alusel diskrimineerimise avastamine on keerulisem kui isiku vanus või sugu.

Kusjuures kallutatus võib tekkida juba andmete kogumise ja ettevalmistamise algfaasis. Kõik süsteemid, mis tuginevad andmete analüüsile, saavad oma n.ö järelduse tegemiseks ainult neid andmeid, mille põhjal nad on koolitatud. Aga kallutatus võib tekkida ka mudeli treenimise protsessis, sõltuvalt valitud algoritmidest ja treenimisprotsessidest. Kui näiteks valitakse ainult teatud omadused või tunnused, mis määravad ennustusi või otsuseid, võivad need mõjutada tulemusi. Ja kui need omadused ei ole kõikide gruppide jaoks võrdsed, siis võib see viia kallutatud järelduseni. Näiteks kui laenude heakskiitmise mudelis võetakse arvesse ainult sissetulekut ja haridustaset, võib see soodustada juba kõrgema sissetulekuga inimesi ning jätta madalama haridustasemega inimesed kõrvale. Kui andmete treenimisel kasutatakse ebausaldusväärseid andmeid, võivad mudelid õppida, et mõned omadused (nt sugu või nahavärv) on otsuste tegemiseks olulised, isegi kui need tegelikkuses ei ole. Selline olukord võib aga viia diskrimineeriva otsuseni. Kallutatus võib avalduda ka testimisel, kui testimisandmete valimisel esineb kallutatud praktikat või testimisandmed ei sisalda kõikide gruppide andmeid. Eelarvamus võib tekkida ka süsteemi juurutamise faasis, kui mudelit rakendatakse reaalsetes olukordades ja inimesed hakkavad selle põhjal otsuseid langetama, kuid mudeli enda toimimise põhimõtted pole täielikult läbipaistvad.

AI-põhise diskrimineerimise puhul on omavahel tehnoloogia ja õigus tihedalt seotud. Tehisintellekti arendaja ja kasutaja peab aru saama diskrimineerimise õiguslikust tähendusest ja õiguslikku kontrolli teostav organ peab mõistma, kuidas toimib AI. Samuti tähendab vastavate meetmete loomine AI-põhise diskrimineerimise ärahoidmiseks või tuvastamiseks nii tehisintellekti kui õiguse tundmist. Lisandub ka küsimus vastutuse kohta. AI süsteemide läbipaistmatuse ja keerukuse tõttu on seda üldiselt keeruline kindlaks määrata, seega ka luua vastavaid vastutust reguleerivaid norme või kohaldada olemasolevaid.

Tehisintellekt on muutunud võimsaks tööriistaks ja seda kasutatakse üha laialdasemalt meie igapäevaelus. Ent iga uus tehnoloogia seab esile ka õiguslikud küsimused: kellele kuuluvad andmed? Kuidas tagada turvalisus ja vastutus kui tehisintellekt teeb valeotsuseid? Ja kuidas õigus suudab kohaneda kiirete muutustega? Euroopa kontekstis tundub, et AI-põhine diskrimineerimine on üks teemadest, mis on muutumas üha aktuaalsemaks ja ka keerulisemaks, kuid seeläbi ka üha põnevamaks tehnoloogiaõiguse teemaks.

Tallinna Tehnikaülikooli majandusteaduskonnas saab arutada nii seda kui teisi AI ja õiguse vahelisi küsimusi magistriõppes õigusteaduse õppekaval spetsialiseerumisega tehnoloogiaõigusele. 

Tutvu õppekavaga ja esita avaldus: taltech.ee/sisseastuja/magistrioppe-erialad/oigusteadus