AI on meie kõrval, kellele sõber, kellele vaenlane, kellele vahend elu kiiremaks ja mugavamaks tegemiseks, kellele takistuseks igapäevaste toimetuste tegemiseks. Igal juhul üha enam kohandame oma tegevusi, et AI-ga hakkama saada ja seda sõltumata valdkonnast, milles toimetame. Nii Euroopa Liidu poliitikates kui ka erinevatel rahvusvahelistel kohtumistel räägitakse üha enam võimalikust AI-põhisest diskrimineerimisest.
Eesti jaoks on tegemist uudse teemaga, mida arutatakse. Valmistume EL Tehisintellekti õigusakti (EL määruse eelnõu) rakendamiseks, teisalt võib aga ka näiteks Eesti Heaolu arengukava 2023-2030 lisast lugeda, et „üha digitaalsemas ühiskonnas tuleb tähelepanu pöörata ka sellele, et soolised stereotüübid ei mõjuta ainult inimeste langetatavaid otsuseid – need võivad kas teadliku või alateadliku tegevuse tulemusel kanduda ka automatiseeritud otsuste tegemisse, sealhulgas võivad tehisintellektil ja algoritmidel põhinevad tehnoloogilised lahendused stereotüüpe ja eelarvamusi mitte ainult korrata, vaid ka võimendada.“. Sisuliselt on Eesti teadlik sellest, et AI-põhise diskrimineerimisega tuleb tegelda, aga kuidas seda täpsemalt läbi viia, on täna alles arutlusstaadiumis.
Tavaliselt mõeldakse AI-põhise diskrimineerimise all just algoritmil põhineva otsustuse kaudu samas olukorras olevate, kuid teatud tunnusega isiku või isikute grupi panemist ebasoodsamasse olukorda võrreldes teistega. Algoritmipõhise diskrimineerimise puhul kasutatakse tihti mõistet „kallutatus“ (ingl k bias), mis on laiema tähendusega kui diskrimineerimine, sest kallutatus võib toimuda ka selliste tunnuste alusel nagu näiteks juuksestiil, aktsent, riietus vm, mis ei pruugi olla alati selgelt seadusega kaitstud diskrimineerimistunnuseks.
Algoritmil põhinev kallutatus näitab süstemaatilisi ja korduvaid vigu arvutisüsteemis, mis annab ebaõiglased tulemused, eelistades ühte kriteeriumi teisele, kuigi sellist käsku algoritmiga võib-olla ei tahetudki anda. Loomulikult võib „kallutatus“ kaasneda ka inimese poolt tehtud otsuse tegemisel, aga väidetavalt on AI poolt tehtud otsuses kallutatus rohkem peidetud ja seetõttu vähem märgatav ning järelikult ohtlikum võrdse kohtlemise kontekstis. Samas ei tähenda see aga seda, et algoritmipõhistest otsustest peaks üldse loobuma või need keelama, vaid et algoritmi loomisel peaks arvesse võtma erinevaid asjaolusid, mis diskrimineerimise välistaks. Algoritmil põhinev otsustussüsteem peab olema läbipaistev!
Kuna algoritmil põhinev otsus tugineb andmetele, mida algoritmis kasutatakse, on andmetel väga oluline roll. Et algoritm teeb andmete pinnalt üldistusi, võib juhtuda, et ei arvestata mingi grupi huvidega. Näiteks, kui tööandja senised töötajad on enamus olnud mehed, siis võib kandideerimisel kasutatav algoritm võtta selle tunnuse reegliks ning valida järgmisse kandideerimisvooru ainult mehed. Praktikas on tuvastatud algoritme, mis tööintervjuule ei lubanud naisi ja kandidaate, kellel oli mitte-euroopapärane nimi. UK politsei kasutas näiteks isikute tuvastamiseks näotuvastustarkvara, luues võimaluse kallutatusele seoses rassi või sooga. Kirjanduses on toodud näitena, et kuna puudega isik vajab otsuse tegemisel individuaalset lähenemist, siis on just puudega inimeste grupp üks võimalikke diskrimineeritavaid gruppe algoritmiliste otsuste kasutamisel, kuna algoritm teeb statistilisi üldistusi, mitte ei arvesta isiku individuaalseid aspekte. Kaudse diskrimineerimise näitena võib tuua ka isiku diskrimineerimise postiindeksi kaudu – teatud piirkonnas elavad just teatud rahvuse või rassiga inimesed ja kui välistatakse mingi hüve läbi postiindeksi, võib olla tegemist diskimineerimisega rahvuse või rassi tõttu.
Tegelikult teatakse, et algoritmil põhinevate otsuste tegemisel on alati kallutatuse risk, aga sellega ei osata praktikas väga hästi hakkama saada. Täna ei ole veel olemas ühte selget reeglit või mudelit, mis ütleks, et jah, see algoritm on n.ö „aus algoritm“. Seetõttu peab algoritmipõhise otsuse tegija, olgu see siis tööandja, teenuse pakkuja või riik, ise enda jaoks selgeks tegema, millised on tema jaoks need n.ö läbipaistvuse põhimõtted, mida ta algoritmi loomisel või kasutamisel arvesse tahab võtta. Tuleb tagada, et kõikide organisatsioonide tegevust reguleerivad normid ja tehnilised vahendid peavad algoritmipõhiste otsuste loomisel või nende kasutamisel olema sellised, et need ei diskrimineeri isikut, kelle suhtes otsus tehakse. Riigi kohustus on muu hulgas tagada, et tal on haldusvõimekus algoritmipõhist diskrimineerimist avastada.
Algoritmipõhise diskrimineerimise küsimus on üks väike osake tehnoloogiaõigusest, olles seotud põhiseaduslike võrdsusõiguste, sotsiaalõiguse, lepinguõiguse jt õiguse liikidega, nõudes samal ajal teadmisi tehnoloogiate ülesehitusest ning nende suhtes kohaldatavatest õiguslikest põhimõtetest. Sellised teadmised on tehnoloogiaõiguse juristil. Arutelu AI-põhisest diskrimineerimisest on üks näide selle tõendamiseks, et valdkond, mis on justkui väga kaugel tehnoloogiast, nõuab täna juba tehnoloogiaõiguse tundmist.
Tallinna Tehnikaülikoolis saab õppida tehnoloogiaõigust magistri õppekaval.
Meie õppekavale õppima on oodatud need, kes soovivad õigusalast haridust, kuid spetsialiseerumisega tehnoloogiaõigusele. Keda kõnetavad just sellised küsimused: Tahad teada, kuidas õiguslikus mõttes kaitsta oma tarkvara? Mis eesmärgil saad sa litsentsida oma andmebaasi? Millised õiguslikud küsimused tekivad seos AI-ga, andmete juhtimisega, digitaalsete platvormide reguleerimisega, pilveandmetöötlusega, intellektuaalomandiga ning millised on uued trendid tehnoloogiaõiguses? Mis on Legal Design ja kuidas seda kasutada? Kuidas õiguslikult mõista ja rakendada küberturvalisust?