Tekoälyn vinoumien välttäminen: suomalainen arviointikehikko syrjimättömille tekoälysovelluksille

05.12.2021

Viimeisen viiden vuoden aikana tekoälyn kehitys on edennyt ennennäkemättömällä vauhdilla. Koneoppimiseen perustuvia algoritmeja pidetään lupaavina koulutuksen, terveydenhuollon, rekrytoinnin, luotonannon ja monen muun palvelun parantajana. Tämä perustuu oppivien tekoälysovellusten mahdollisuuksiin tuottaa tehokkaasti yksilöllisiin elämäntapahtumiin perustuvia palveluita näitä kohdentamalla ja räätälöimällä. Oppivat algoritmit eivät kuitenkaan tuota potentiaalisesti vain yhteiskunnallista hyötyä, vaan samaan…

Viimeisen viiden vuoden aikana tekoälyn kehitys on edennyt ennennäkemättömällä vauhdilla. Koneoppimiseen perustuvia algoritmeja pidetään lupaavina koulutuksen, terveydenhuollon, rekrytoinnin, luotonannon ja monen muun palvelun parantajana. Tämä perustuu oppivien tekoälysovellusten mahdollisuuksiin tuottaa tehokkaasti yksilöllisiin elämäntapahtumiin perustuvia palveluita näitä kohdentamalla ja räätälöimällä. Oppivat algoritmit eivät kuitenkaan tuota potentiaalisesti vain yhteiskunnallista hyötyä, vaan samaan aikaan luovat uhkia yhdenvertaisuudelle ja syrjimättömyydelle.

 

Kun teknologiaa hyödynnetään automatisoidussa päätöksenteossa, vinoutunut tai syrjivä harjoitusdata saattaa johtaa syrjintään varsin huomaamattomasti. Epäedustavan harjoitusdatan ohella myös algoritmisen päätöksenteon prosessi voi olla itsessään vinoutunut ja syrjivä. Erityisen ongelmallista syrjinnästä tekoälykontekstissa tekee se, että algoritmit ovat käyttäjän näkökulmasta usein läpinäkymättömiä ja selittämättömiä.

 

Tekoälysovellusten tuottamat ja ylläpitävät syrjivät rakenteet ja käytännöt ovatkin yksi merkittävistä haasteista, joita myös julkishallinnon keinoin tulee ratkaista. Nykyinen hallitusohjelma huomioi tekoälysovellusten syrjintäriskin ja tarpeen luoda ohjeistus tekoälyn eettisestä käytöstä. Tekoälyn vinoumien välttäminen – suomalainen arviointikehikko syrjimättömille tekoälysovelluksille – tutkimushanke vastaa tähän tarpeeseen monipuolisen aineiston pohjalta tuotetun tutkimuksen avulla.

 

Tutkimushankkeen tavoitteena on kartoittaa laajasti, millaisia riskejä perusoikeuksille ja syrjinnälle Suomessa käytössä ja suunnitteilla olevat koneoppimiseen perustuvat tekoälysovellukset sisältävät. Hankkeessa arvioidaan oppiviin algoritmeihin perustuvien tekoälysovellusten perusoikeudellisia vaikutuksia yksilön eri elämänalueilla ja -vaiheissa, kuten sosiaali- ja terveydenhuollossa. Hankkeen keskeisenä tavoitteena on laatia arviointikehikko tekoälysovellusten syrjimättömyyden varmistamiseksi eri käyttökonteksteissa. Arviointikehikon tavoitteena on tukea yhdenvertaisuuslain (YVL 5-7 §) ja yhdenvertaisuuden edistämisvelvoitteen toimeenpanoa tekoälysovellusten kohdalla.

 

Hankkeen tavoitteena on:

 

  • Tuottaa uutta tietoa siitä, millaisia koneoppimiseen pohjautuvia tekoälyjärjestelmiä Suomessa on laajassa käytössä, millaiseen vaikutustenarvioon ne pohjaavat ja mitä syrjiviä vaikutuksia niillä voi olla
  • Arvioida kriittisesti algoritmisten tekoälyjärjestelmien syrjiviä ja perusoikeudellisia vaikutuksia kartoituksen perusteella, huomioiden yhdenvertaisuuslain asettamat velvoitteet.
  • Kehittää tutkimuksen perusteella arviointikehikko tekoälysovellusten syrjivien piirteiden tunnistamiseksi ja välttämiseksi.
  • Osallistavan sidosryhmäyhteistyön kautta luodaan politiikkasuosituksia arviointikehikon hyödyntämiseksi ja algoritmien sääntelyksi.

 

Hanke on osa Valtioneuvoston selvitys- ja tutkimustoimintaa (VN TEAS). Demos Helsingin johtaman konsortion muut jäsenet ovat Turun yliopisto ja Tampereen yliopisto. Hankkeen jatkuu välillä keväästä 2021 kesään 2022. Katso hankkeen tiedot Tieto käyttöön -sivustolla.

 

Lisätietoja:

Atte Ojanen, atte.ojanen@demoshelsinki.fi, +358 50 917 7994

Johannes Mikkonen, johannes.mikkonen@demoshelsinki.fi, +358 40 569 4948

Anna Björk, anna.bjork@demoshelsinki.fi, +358445085404

 

Feature Image: Joshua Sortino / Unsplash

Lisää aiheesta