Koneen Säätiö, Teknologiateollisuuden satavuotissäätiö ja Kaute-säätiö järjestivät yhdessä Demos Helsingin kanssa Robottiakatemian – keskustelutilaisuuksia robotiikan tulevaisuuksista.
Ensimmäisessä Robottiakatemiassa näkökulma oli erityisesti yksilön ja ryhmän näkökulma, ja pohdittavana aiheena eettinen toiminta robottien kanssa. Toisessa työpajassa näkökulmana oli robotisaation taloudelliset vaikutukset, ja tarkastelutaso oli yhteiskunta. Kolmas työpaja veti kahta edellistä yhteen tutkimalla keskeistä eettisen toiminnan ja yhteiskunnallisen dynamiikan areenaa: työtä. Tarkastelutasona oli erityisesti organisaation ja organisoitumisen tavat robottien avulla. Tässä blogitekstissä käsitellään vain yhtä monista esille nousseista näkökulmista.
Robotit ovat kyvykkyyksiämme kehittäviä työkaluja. Automaattikassan valvoja on kyvykkäämpi, koska pystyy yhtä aikaa hoitamaan kuutta kassaa. Sokea voi “nähdä” tekoälyn ja älykkään applikaation avulla. Halvaantunut pystyy kävelemään keinojaloilla. Mahtavaa! Mutta pohditaanpas vielä tarkemmin.
Ovatko robotit keino pakottaa erilaiset ihmiset normaalin muottiin? Sairaiksi ja vammaisiksi määritellyt ihmiset ovat yksi pääasiallinen käyttäjäryhmä nyt markkinoille tuleville roboteille. He eivät kuitenkaan usein saa ääntään kuuluviin robottien kehitystyössä. Robotit eivät ole empaattisia tai sensitiivisiä jolloin esimerkiksi vammaisten “oikeanlaiseen” terveyteen ja olemukseen vaikuttavat robotti voi tehdä henkistä väkivaltaa ihmisille, jota robotin pitäisi auttaa.
Eikö kuuro saisi olla kuuro? Mitä jos sairaus on osa ihmistä, eikä hän haluakaan olla koneen avulla kuten kaikki muut?
Muitakin hurjia syrjintää koskevia esimerkkejä on. Tämä NY Timesin mielipidekirjoitus esittelee muutamia. Käyttäjät huomasivat että Googlen kuva-appsi kategorisoi tummaihoisia ihmisiä välillä gorilloiksi. Nikonin kameran softa luuli että aasialaiset räpsyttävät kuvissa silmiään. HP:n webbikamera ei tunnistanut tummaihoisia lainkaan. Rikollisten tunnistussofta erehtyi virheellisesti luulemaan tummaihoisia rikolliseksi kaksi kertaa niin usein kuin valkoihoisia. Seuraukset eivät ole triviaaleja. Kun poliisi koneoppivan algoritmin perusteella siirtää lisää työvoimaa tietyille alueille, jolloin tältä alueelta luonnollisesti tulee enemmän pidätyksiä, yhä lisäten koneoppivan algoritmin käsitystä alueen vaarallisuudesta.
Mikä ongelmien taustalla sitten on? Järjestelmien tekijät, jotka ovat pääosin valkoisia nuoria miehiä, rakentavat järjestelmiä, jotka toistavat heidän usein tiedostamattomia ennakkoluulojaan. Koneoppiva algoritmi oppii kuvista: jos sille syöttää vain valkoihoisen nuoren miehen kuvia niin ei ole ihme, ettei tummaihoista, naista tai ikääntynyttä tunnisteta.
On tärkeää kysyä minkälaisia kulttuurisia ja uskonnollisia erityispiirteitä robottien toiminnassa ja koodauksessa tulee huomioida? Kehittäjiltä on löydyttävä empatiaa niitä kohtaan, jotka eivät ole robotiikasta yhtä innoissaan. Käyttäjien ja hyötyjien täytyy olla mukana ja keskustelun robotiikan eettisyydestä täytyy jatkua. Jos robotiikan vision rakentavat vain robotiikkaintoilijat, tuloksena on jotain, mihin kaikki eivät voi tulla mukaan.
Joskus keskustelua yhteiskunnallisesti tärkeistä aiheista on helpompaa käydä proxyjen kautta. Robotit ovat tietysti tällainen keskustelun korvike. Keskustelu roboteista paljastaa paitsi jotain tulevaisuudesta, myös jotain siitä, kuinka nyt ajattelemme ja kuinka emme ajattele. Tästä syystä pelkkä innovaatiopuhe ei riitä – tarvitsemme laajempia näkökulmia kehitykseen. Samalla on hyvä huomata, että laajempi keskustelu innovaatioista ei ole haitta, vaan se voi lopulta olla jopa kilpailuetu. Mitä jos suomalaiset robotit kilpailisivatkin sillä, että ne ovat huomaavaisia, luotettavia ja empaattisia – siis käyttäjäystävällisiä.