Tekoälyn perustana toimivat älykkäät algoritmit ohjaavat elämäämme. Väljästi määriteltyinä algoritmi on joukko ohjeita, jotka ohjaavat tietyn tehtävän suorittamista. Älykkäiksi algoritmit tekee niiden kyky kehittää itseään. Tekoälyksi kutsutaan konetta tai ohjelmaa, joka yrittää matkia ihmiselle tyypillisiä älykkyyttä vaativia toimintoja.
Älykkäät algoritmit siis ohjaavat sitä, mitä google vastaa kysymyksiimme ja mitä facebookin uutisvirrasta nähtäväksemme valikoituu. Yhä useammin ne myös päättävät siitä, myönnetäänkö meille asuntolaina tai saammeko kutsun työpaikkahaastatteluun. Ja sekin, pysäyttääkö poliisi meidät kaupungilla tai millaisen rangaistuksen saamme rikoksesta, voi perustua tekoälyn tekemiin valintoihin.
Onneton ennustaja
Ohjelma tunnisti sukupuolen lähes erehtymättä eli 99 prosenttisesti oikein, jos tunnistettava oli valkoinen mies.
Toivoa siis sopisi, että tekoäly olisi valinnoissaan erehtymätön. Näin ei kuitenkaan ole, vaan tekoäly, lyhyesti AI, toistaa ja jopa vahvistaa ihmisille tyypillisiä ennakkoasenteita. Syynä voi olla sille syötetty virheellinen tieto, vääränlainen logiikka tai yksinkertaisesti ohjelmoijan omat ennakkoluulot.
Newscientistissa julkaistussa artikkelissa kuvataan AI:n ennakkoluuloihin perustuvien arviointien tuottamia ongelmia.
Yhdysvalloissa on käytössä COMPAS-niminen algoritmi, joka ohjaa rangaistuskäytäntöjä arvioimalla, kuinka suuri todennäköisyys tuomittavalla on syyllistyä uusiin rikoksiin. Pari vuotta sitten kävi ilmi, että sen tekemät arviot perustuivat rasistisiin ennakko-oletuksiin.
COMPAS arvioi tummaihoisten tekijöiden uusivan rikoksensa paljon useammin kuin todellisuudessa tapahtuu. Vastaavasti vaaleaihoisten rikoksenuusintariskin se laski alakanttiin. Uusimpien tutkimusten mukaan sen kyky tunnistaa mahdolliset rikoksenuusijat on samaa luokkaa kuin kenen tahansa kaduntallaajan.
PredPol-niminen algoritmi puolestaan on suunniteltu kertomaan, missä rikoksia tapahtuu eli missä poliisin kannattaa näkyä. PredPolia tutkineen ihmisoikeusryhmän mukaan se kuitenkin ohjasi poliisit etnisten vähemmistöjen asuttamille alueille todellisista rikosmääristä riippumatta.
Kasvojentunnistusohjelmistoja käytetään jo monissa paikoissa, myös viranomaistyössä. MIT:n tutkija Joy Buolamwini perehtyi kolmen kasvojentunnistusohjelman kykyyn tunnistaa ihmisen sukupuoli valokuvasta. Hän havaitsi, että ohjelma tunnisti sukupuolen lähes erehtymättä eli 99 prosenttisesti oikein, jos tunnistettava oli valkoinen mies. Jos kuvassa oli tummaihoinen nainen, sen onnistumisprosentti romahti 35 prosenttiin.
Facebookin käännösvirhe johti kuulusteluihin
Vuonna 2015 tehdyn tutkimuksen mukaan hakusana ”toimitusjohtaja” tuotti 89 prosenttia miesjohtajia ja 11 prosenttia naisia. Hieman myöhemmin tehty tutkimus taas kertoi, että korkeapalkkaiset työt näytettiin todennäköisemmin miehen kuin naisen hakutuloksissa. Googlen mukaan mainostajat voivat vaikuttaa siihen, kenelle heidän ilmoituksensa näytetään. Sukupuoli voi olla yksi valintakriteereistä.
Tutkijoiden mukana on kuitenkin mahdollista, että hakukoneen algoritmi on voinut päätellä, että miehet sopivat paremmin johtotehtäviin. Päätelmänsä se on siinä tapauksessa tehnyt oppimalla käyttäjiensä toiminnasta. Jos hyväpalkkaisia työpaikkailmoituksia klikkaavat lähinnä miehet, algoritmi oppii näyttämään niitä miehille.
Pahimmillaan tekoäly voi jopa ruokkia ennakkoluuloja. Viime lokakuussa Israelin poliisi pidätti palestiinalaismiehen, joka oli postittanut facebookin kuvan itsestään poseeraamassa puskutraktorin kanssa. Otsikkona oli hepreankielinen hyökkäyskehotus. Paitsi, ettei ollut. Itse asiassa teksti toivotti hyvää huomenta arabiaksi ja facebookin automaattinen kääntäjä valitsi väärän käännösvaihtoehdon. Miestä kuulusteltiin tunteja ennen kuin joku huomasi virheen.