Kun korvien välinen algoritmi pettää

Valkoihoinen ennen tummaihoista, mies ennen naista. Kuulostaa vähän 50-lukulaiselta? No, tällainen järjestykseen asettaminen on ihan normaalia myös näin vuonna 2020. Muoto vain poikkeaa 70 vuoden takaisesta.

Twitterissä käydään parhaillaan kipakkaa keskustelua palvelun algoritmeista. Käyttäjät ovat huomanneet, että Twitterin ”esikatselukuviin”, siis niihin jotka lukijalle näkyvät ellei erikseen klikkaile, valikoituu jostain syystä valkoihoisia miehiä, vaikka kuvassa olisi muitakin. Muut, kuten ei-valkoihoiset miehet tai naiset, jäävät piiloon.

Moni keskustelija puhuu ”Twitterin rasistisesta algoritmista”. Olisi yksinkertaista leimata yksittäinen ohjelmanpätkä rasistiseksi, poistaa se ja puistella kädet, todeta että ongelma ratkaistu.

Olisipa tämä niin yksinkertaista.

Ongelma on siinä, että algoritmit oppivat niissä puitteissa, jotka niiden ohjelmoijat ovat niille antaneet. Ne niin sanotusti tekevät mitä käsketään.

Algoritmien käyttövoima toimii data, joka voi olla puutteellista, vinoutunutta tai muuten ongelmallista. Joku on aina tehnyt valinnan, mitä dataa on kerätty ja miten se on koottu.

Toisaalta ihminen tekee myös valinnan, miten tietty algoritmi käyttää saatavilla olevaa dataa. Vähintään ihminen päättää siitä, miten itseoppiva tekoäly tai vastaava järjestelmä oppii.

Tämä tarkoittaa, että vastuuta ei voi sysätä epäonnistuneelle algoritmille. Vastuu on aina palautettavissa ihmiselle, vaikka palvelun logiikka olisi niin sanotusti syvällä mustassa laatikossa.

Tätä kirjoitettaessa Twitter näyttää jonkin verran säätäneen järjestelmiään. Mahdollisten vinoumien ongelma on tiedostettu jo toiminnallisuutta luotaessa, mutta silti tällaista on päässyt tapahtumaan. Tarkoitus on siis ollut hyvä ja prosessi huolellisesti mietitty, mutta lopputulos ei ollutkaan optimaalinen.

Ilmiö ei kuitenkaan rajoitu vain sosiaalisen median, algoritmien tai tietokoneiden maailmaan. Kysymys on ihmisten toiminnasta, ja ennen kaikkea ihmisten sokeudesta oman ajattelunsa ansoille.

Käyttäytymistaloustieteen alalla on tutkittu ja nimetty valtava määrä ihmisen ajatteluun vaikuttavia kognitiivisia vinoumia. Kattava lista vinoumista ei varmasti ole paras lähtökohta aiheeseen tutustumiseen, mutta havainnollistaa ilmiön laajuutta. Ihminen ei toimi kuin rationaalinen homo oeconomicus. Siten ihmisen virheettömänä pitämä prosessi ei välttämättä olekaan täydellinen.

Aivan kuten digitaalisia palveluja luotaessa, työpaikkamme ja elämämme ovat täynnä prosesseja. Kaikki ne ovat ihmisten suunnittelemia ja siten haavoittuvaisia ihmisten ajattelun vajavaisuudelle.

Twitterin kohtaamat haasteet eivät siis kerro pelkästään huomiotalouden kasvukivuista tai tietotekniikan edistyksestä. Rasistiseksi haukuttu algoritmi paljastaa tekijätiimin vaillinaisen ymmärryksen – ja hyvin nopeasti myös sen, halutaanko ongelma ratkaista.

Sama periaate pätee työpaikoilla ja elämässä yleensä. Korviemme välissä oleva algoritmi ei ole huippuunsa optimoitu, vaan se voi johtaa harhaan. Silloin auttaa, kun ymmärtää epätäydellisyyden ja pyrkii systemaattisesti kohti parempaa lopputulosta parhaan mahdollisen datan avulla.

Pätee esimerkiksi tasa-arvoon työelämässä.

P.S. Ilmeisesti Twitterin kuvanrajauksesta vastaava algoritmi pohjautuu silmien liikkeiden tunnistukseen. Kyseessä näyttäisi siis olevan useamman tason inhimillinen virhe, joka saattaa jo testausvaiheessa johtaa, no, ei-optimaalisiin lopputuloksiin.

23.09.2020
Aihealue: Tekniikka ja yhteiskunta
Avainsanat: tekniikka