Kaikkea tietoa ei kuulu syöttää ilmaisiin tekoälypalveluihin, AI Finland -yritysverkoston operatiivinen johtaja Iida Lähdemäki muistuttaa.
Henkilötiedot – esimerkiksi kotiosoitteet, henkilötunnukset ja terveystiedot – eivät kuulu ilmaissovelluksiin.
Myöskään työhön liittyviä luottamuksellisia tietoja, kuten asiakastietoja, liikesalaisuuksia, tai muuta yrityksen sisälle tarkoitettua tietoja ei kuulu syöttää ilmaisiin tekoälysovelluksiin. Tilanne kuitenkin muuttuu heti, kun puhutaan yrityksen maksullisista tekoälylisensseistä.
”Kuluttajille tarkoitettuja maksullisia sovelluksia tai yritysversioita voi käyttää selvästi tietoturvallisemmin – ne eivät käytä syötettyjä tietoja mallin kouluttamiseen, eivätkä tiedot päädy ulkopuolisille”, Lähdemäki valottaa.
Yleisesti tekoälysovellusten tietoturvaan tulee suhtautua samalla tavalla kuin minkä tahansa digitaalisen palvelun.
”Mallien koulutukseen liittyvän riskin ohella tekoälysovelluksiin liittyy samat tietoturva- ja tietosuojariskit, jotka liittyvät myös muihin digitaalisiin palveluihin”, Lähdemäki huomauttaa.
Yrityksen kaikilla osastoilla ei ole pääsyä samoihin tietoihin – tietojen käsittelyoikeudet määräytyvät osaston roolin ja tarpeen mukaan. Lähdemäen mukaan töissä on myös hyvä huomioida se, että yrityksen sisällä käytössä olevalle tekoälysovellukselle ei kannata syöttää mitään tietoa, mitä ei voisi vuotaa muille yrityksen osastoille.
Mitä voisi pahimmillaan käydä?
Tekoälysovellusten helppokäyttöisyys viehättää. Ne auttavat monenlaisen tiedon analysoimisessa, ja kynnys antaa tekoälylle materiaalia on usein varsin matala.
Lähdemäki kuitenkin kannustaa miettimään kahdesti, ennen kuin syöttää tietoa tekoälylle.
”Mikäli tekoälyyn tulee syöttäneeksi arkaluonteista sisältöä, pahimmassa tapauksessa se voi päätyä toisen käyttäjän käyttöön, ja voi tulla paljastaneeksi liikesalaisuuden tai rikkoneeksi EU:n GDPR-tietosuoja-asetusta” Lähdemäki paljastaa.
Kaikki väärinkäytökset eivät välttämättä tule ilmi, eikä väärinkäytöksiä tehneitä aina saada vastuuseen – ainakaan vielä.
Lähdemäen mukaan valvonta kuitenkin lisääntyy jatkuvasti ja esimerkiksi EU:n tekoälyasetuksen asettamat vaatimukset yrityksille voivat auttaa väärinkäytösten ilmenemisessä.
”Väärinkäytökset voivat ilmetä yllättävissäkin paikoista. Julkisuuteen on tullut tapauksia, missä tapaus on tullut ilmi vahingossa esimerkiksi toisen käyttäjän tekoälyltä saamassa vastauksessa. Suhteessa käyttömääriin niitä on kuitenkin vähän”, Lähdemäki kertoo.
Tietoturva ei ole suurin haaste
Tekoälypalvelut ovat vielä verrattain uusi ilmiö, ja niiden käyttöä opetellaan edelleen. Lähdemäen mukaan kaikkia tekoälyyn liittyviä riskejä ei vielä tiedosteta riittävän hyvin.
Lähdemäki työskentelee yritysten kanssa tiiviissä yhteistyössä ja on päässyt näkemään haasteet, joita tekoälyn käyttöön liittyy. Hän vetää tekoälyosaamisen ja tekoälyregulaatioon keskittyviä työryhmiä.
Tietoturvaa suuremmaksi haasteeksi Lähdemäki tunnistaa sen, että generatiivista tekoälyä ei vielä toistaiseksi hyödynnetä tarpeeksi.
”Tekoälyä voitaisiin hyödyntää paljon aktiivisemmin. Mikäli yritys ei itse tarjoa työntekijöille sopivia tekoälytyökaluja, monelle tulee houkutus käyttää omia työkaluja, omilla säännöillä – siellä piilee isompi riski”, Lähdemäki muistuttaa.
Lähdemäen mukaan yritysten on tärkeää kannustaa työntekijöitä tekoälyn käyttöön ja tarjota siihen sopivat välineet, mutta myös panostaa käyttäjien tukemiseen.
”Organisaatioissa vielä opetellaan tekoälyn käyttöä. Yrityksillä on iso vastuu tekoälyn pelisääntöjen luomisessa ja kouluttamisessa, jotta tekoälyä voidaan hyödyntää turvallisesti”, Lähdemäki päättää.