Analyysi: Tekoäly muuttaa kaupankäyntiä, entä sen sääntely?
EU-instituutiot käsittelevät parhaillaan esitystä tekoälysäädökseksi, jolla halutaan luoda yleiseurooppalaiset puitteet tekoälyjärjestelmien kehitykselle ja käytölle. Erittäin haitallisina pidetyt käyttötarkoitukset halutaan kieltää, ja suuririskisten tekoälyjärjestelmien käytölle asetetaan joukko vaatimuksia, jotka liittyvät riskienhallintaan, valvontaan ja läpinäkyvyyteen. Suuren riskin tekoälyjärjestelmiin sisältyy sellaisia teknologioita, joita jo käytetään ja todennäköisesti otetaan käyttöön myös kaupan alalla.
Komission huhtikuussa 2021 antama esitys tekoälysäädöksestä on asetus, joten sitä on voimaan tullessaan sovellettava jäsenmaissa suoraan ilman kansallista liikkumavaraa. Näin komissio pyrkii takaamaan ihmisten yhtenäisen suojelun tason ja samalla helpottamaan tekoälyjärjestelmien kehittämistä ja käyttöä Euroopassa.
Yritysten kannalta keskeisiä kysymyksiä on kolme: 1) millaiset järjestelmät ylipäätään määritellään tekoälyksi, 2) miten tekoälyjärjestelmiä luokitellaan noudattaen riskiperusteita lähestymistapaa ja 3) mitä velvollisuuksia järjestelmien tuottajille, myyjille ja käyttäjille asetetaan.
Komission hahmottelemaa tekoälyn määritelmää on moitittu liian väljäksi ja epäselväksi, ja syystä. Ehdotetun määritelmän mukaan tekoäly ”voi tuottaa ihmisen määrittelemien tavoitteiden saavuttamiseksi tuloksia, kuten sisältöjä, ennusteita, suosituksia tai päätöksiä, jotka vaikuttavat ympäristöihin, joiden kanssa järjestelmät ovat vuorovaikutuksessa”, ja se on luotu käyttäen sellaista teknistä lähestymistapaa, joka on mainittu asetuksen liitteessä. Koska liite listaa kaikki kehittyneet ohjelmointitekniikat, ratkaisevaa on toisin sanoen se, että järjestelmä kykenee toimimaan tavalla tai toisella itsenäisesti.
Luokittelulla hahmotetaan tekoälyjärjestelmien riskien haitallisuutta
Tekoälyjärjestelmien luokittelu niihin liittyvän riskin mukaan on kolmiportainen: Erittäin haitallisiksi arvioidut käyttötavat on kokonaan kielletty. Suuririskiset tekoälyjärjestelmät on myös määritelty käyttötapojen, ei esimerkiksi teknologioiden kautta. Kaikki muut käyttötavat ovat lähtökohtaisesti sallittuja, joskin henkilölle on yleensä kerrottava, jos hän on vuorovaikutuksessa tekoälyjärjestelmän kanssa.
Kiellettyjä ovat järjestelmät, joilla tähdätään henkilön alitajuiseen manipulointiin tai hänen haavoittuvuuksiensa hyödyntämiseen. Suuririskisiin käyttötapoihin sisältyvät esimerkiksi biometrinen etätunnistaminen, rekrytointiin ja työsuhteisiin liittyvä tilanteet sekä olennaisten yksityisten palvelujen saatavuus, joka sisältää henkilön luottokelpoisuuden arvioinnin. Korkean riskin järjestelmille on asetettu mm. riskienhallintaa, datahallintoa, läpinäkyvyyttä ja valvontaa koskevia vaatimuksia.
Kaupan alalla käytetään jo nyt myös suuririskisiä tekoälyjärjestelmiä
Kaupan alalle mainitut käyttötavat ja -kohteet ovat merkityksellisiä suoraan tai välillisesti. Jo nykyään tekoälyä voidaan käyttää asiakkaiden profilointiin vaikkapa mainonnan kohdentamisessa ja dynaamisessa hinnoittelussa. Tämän tulee olla mahdollista jatkossakin, eikä kohdennettuja sisältöjä ja palveluita tule sotkea henkilön manipulointiin. Profilointi hyödyttää myös kuluttajia, joiden oikeuksia suojataan jo kattavasti muussa lainsäädännössä kuten tietosuoja-asetuksessa ja kuluttajansuojasääntelyssä.
Toisen hyvän esimerkin tarjoavat maailmalta ja Suomestakin löytyvät miehittämättömät kaupat, joissa asiointi vaatii usein kännykkäsovellusta. Osa asiakkaista varmasti haluaisi, että kauppa voi tunnistaa heidät jo ovella ja laskuttaa ostokset kännykän jäätyä kotiin, kunhan tämä tapahtuu luotettavasti ja tietoturvallisesti. On perusteltua kysyä, onko kaikkea tekoälyyn tukeutuvaa biometristä etätunnistamista tai profilointia syytä pitää automaattisesti korkean riskin käyttönä ja ovatko järjestelmille asetetut vaatimukset kaikilta osin tarpeellisia.
Suomen suurimpana yksityisen sektorin työnantajana kaupan alalle on tärkeätä myös, miten tekoälysovelluksia voidaan hyödyntää henkilöstöhallinnossa. On selvää, että rekrytoinnissa tai henkilöstön palkitsemisessa käytetty tekoälyjärjestelmä voisi heikkolaatuisen, vinoumia sisältävän datan takia kohdella työnhakijoita tai -tekijöitä epäreilusti. Tällaisten järjestelmien asianmukaisen toiminnan varmistamiseksi tiukatkin laatuvaatimukset ovat perusteltuja. Kaikki käyttökohteet työelämässä, kuten resurssitehokkaiden työvuorolistojen laatiminen, eivät silti sisällä vastaavaa riskiä.
Tekoälysääntelyä tarvitaan – riskinä Euroopan teknologinen takamatka
Tekoälyjärjestelmien tarjoajien, maahantuojien, jakelijoiden ja käyttäjien velvollisuuksista muodostuu pitkä lista, jota on mahdotonta lähteä avaamaan tässä yksityiskohtaisesti. Esitys seuraa kuitenkin tuoteturvallisuussääntelystä tuttua logiikkaa ja sen voisi tiivistää seuraavasti: tarjoaja vastaa järjestelmän vaatimustenmukaisuudesta ja jokainen jakeluketjun porras siitä, että tieto vaatimustenmukaisuudesta sekä tekninen dokumentaatio ja käyttöohjeet kulkevat järjestelmän mukana. Käyttäjän kontolle jää lähinnä seurata saamiaan ohjeita.
Vaikka sääntelyn lähtökohtia voidaan pitää perusteltuina ja varsin tasapainoisina, esitykseen sisältyy vielä paljon epäselvyyksiä ja ylisääntelyn vaara on ilmeinen. Asetuksen käsittely parlamentissa ja neuvostossa on vasta alkuvaiheessa, mutta varsinkin parlamentista löytyy kannatusta komission ehdottamia tiukemmille kielloille ja rajoituksille.
Onnistuessaan komissio, parlamentti ja jäsenmaat kykenevät luomaan tekoälylle riittävän joustavan sääntelykehikon, josta muu maailma ottaa mallia. Huonoimmassa tapauksessa tekoälyjärjestelmien kehittämiselle ja käytölle asetetaan Euroopassa sellaisia esteitä, että ennen kaikkea Yhdysvallat ja Kiina saavuttavat teknologisen etumatkan, jonka kiinni kurominen on likimain mahdotonta. Myös kaupan alan tulevaisuuteen vaikuttaa se, kumpaan lopputulokseen päädytään.
Ilari Kallio työskentelee EU-edunvalvonnan ja yrityslainsäädännön johtavana asiantuntijana Kaupan liitossa.
Pääkuva 123RF, Ilari Kallion kuva Marjo Koivumäki / Studio Apris Oy