Useimmissa organisaatioissa tekoälyprojekti alkaa kyseenalaisella kaavalla. Valitaan teknologia, rakennetaan demo, esitellään johdolle. Soppa on valmis: data on hajallaan, ohjeistukset ristiriitaisia ja prosessit dokumentoitu viimeksi kolme vuotta sitten – jos silloinkaan.
Kielimallit ja agentit käyttävät dataa, mutta eivät siivoa sitä. Jos organisaation tietopohja sisältää kolme eri versiota samasta ohjeesta, malli ei pysty valitsemaan oikeaa. Se voi valita minkä tahansa tai pahimmillaan yhdistää kaikki kolme ja tuottaa vastauksen, joka kuulostaa uskottavalta mutta on väärin.
RAG-arkkitehtuurissa (Retrieval-Augmented Generation) malli hakee vastauksen pohjaksi dokumentteja tietokannasta. Jos tietokannassa on vanhentuneita prosessikuvauksia, päällekkäisiä ohjeita ja keskenään ristiriitaisia linjauksia, malli heijastaa tämän kaaoksen suoraan käyttäjälle. Nopeasti ja uskottavasti.
Manuaalisessa työssä epäselvä prosessi hidastaa yhtä ihmistä kerrallaan. Kokenut asiantuntija tietää, keneltä kysyä ja minkä ohjeen voi ohittaa. Hän kompensoi organisaationsa puutteita hiljaisella tiedolla.
Tekoälyllä ei ole hiljaista tietoa, vaan ainoastaan se data, mitä sille annetaan.
Kun epäselvä prosessi automatisoidaan, epäselvyys ei katoa vaan moninkertaisuu. Jokainen käyttäjä saa saman puutteellisen vastauksen – mutta tällä kertaa ilman sitä asiantuntijaa, joka osaisi korjata sen suoraan.
Otetaan esimerkki. Organisaatio haluaa tekoälyavustajan, joka vastaa sisäisiin HR-kysymyksiin: lomakäytännöt, etätyöohjeet, matkustuspolitiikka. Yksinkertaista, eikö vain?
Paitsi että etätyöohje päivitettiin vuosi sitten, mutta vanha versio on yhä intranetissä. Matkustuspolitiikasta on kaksi versiota – toinen koskee Suomea, toinen koko konsernia, eikä kumpikaan kerro kumpi on ensisijainen. Lomakäytäntöjen tulkinta vaihtelee esihenkilöittäin.
Tekoäly ei ratkaise tätä monitulkintaisuutta. Se tekee ongelman näkyväksi – jokaiselle, joka käyttää järjestelmää.
Ennen kuin yhtäkään promptia kirjoitetaan, organisaation kannattaa tehdä kolme asiaa:
Yksi yleisimmistä virheistä on ajatella, että data saadaan kuntoon tekoälyprojektin yhteydessä. "Samalla kun rakennetaan järjestelmä, siivotaan dokumentaatio."
Käytännössä tämä ei toimi. Projekti etenee omalla aikataulullaan. Dokumentaation siivoaminen on hidas, sisäinen prosessi, joka vaatii päätöksiä siitä, mikä on oikein. Kukaan ei halua olla se, joka sanoo ääneen, että nykyiset ohjeet ovat ristiriitaisia, mutta tekoäly paljastaa sen joka kerralla kun käyttäjä kysyy ja saa väärän vastauksen.
Riittävän hyvän datan tunnistaa kolmesta asiasta:
Jos nämä kolme ehtoa eivät täyty, tekoälyprojekti kannattaa aloittaa datan kuntoon laittamisesta. Ei mallista.
Tekoäly on poikkeuksellisen tehokas työkalu – mutta se on työkalu, joka vahvistaa sitä mitä sille syötetään. Hyvä data tuottaa hyviä vastauksia. Huono data tuottaa uskottavan kuuloisia huonoja vastauksia. Ja se on vaarallisempaa kuin se, että vastausta ei olisi lainkaan.
Seuraavassa osassa käsittelen vastuun ja päätöksenteon rajapintaa: mitä tapahtuu, kun organisaatio alkaa kohdella tekoälyä päätöksentekijänä.