Näin rakennamme luotettavaa tekoälyä rekrytointiin

Rekrytointipäätöksiä tehdään harvoin rauhallisissa ja ihanteellisissa olosuhteissa.
Ne tehdään kokousten välissä, prosessin loppuvaiheessa ja paineen alla. Haastattelijat ovat väsyneitä. Muistiinpanot ovat puutteellisia. Kaikki haluavat tehdä hyvän päätöksen, mutta rakenne, jonka pitäisi tukea harkintaa, alkaa usein pettää juuri silloin kun sitä eniten tarvitaan.
Siksi tämä on tärkeää.
Vuosien työ järjestelmien parissa, joita käytetään keskellä todellisia rekrytointipäätöksiä – rekrytoijien ja rekrytoivien esihenkilöiden arjessa – on opettanut meille saman asian kerta toisensa jälkeen: rekrytointi ei epäonnistu siksi, että ihmisiltä puuttuisi älyä tai dataa. Se epäonnistuu silloin, kun harkinta muuttuu epäjohdonmukaiseksi, koska rakenne ei kanna.
Tekoäly voi auttaa. Mutta vain silloin, kun se vahvistaa rakennetta – ei korvaa harkintaa.
Miksi rekrytointi hajoaa paineen alla
Useimmat rekrytointiprosessit sisältävät jo valmiiksi enemmän tietoa kuin tiimit voivat kohtuudella käsitellä. CV:t, esikarsintakysymykset, haastattelut, palaute, vaikutelmat ja sivukeskustelut. Ongelma ei ole signaalien puute. Ongelma on, ettei niitä pidetä koossa, verrata systemaattisesti tai soveltaa johdonmukaisesti eri kandidaatteihin.
Kriteerit muuttuvat prosessin aikana. Yksi painottaa kokemusta, toinen potentiaalia, kolmas luottaa intuitioon. Ensivaikutelmat jäävät elämään. Loppuvaiheen haastattelut arvioidaan väsyneinä. Kun päätös lopulta tehdään, rakenne on heikoimmillaan ja varmuus matalimmillaan.
Tässä kohtaa monet tekoälyratkaisut astuvat kuvaan.
Ne lupaavat tehdä monimutkaisuudesta hallittavaa. Muuttaa arvioinnin pisteiksi. Asettaa hakijat paremmuusjärjestykseen. Ennustaa “sopivuutta”.
Se kuulostaa tehokkaalta. Se tuntuu objektiiviselta. Käytännössä se siirtää usein vastuuta sen sijaan, että parantaisi päätöksiä.
Miksi automatisointi tuntuu objektiiviselta – mutta ei ole sitä
Paremmuusjärjestys näyttää neutraalilta. Mutta se perustuu oletuksiin siitä, mikä on tärkeää, kuinka tärkeää se on ja miten “hyvä” määritellään.
Nämä oletukset eivät useinkaan sovi kaikkiin rooleihin tai tilanteisiin. Silti keskustelu muuttuu heti, kun ne käännetään luvuksi – esimerkiksi 87/100. Sen sijaan että keskusteltaisiin siitä, mikä todella on olennaista, tiimi alkaa pohtia, onko 87 riittävän korkea.
Numero kehystää päätöksen.
Järjestelmä ei ehkä muodollisesti tee päätöstä. Mutta se vaikuttaa siihen, miten päätös tehdään.
Tämä ei ole tekninen ongelma. Se on rakenteellinen.
Rekrytointi ei ole optimointitehtävä. Se on päätös, jonka on kestettävä aikaa – suhteessa hakijoihin, kollegoihin ja joskus myös viranomaisiin.
Rekrytointipäätökset eivät tapahdu tyhjiössä. Ne muovaavat tiimejä, kulttuuria ja mahdollisuuksia ajan myötä. Kun automatisoidut järjestelmät vaikuttavat siihen, kuka etenee ja kuka karsiutuu, vaikutukset kumuloituvat. Toistuvat valinnat muodostavat käytäntöjä. Oletuksista tulee normeja.
Siksi tekoälyn suunnitteluratkaisut rekrytoinnissa merkitsevät enemmän kuin pelkkää tehokkuutta. Ne vaikuttavat siihen, millaisiksi organisaatiot kehittyvät – ja kenelle niihin avautuu pääsy.
Tästä lähtökohdasta rakennamme tekoälyä Recrightilla.
Näin käytämme tekoälyä harkinnan vahvistamiseen
Emme lähteneet liikkeelle kysymyksestä: “Mitä tekoäly voi automatisoida?” Aloitimme toisesta: “Mikä auttaa ihmisiä tekemään parempia rekrytointipäätöksiä todellisissa tilanteissa?”
Vastaus ei ollut autonomia. Se oli rakenne.
Tekoäly pystyy käsittelemään suuria tietomääriä väsymättä. Se voi soveltaa samaa logiikkaa jokaiseen kandidaattiin. Se auttaa pitämään alussa määritellyt kriteerit näkyvissä koko prosessin ajan.
Alustallamme tekoälyä käytetään roolivaatimusten ja osaamisten selkeyttämiseen alusta lähtien. Se tukee strukturoituja haastatteluja. Se tekee vastauksista ja keskusteluista vertailukelpoisia eri kandidaattien ja eri vaiheiden välillä. Se auttaa pitämään arvioinnin kiinni ennalta määritellyissä kriteereissä – ei siinä, mikä yksittäisessä haastattelussa sattui korostumaan.
Ja siihen se pysähtyy.
Tekoälymme ei aseta hakijoita paremmuusjärjestykseen. Se ei määritä, kuka on sopivin. Se ei ennusta, kuka tulisi palkata. Se ei siirrä kandidaatteja automaattisesti eteenpäin tai pois prosessista.
Jos kandidaatin eteneminen muuttuu, päätöksen tekee ihminen – ja pystyy perustelemaan sen.
Nämä eivät ole jälkikäteen lisättyjä turvarakenteita. Ne ovat tietoisia suunnitteluratkaisuja, jotka perustuvat siihen, miten rekrytointi toimii silloin kun se toimii hyvin.
Rekrytoinnin oikeudenmukaisuus ei synny siitä, että algoritmi olisi “neutraali”. Se syntyy selkeydestä ja johdonmukaisuudesta. Siitä, että määritellään mikä on tärkeää ennen haastatteluja. Siitä, että samoja standardeja sovelletaan kaikkiin. Siitä, että päätökset voidaan näyttää ja perustella.
Tekoäly voi auttaa ylläpitämään tätä rakennetta paineen alla. Mutta kun tekoäly alkaa toimia tuomarina tuen sijaan, päätösten takana seisominen vaikeutuu.
Luottamus, vastuu ja päätösvallan paikka
On vielä yksi helposti huomaamatta jäävä riski.
Kun järjestelmät tarjoavat vastauksia perustelujen sijaan, ihmiset alkavat nojata niihin. Pisteet saavat auktoriteetin, vaikka niiden logiikkaa ei täysin ymmärrettäisi. Ajan myötä inhimillinen harkinta heikkenee – ei siksi, että ihmiset lakkaisivat välittämästä, vaan koska työkalu ohjaa käyttäytymistä.
“Human in the loop” kuulostaa turvalliselta. Käytännössä sillä on vähän merkitystä, jos ihmisillä ei ole todellista päätösvaltaa. Prosessissa mukana oleminen ei ole sama asia kuin päätöksen omistaminen. Siinä erossa ratkaistaan, voiko luottamusta syntyä.
Hakijoiden on ymmärrettävä, miten heitä arvioidaan. Rekrytointitiimien on tiedettävä, mitä järjestelmä tekee – ja mitä se ei tee. Johtajien on pystyttävä seisomaan päätöstensä takana kuukausia myöhemmin.
Recrightia käyttävät tiimit näkevät, missä ja miten tekoälyä hyödynnetään prosessissa. He voivat käyttää sitä – tai olla käyttämättä. Alusta toimii myös ilman tekoälyä.
Tekoäly tukee päätöksiä. Se ei tee niitä.
Tämä lähestymistapa on linjassa sääntelyn kehityksen kanssa. Rekrytointi luokitellaan korkean riskin alueeksi, koska automatisoiduilla päätöksillä voi olla merkittäviä seurauksia, jos ne eivät ole läpinäkyviä tai niihin ei liity selkeää vastuuta.
Päätösvallan säilyttäminen ihmisillä ei ole pelkästään vaatimustenmukaisuutta. Se johtaa parempiin päätöksiin.
Recright ei ole tekoälyjärjestelmä, joka palkkaa puolestasi. Se on Intelligent Selection Platform – alusta, joka on rakennettu vahvistamaan päätöksenteon laatua esikarsinnasta haastatteluihin ja lopulliseen valintaan.
Tekoäly tukee rakennetta, johdonmukaisuutta ja näyttöön perustuvaa arviointia. Harkinta ja vastuu pysyvät ihmisillä.
Parempi rekrytointi ei synny vahvemmista ennusteista. Se syntyy järjestelmistä, jotka auttavat ihmisiä soveltamaan hyvää harkintaa johdonmukaisesti.
Tekoäly kehittyy edelleen. Se muuttuu kyvykkäämmäksi – ja houkuttelevammaksi käyttää autonomisesti. Mutta tulevaisuus, jota rakennamme, ei ole sellainen, jossa koneet päättävät, kuka palkataan.
Se on sellainen, jossa rakenne vahvistaa oikeudenmukaisuutta, näyttö vahvistaa harkintaa ja vastuu pysyy siellä, minne se kuuluu.
Näin rakennamme luotettavaa tekoälyä rekrytointiin.