Tekoälyagenttien potentiaali piilee niille annettavissa oikeuksissa erilaisiin järjestelmiin ja työkaluihin. Mitä arkaluontoisempaan dataan agentilla on pääsy, ja mitä kriittisempiä päätöksiä se saa tehdä, sitä suuremmaksi kasvaa myös järjestelmän riskipotentiaali. Tekoälyagenttien käyttöönotto muuttaa olennaisesti tapaa, jolla organisaatiot hallitsevat kyberturvallisuutta.
Tekoälyagentit eivät ole enää pelkkiä avustavia työkaluja, vaan itsenäisesti toimivia järjestelmiä, joille organisaatiot siirtävät päätösvaltaa, käyttöoikeuksia ja vastuuta. Siksi on keskeistä määritellä agenttien käyttötarkoitus, autonomian rajat ja vastuut ennen käyttöönottoa.
Toisin kuin tutuksi tulleet tekoälyavustajat, tekoälyagentit toimivat itsenäisesti kohti niille asetettuja tavoitteita. Ne kykenevät ketjuttamaan toimintoja, tekemään päätöksiä ja käyttämään erilaisia järjestelmärajapintoja ilman jatkuvaa ihmisen ohjausta.
"Huoltovarmuuden näkökulmasta tekoälyagenttien käyttö edellyttää hallittua automaatiota, jossa ihmisen rooli ei ole hidaste vaan keskeinen turvamekanismi virheellisten toimintaketjujen katkaisemiseksi", muistuttaa Huoltovarmuuskeskuksen Digitaalinen turvallisuus 2030 -ohjelman johtaja Juha Ilkka.
Erityisesti moniagenttijärjestelmissä yksittäinen virhe tai väärinkäyttö voi levitä nopeasti ja moninkertaistaa vahingot. Tekoälyagenttijärjestelmien keskeisiin uhkiin kuuluu muun muassa arkaluontoisen tiedon vuotaminen, liiallisista käyttöoikeuksista johtuvat uhkat sekä hallitsemattomat ketjureaktiot.
Nykyiset työnkulut eivät välttämättä sovi sellaisenaan todennäköisyyksiin perustuvalle kielimallille suoritettaviksi. Kielimalleihin pohjautuva automaatio edellyttää usein myös vanhojen prosessien ja toimintatapojen kriittistä uudelleenarviointia.
"Ilman huolellista suunnittelua, uhkamallinnusta, käyttöoikeuksien rajaamista, kattavaa testausta ja jatkuvaa valvontaa tekoälyagentit voivat altistaa organisaatiot vakaville taloudellisille, operatiivisille ja maineriskeille – riskeille, joita ei voida korjata jälkikäteen yksin teknisin keinoin", sanoo Traficomin teknologia- ja strategiajohtaja Kirsi Karlamaa.
Tekoälyagenttien suurin riski ei ole se, mitä ne osaavat tehdä – vaan se, mitä niille annetaan lupa tehdä.
Traficomin ja Huoltovarmuuskeskuksen uusi selvitys auttaa organisaatioita suunnittelemaan, rakentamaan ja ylläpitämään agenttisia tekoälyjärjestelmiä turvallisesti. Se on toteutettu Traficomin ja Huoltovarmuuskeskuksen Digitaalinen turvallisuus 2030 -ohjelman yhteistyönä ja osana tulevaisuuteen varautumista.
Lisätietoja
Teknologia- ja strategiajohtaja Kirsi Karlamaa
s-posti: kirsi.karlamaa@traficom.fi
p. +358295390403