Se, mikä hidastaa tekoälyn käyttöönottoa, ei useimmiten ole kiinnostuksen puute. Useammin kyse on luottamuksen puutteesta.
Useimmat johtajat eivät kysy, onko tekoäly tehokas. He kysyvät jotain käytännöllisempää: voimmeko luottaa siihen riittävästi, jotta voimme käyttää sitä vastuullisesti?
Mihin AI-agentti pääsee käsiksi? Voiko sen tuottamiin vastauksiin luottaa? Miten virheitä vähennetään? Mitä tapahtuu, kun se tekee virheen? Missä vastuu lopulta on?
Siksi AI-agenttien turvallisuus ymmärretään usein väärin.
Se ei ole yksi tekninen ominaisuus, myyntilause tai asia, joka lisätään myöhemmin. Se on joukko tietoisia suunnitteluratkaisuja: selkeät rajat, hallittu pääsy tietoihin, suojattu data, luotettavat vastaukset, jäljitettävyys sekä yhteinen ymmärrys siitä, mitä AI-agentin kuuluu tehdä - ja mitä ei.
Riskit ovat todellisia. Mutta ne ovat hallittavissa, kun niitä lähestytään vakavasti.
Turvallisuus on enemmän kuin kyberturvaa
AI:n turvallisuuskeskustelu kaventuu usein liian nopeasti infrastruktuuriin, palveluntarjoajiin tai vaatimustenmukaisuuslistoihin. Ne ovat tärkeitä, mutta vain osa kokonaisuutta.
Johtajien näkökulmasta AI-agenttien turvallisuus kiteytyy muutamaan käytännön kysymykseen:
- Mihin dataan agentilla on pääsy? Kaikkeen teknisesti saatavilla olevaan tietoon ei pitäisi päästä käsiksi. Hyvä suunnittelu alkaa selkeistä rajoista ja roolipohjaisesta pääsynhallinnasta.
- Mitä agentti saa tehdä? Kysymyksiin vastaaminen on yksi asia. Tiedon hakeminen, prosessien käynnistäminen tai toimiminen käyttäjän puolesta on toinen. Näihin liittyy eri riskitasoja.
- Kuinka luotettavia vastausten täytyy olla? Sisäinen tukityökalu, sääntelyyn liittyvä ohjeistus ja asiakkaille suunnattu agentti eivät voi toimia samalla luotettavuustasolla.
- Miten virheitä vähennetään ja havaitaan? Hallusinaatiot, puutteelliset vastaukset ja liian itsevarma ilmaisu ovat osa generatiivisen tekoälyn toimintaympäristöä.
- Voidaanko järjestelmää oikeasti hallita? Jos kukaan ei näe, mitä agentti käytti, tuotti tai teki, luottamus jää hauraaksi.
Siksi AI:n turvallisuus ei ole vain tekninen kysymys. Se on myös johtamiskysymys.
Hallusinaatiot ovat liiketoimintariski
Johtajien huoli hallusinaatioista on perusteltu. Ongelma ei ole vain se, että AI-agentti voi olla väärässä. Ongelma on se, että se voi olla väärässä tavalla, joka kuulostaa riittävän vakuuttavalta tullakseen uskotuksi. Tästä syntyy liiketoimintariski.
Riski on todellinen. Mutta se ei ole sama kaikissa ratkaisuissa.
Yleiskäyttöinen assistentti, jota pyydetään vastaamaan vapaasti, on hyvin erilainen kuin AI-opas tai agentti, joka on rajattu tiettyyn tehtävään, sidottu valittuun lähdemateriaaliin ja suunniteltu näyttämään vastauksen taustalla olevat lähteet.
Oleellinen kysymys ei ole, voiko hallusinaatioita tapahtua. Ne voivat.
Oleellinen kysymys on, onko ratkaisu suunniteltu vähentämään sekä niiden todennäköisyyttä että vaikutuksia.
Tähän kuuluu tehtävän rajaaminen, lähdemateriaalin rajoittaminen, lähteisiin perustuvien vastausten edellyttäminen sekä lähdelinkkien näyttäminen käyttäjälle. Lisäksi voidaan hyödyntää sisäänrakennettuja varmistuksia, joissa toinen kielimalli arvioi vastauksen luotettavuutta ja tunnistaa mahdollisia epävarmuuksia tai virheitä ennen kuin käyttäjä toimii sen perusteella.
Nämä toimenpiteet eivät tee tekoälystä erehtymätöntä. Mutta ne tekevät siitä läpinäkyvämmän, hallittavamman ja käytännössä turvallisemman.
Tietosuoja ja tietoturva ovat eri asioita
Niistä puhutaan usein kuin ne olisivat sama asia. Ne eivät ole.
Tietoturva tarkoittaa järjestelmien suojaamista, pääsyn hallintaa ja käytön valvontaa.
Tietosuoja puolestaan koskee henkilötietojen käsittelyä: mitä tietoa tarvitaan, pitäisikö sitä käyttää lainkaan, miten sitä käsitellään, mitä tallennetaan ja kuka on vastuussa mistäkin.
Molemmat ovat tärkeitä.
Turvallinen tekninen ympäristö ei automaattisesti tarkoita, että henkilötietoja käsitellään asianmukaisesti. Ja huolellinen tietosuojakäytäntö ei poista tarvetta vahvalle identiteetinhallinnalle, lokitukselle ja hallinnalle.
Vakavasti otettava tekoälyn käyttöönotto edellyttää molempia.
Turvallinen ei tarkoita riskitöntä
Mikään vakava teknologiavalinta ei perustu ajatukseen, että kaikki riskit voidaan poistaa.
Tekoälyä ei pitäisi kohdella eri tavalla.
Tavoite ei ole riskitön tekoäly. Tavoite on ymmärretty, oikeassa suhteessa oleva ja hyvin hallittu riski.
Hyvä vertaus on sähköposti.
Sähköposti ei ole koskaan ollut riskitön. Silti organisaatiot käyttävät sitä, koska riskit tunnetaan ja niitä hallitaan identiteetin, pääsynhallinnan, valvonnan, käytäntöjen ja käyttäjien toiminnan kautta.
Samaa kypsyyttä tarvitaan tekoälyn kanssa.
Monissa tapauksissa AI-agentteja voidaan jopa rajoittaa selkeämmin kuin ihmisten toimintaa: mitä ne voivat käyttää, mitä ne voivat tehdä, mitä lähteitä ne hyödyntävät, mitkä toiminnot vaativat hyväksynnän ja miten niiden toimintaa valvotaan.
Se ei poista riskiä. Mutta se tekee riskistä tietoisesti suunnitellun ja hallittavan. On myös hyvä muistaa, että monissa digitaalisissa ympäristöissä ihmisten toiminta on edelleen yksi suurimmista riskitekijöistä.
Käytännössä turvallisin tekoäly ei ole avoimin, vaan se, jolla on selkeimmät rajat.
Mitä johtajien tulisi kysyä
Ennen AI-agentin käyttöönottoa johtajien tulisi kysyä:
- Mitä tietoa tämä agentti todella tarvitsee?
- Mihin sen ei pitäisi koskaan päästä käsiksi?
- Mitä se saa tehdä - ja mikä on rajojen ulkopuolella?
- Miten sen vastauksia rajoitetaan ja tarkistetaan?
- Milloin tarvitaan ihmisen tekemä arviointi?
- Voimmeko jäljittää, mitä se käytti, tuotti ja teki?
- Kuka omistaa säännöt, valvonnan ja jatkuvan kehittämisen?
Nämä eivät ole vastarinnan merkkejä. Ne ovat johtajuuden merkkejä.
Mielenrauha rakennetaan, sitä ei oleteta
Luottamus AI-agentteihin ei synny markkinointilupauksista tai mustista laatikoista.
Se syntyy siitä, että voidaan käytännössä selittää, miten turvallisuus on rakennettu osaksi ratkaisua.
Se tarkoittaa:
- selkeitä rajoja
- hallittua pääsyä
- suojattua dataa
- tehtävään sopivia vastauksia
- rajattuja toimintoja
- näkyvää hallintaa
Tämä luo johtajille mielenrauhaa.
Ei riskin täydellinen puuttuminen, vaan selkeät päätökset, järkevät kontrollit ja vastuullinen suunnittelu.
Siksi olemme tietoisesti rakentaneet ratkaisumme Microsoft-teknologian päälle. Päätös ei koskenut vain teknistä suorituskykyä, vaan myös sitä, että voimme yhdistää kehittyneen tekoälyn niihin turvallisuuden, hallinnan ja governancen vaatimuksiin, joita asiakkaamme perustellusti odottavat.
Lopulta kysymys ei ole siitä, liittyykö AI-agentteihin riskejä. Kysymys on siitä, onko nämä riskit suunniteltu, rajattu ja hallittu riittävän hyvin, jotta niihin voidaan luottaa.
Seuraavassa uutiskirjeessä käsittelemme toista yleistä harhaluuloa, joka hidastaa tekoälyn käyttöönottoa: ajatusta siitä, että organisaatiot tarvitsevat "täydellistä dataa" ennen aloittamista.


