Tekoälyn käyttö haltuun EU-asetuksen mukaan – mitä organisaatioiden pitää tietää?

Mitä tekoälyasetuksesta tulee tietää? 

AI Act on Euroopan unionin säätämä tekoälyasetus, joka pyrkii varmistamaan, että tekoälyä kehitetään ja käytetään turvallisesti, läpinäkyvästi ja ihmisoikeuksia kunnioittaen. Asetus astui voimaan elokuussa 2024 ja on maailman ensimmäinen kattava tekoälyä koskeva oikeudellinen kehys.

EU:n tekoälyasetus ja riskiluokitukset 

Asetus perustuu ajatukseen, että säätelyä tehdään riskiluokittain perustuen mahdollisiin riskitekijöihin. Säädöksessä tekoälysovellukset luokitellaan riskiperusteisesti neljään tasoon: 

Kielletty riski: Sovellukset, jotka vaarantavat perusoikeuksia tai ovat ristiriidassa EU:n arvojen kanssa. Tästä esimerkkinä toimii sosiaalinen pisteytys ja tunteiden tunnistaminen tekoälyllä oppilaitoksissa ja työpaikoilla. 

Korkea riski: Käyttötapaukset, joilla voi olla merkittävä vaikutus ihmisten turvallisuuteen, terveyteen tai perusoikeuksiin. Korkea riskisiä järjestelmiä ovat esimerkiksi tietyt tekoälyn käyttötapaukset lainvalvonnassa sekä oikeudenkäytössä, kuten tuomioistuinten päätöksien valmistelemisessa.

Rajoitettu riski/läpinäkyvyysriski: Tämä kategoria kattaa tekoälysovellukset, joiden kanssa käyttäjä on suoraan vuorovaikutuksessa, mutta jotka eivät tee päätöksiä itsenäisesti. Tyypillinen esimerkki on verkkosivun asiakaspalveluchatbot. Näiden järjestelmien käyttö on sallittua silloin, kun käyttäjälle kerrotaan selkeästi, että kyseessä on tekoälyä hyödyntävä järjestelmä eikä ihminen. Tavoitteena on varmistaa, ettei käyttäjälle synny väärää käsitystä järjestelmän luonteesta. 

Vähäinen riski: Tekoälysovellukset, jotka ovat arkikäytössä ja joihin ei liity erityistä riskiä. Esimerkiksi tekstinsyötön autokorjaus tai musiikkisuositukset suoratoistopalvelussa. 

Lisäksi AI Act huomioi ns. systeemiset riskit, joita voi syntyä yleiskäyttöisistä, suurista generatiivisista malleista. Tällaiset mallit voivat olla erittäin laajoja ja monikäyttöisiä, ja ne muodostavat usein pohjan monille tekoälysovelluksille EU:ssa.  

Velvoitteet tekoälyjärjestelmien käyttäjille  

Tekoälyasetus tuo mukanaan uusia velvoitteita, jotka täytyy ottaa huomioon yhdessä muiden säädösten kuten yleisen tietosuoja-asetuksen kanssa. Vaikka suurimmat vastuut ovat tekoälyä hyödyntävän palvelun tarjoalla on järjestelmiä hyödyntävien organisaatioden hyvä ymmärtää, mihin riskiluokkaan käytettävä järjestelmä kuuluu. Organisaatioiden vastuulla on myös kouluttaa organisaation tekoälyjärjestelmiä hyödyntävät henkilöt ymmärtämään tekoälyn perusteet sekä järjestelmän rajoitteet. 

Haluatko hyödyntää tekoälyä vastuullisesti luotettavan kumppanin kanssa?

Avatars Intelligence auttaa organisaatioita ottamaan tekoälyn käyttöön tavalla, joka on sekä liiketoimintaa edistävä että EU:n tekoälyasetuksen mukainen. Autamme tunnistamaan riskit, rakennamme läpinäkyviä ratkaisuja ja varmistamme, että tekoälyn käyttö on turvallista ja ihmislähtöistä. Olipa kyse asiakaspalvelun kehittämisestä, tuotannon tukemisesta tai perehdytyksen tehostamisesta, tarjoamme konkreettista apua käyttöönotosta jatkuvaan kehittämiseen.

Avatars Chat Ava

×

Kiinnostuitko?

Keskustele asiantuntijamme kanssa ja löydä täydellinen ratkaisu tarpeisiinne. Varaa tapaaminen jo nyt!