Siirry sisältöön
Etusivu Ajankohtaista Tekoälyn kiellettyjä käyttötapauksia koskevien sääntöjen soveltaminen alkaa 2.2.2025

Tekoälyn kiellettyjä käyttötapauksia koskevien sääntöjen soveltaminen alkaa 2.2.2025

EU:n tekoälyasetuksella (2024/1689) kielletään tietyt tekoälyyn liittyvät käytännöt, joita ei voida hyväksyä, koska niiden katsotaan olevan erityisen haitallisia tai loukkaavia. Säännöt koskien kiellettyjä tekoälykäytänteitä ovat merkityksellisiä myös sosiaali- ja terveysalan toimijoiden kannalta.

Tekoälyasetus julkaistiin 12.7.2024 ja astui voimaan 1.8.2024. Siitä alkoi kahden vuoden siirtymäaika, jonka jälkeen asetuksen soveltaminen alkaa 2.8.2026 tietyin poikkeuksin. Siirtymäaika tarkoittaa sitä, että sen aikana tekoälyratkaistujen tarjoajien ja käyttöönottajien on sopeutettava toimintaansa vastaamaan uusia säädöksiä ennen kuin niitä aletaan täysimääräisesti soveltamaan käytännössä. Poikkeukset soveltamisajoissa koskevat mm. kiellettyjä käytäntöjä, joita voi esiintyä myös sote-alalla.

Tekoälyyn liittyvät kielletyt käytännöt

Tekoälyasetuksen 5 artiklassa määritetään 8 tekoälyyn liittyvää käytäntöä, jotka ovat erityisen haitallisia ja loukkaavia:

Kaikki asetuksen 5 artiklassa määritellyt tekoälykäytännöt ovat kiellettyjä 2.2.2025 alkaen suoraan asetuksen nojalla. Niitä ei siten saa saattaa markkinoille, ottaa käyttöön tai käyttää EU:ssa. Kielto velvoittaa kaikkia asetuksessa määriteltyjä toimijoita, kuten tarjoajia ja käyttöönottajia. Tarjoajia ovat esimerkiksi tekoälysovellusten kehittäjät ja valmistajat. Käyttöönottajan roolissa voivat sote-alalla olla esimerkiksi hyvinvointialueet, julkiset ja yksityiset terveydenhuollon toimintayksiköt sekä itsenäiset ammatinharjoittajalääkärit.

Kiellettyjen tekoälykäytäntöjen valvonta

Kiellettyihin tekoälykäytäntöihin liittyvät viranomaisten valvontatoimivaltuudet astuvat voimaan vasta 2.8.2025. Näin toimijoille jää aikaa arvioida, onko niillä mahdollisesti kehitteillä tai käytössä 5 artiklan soveltamisalaan kuuluva käytäntö. Toimija voi muuttaa tai sopeuttaa toimintaansa uusien vaatimusten mukaiseksi ennen kuin sille määritetään seuraamuksia mahdollisten rikkomusten vuoksi. Tekoälyasetuksen kansallisen toimeenpanon valmistelussa on Suomessa katsottu, ettei seuraamuksia voisi määrätä taannehtivasti käytäntöihin, jotka ovat tapahtuneet ennen 2.8.2025.

Kiellettyjen käytäntöjen valvonta on keskeisesti henkilötietojen käsittelyyn perustuvaa toimintaa, minkä vuoksi näihin käyttötapauksiin liittyvä markkinavalvonta on suunniteltu tietosuojavaltuutetun tehtäväksi.

Keskustelua kielletyistä käyttötapauksista sote-kontekstissa

Kielletyistä tekoälykäytännöistä ei ole toistaiseksi annettu tarkempaa yleistä eikä toimialakohtaista viranomaisohjeistusta, jonka avulla sote-alan toimijat voisivat systemaattisesti arvioida omien käyttötapaustensa kuulumista tähän riskiluokkaan tai punnita rajanvetoja esimerkiksi kiellettyjen ja korkeariskisten tekoälyjärjestelmien välillä. Omaa toimintaa pitäisi kuitenkin alkaa sopeuttamaan tekoälyasetuksen vaatimusten mukaiseksi.

Olemme keskustelunavaukseksi tehneet lukijoillemme asetuksen 5 artiklasta alla näkyvät yksinkertaiset taulukot, joissa kuvataan sovellettavana olevat tekoälyasetuksen säännöt. Jokaisen taulukon jälkeen tapaus sijoitetaan pintapuolisesti sote-alan kontekstiin. Muistutamme, että jokainen käyttötapaus on arvioitava itsenäisesti ja tehden tarkkaa oikeudellista analyysiä niin tekoälyasetuksen kuin muidenkin keskeisten sääntöjen, kuten tietosuoja- ja tietoturvasääntelyn sekä lääkinnällisten laitteiden sääntelyn mahdollisesta soveltumisesta tilanteeseen. Ei kannata tuijottaa orjallisesti tekoälyasetuksen sääntöjä, kun samaa tai lähellä olevaa tematiikkaa saatetaan säännellä toisesta näkökulmasta mm. EU:n yleisessä tietosuoja-asetuksessa (2016/679). Tästä on hyvänä esimerkkinä kielletyn sosiaalisen pisteytyksen ja sallitun profiloinnin erot ennakoivassa terveydenhuollossa. Tässä blogissa ei ole tarkoitus antaa oikeudellisia neuvoja, vaan antaa helposti ymmärrettävä johdatus aiheeseen. Huolellinen riskinarviointi voi edellyttää asiantuntevaa ulkopuolista apua ja tekoälyn hallintamallin käyttöönottoa. Markkinoilla on useita kokeneita toimijoita, jotka pystyvät auttamaan esimerkiksi tarjoamalla ohjelmistoja, koulutuksia ja konsultointia.

Subliminaalinen manipulointi

Esimerkki

Tekoälypohjainen sovellus, joka tarkoituksellisesti ja harhaanjohtavasti suosittelee käyttäjälle kalliita ja tarpeettomia hoitoja kaupallisin (ei lääketieteellisin) perustein. Chatbot voisi käyttää sanavalintoja ja lauserakenteita, jotka hienovaraisesti painostavat potilasta tekemään päätöksen, jota hän ei muuten tekisi – esimerkiksi suostumaan tiettyyn hoitoon. Tällaiset manipuloivat tekniikat voisivat heikentää potilaan autonomista päätöksentekoa ja johtaa hoitovalintoihin, jotka eivät ole hänen parhaakseen. Tarjoajien on siten varmistettava, että tekoälyratkaisut eivät ohjaa potilaita tai lääkäreitä harhaan esimerkiksi hoitovaihtoehtojen esittämisessä. Käyttöönottajien on valvottava tekoälyn eettistä käyttöä.

Haavoittuvuuksien hyväksikäyttö ja sosiaalinen pisteytys

Esimerkki

Haavoittuvuuksien hyväksikäyttö: Kuvitellaan, että sairaala käyttää tekoälyjärjestelmää potilaiden hoidon kiireellisyyden arviointiin. Järjestelmä on opetettu hyödyntämään potilaiden sosioekonomista taustaa ja terveydentilaa osana priorisointia. Se saattaa esimerkiksi antaa alhaisemman kiireellisyysluokituksen potilaille, joilla on alhainen koulutustaso tai pienituloisuutta, olettaen, että heillä on heikommat resurssit hoitoon sitoutumiseen. Tämä voisi johtaa siihen, että tietyt potilasryhmät saavat hoitoa myöhemmin kuin he lääketieteellisesti tarvitsisivat, mikä voi heikentää heidän terveydentilaansa tai jopa johtaa hengenvaaraan. Tällainen tekoälyjärjestelmä hyödyntää henkilöiden sosioekonomista asemaa ja terveydentilaa tavalla, joka vääristää heidän käyttäytymistään – esimerkiksi he saattavat hyväksyä viivästetyn hoidon, koska he eivät ymmärrä, että heidät on priorisoitu epäoikeudenmukaisesti. Tämä voi johtaa merkittävään haittaan, kuten vakavampaan sairastumiseen tai hoidon estymiseen kokonaan. Tarjoajien on testattava algoritmien neutraalius, ja käyttöönottajien on seurattava käytön vaikutuksia.

Sosiaalinen pisteytys: Sairaala ottaa käyttöön tekoälyjärjestelmän, joka arvioi potilaiden ”vastuullisuutta” heidän aiemman käyttäytymisensä perusteella. Järjestelmä kerää ja analysoi tietoa esimerkiksi siitä, kuinka usein potilas on jättänyt saapumatta ajanvaraukselle, noudattanut lääkärin ohjeita tai osallistunut ennaltaehkäiseviin terveystarkastuksiin. Tämän perusteella potilaille annetaan ”terveysvastuullisuuspisteet”, jotka vaikuttavat heidän mahdollisuuksiinsa saada nopeampaa hoitoa.

Esimerkiksi:

Tällainen järjestelmä

  1. luokittelee potilaita aiemman sosiaalisen käyttäytymisen perusteella tavalla, joka ei liity suoraan heidän lääketieteelliseen tarpeeseensa.
  2. voi johtaa haitalliseen tai epäedulliseen kohteluun, esimerkiksi pitkittäen hoitoon pääsyä perusteettomasti.
  3. Päätöksenteko voi olla epäsuhteessa potilaan tilanteeseen – esimerkiksi matalia pisteitä saaneen potilaan viivästynyt hoito voi pahentaa hänen tilaansa merkittävästi.

Rikollisen käyttäytymisen ennustaminen, kasvojentunnistustietokantojen luominen/laajentaminen, tunteentunnistus työpaikoilla ja oppilaitoksissa sekä tunteentunnistusjärjestelmät biometristen tietojen perusteella

Esimerkki

Tekoälyn käyttö rikosriskin arviointiin, kasvojentunnistukseen ja tunteentunnistukseen voi olla joko kiellettyä tai sallittua riippuen siitä, mihin tarkoitukseen sitä käytetään ja perustuuko se objektiivisiin ja todennettavissa oleviin tosiseikkoihin.

Rikollisen käyttäytymisen ennustaminen: psykiatrisen potilaan rikosriskin ennustaminen pelkän persoonallisuusprofiilin perusteella (esim. tekoäly analysoi potilastietoja ja persoonallisuustestejä ja antaa ennusteen siitä, onko potilas vaarassa syyllistyä väkivaltarikokseen). Tai tekoäly auttaa päihderiippuvaisten potilaiden rikosriskin arvioinnissa (esim. tekoäly käyttää tietoja aiemmista rikoksista, huumeiden käytöstä ja hoitovasteesta), mutta lopullisen päätöksen tekee ihminen.

Kasvojentunnistustietokantojen luominen/laajentaminen internetin tai valvontakameroiden kuvista: Terveydenhuollon työntekijöiden kasvojentunnistusjärjestelmä, joka perustuu internetistä haravoituihin kuviin (esim. tekoäly vertaa sairaalan työntekijöiden kasvoja laajennettuun kasvojentunnistustietokantaan, joka on rakennettu netistä kerätyistä kuvista). Tai potilastietokantojen automaattinen laajentaminen netistä kerätyillä kasvojentunnistuskuvilla.

Tunteiden päättelemiseksi käytettävät tekoälyjärjestelmät työpaikoilla ja oppilaitoksissa: Tekoäly analysoi sairaalan työntekijöiden kasvonilmeitä arvioidakseen heidän työmotivaationsa ja sitoutuneisuutensa.

Tunteentunnistusjärjestelmät (tunnistavat tai päättelevät luonnollisten henkilöiden tunteita/aikomuksia biometristen tietojen perusteella): Potilaan kivun tunnistaminen tekoälyllä (esim. tekoäly arvioi potilaan kasvojen ilmeitä ja äänenpainoa kivun voimakkuuden määrittämiseksi). Tai tekoäly analysoi potilaan äänenpainoa ja kasvonilmeitä arvioidakseen masennuksen tai ahdistuksen vakavuutta. Tunteentunnistusjärjestelmät ovat sallittuja lääketieteellisissä tarkoituksissa.

Biometrinen luokittelujärjestelmä ja reaaliaikainen biometrinen etätunnistusjärjestelmä

Esimerkki

Suurin osa biometrisistä terveyssovelluksista on sallittuja, kunhan niitä ei käytetä syrjivään luokitteluun tai ilman suostumusta julkisessa tilassa. Esimerkiksi tekoäly analysoi verkkokalvon biometrisiä piirteitä tunnistaakseen diabeteksen aiheuttamat muutokset. Biometriset luokittelujärjestelmät, jotka jakavat potilaat ryhmiin rodun, poliittisten mielipiteiden, uskonnollisen vakaumuksen, seksuaalisen suuntautumisen tms. perusteella, ovat kiellettyjä.

Reaaliaikainen biometrinen etätunnistus julkisessa tilassa: kiellettyä, jos sitä käytetään lainvalvontaan ilman erityislupaa. Esim. jos sairaala käyttäisi tekoälyä tunnistamaan potilaita julkisissa tiloissa ilman suostumusta.

Lisätietoja