Siirry sisältöön
Etusivu Ajankohtaista Suuren riskin tekoäly EU:ssa – mihin suuntaan sääntely kehittyy?

Suuren riskin tekoäly EU:ssa – mihin suuntaan sääntely kehittyy?

EU:n komissio on avannut tärkeän kuulemisen, joka vaikuttaa suoraan terveysteknologia-alan tulevaan toimintaympäristöön. Onko nykyinen lähestymistapa suuririskisen tekoälyn luokitteluun toimiva vai pitäisikö suuntaa muuttaa?

Miksi tällä kuulemisella on väliä?

Euroopan komission käynnistämä kohdennettu kuuleminen suuren riskin tekoälyn luokittelusta (avoinna 18.7.2025 asti) tähtää siihen, että tekoälyasetuksen (AI Act) keskeisin osa – riskiperusteinen lähestymistapa – saataisiin täsmälliseksi ja oikeasuhtaiseksi. Juuri nyt ratkaistaan, mitkä tekoälyjärjestelmät määritellään suuririskisiksi järjestelmiksi, ja siten kuuluvat tiukimpien vaatimusten piiriin.

Terveysteknologia-alalle kyse ei ole pelkästä sääntelystä, vaan innovaation mahdollisuuksista ja esteistä. Esimerkiksi kliinisissä sovelluksissa, diagnostiikassa ja digiterveyden etäpalveluissa käytetyt tekoälyratkaisut voivat helposti päätyä suuren riskin luokkaan, vaikka niiden tosiasiallinen riskitaso olisi matala ja käyttötarkoitus selkeästi rajattu.

Samalla on tunnustettava, että sääntelyn tavoitteet, kuten potilasturvallisuus, perusoikeuksien suoja ja vastuullinen tekoälyn käyttö, ovat terveydenhuollossa aidosti tärkeitä ja perusteltuja. Kyse ei ole joko–tai -vaihtoehdoista, vaan sääntelyn oikeasuhtaisuudesta.

Kolme keskeistä havaintoa ja niihin liittyvät haasteet

1. Liian laaja luokittelu uhkaa tukahduttaa innovaatiotoiminnan

Tällä hetkellä tekoälyasetuksen liitteet I ja III luokittelevat suuria määriä terveysteknologian järjestelmiä automaattisesti suuren riskin piiriin. Erityisesti liitteen III laaja-alaiset määritelmät (esim. ”essential services – olennaiset palvelut”) ovat ongelmallisia, koska ne eivät ota huomioon yksittäisten järjestelmien tosiasiallista vaikutuspiiriä tai käyttötarkoitusta.

Esimerkiksi etäseurantasovellus, joka tukee potilasta verenpainelääkityksen ottamisessa, voi nykyisellään päätyä samaan riskikategoriaan kuin autonominen kirurginen robotti.

Tällaisessa sovelluksessa kliininen päätösvalta säilyy ihmisellä, eikä järjestelmä itsessään tee potilasturvallisuutta koskevia päätöksiä. Siksi suuren riskin sääntely saattaa vaikuttaa ylimitoitetulta.

2. ”Turvakomponentin” käsite vaatii selkeytystä

Tekoälyasetuksen artikla 6(1) viittaa tekoälyjärjestelmiin, jotka toimivat osana muiden tuotteiden ”turvakomponentteja”. Tämä määritelmä on erityisen hankala terveysteknologiassa, jossa järjestelmät ovat usein päätöksenteon tukena, mutta eivät yksin vastuussa kliinisistä päätöksistä.

Nykyinen sääntelylogiikka heijastaa kone- ja laiteturvallisuuden perinnettä, jossa komponentin virheellisyys johtaa suoraan fyysiseen vaaraan. Digitaalisessa terveysteknologiassa riski syntyy harvoin yksittäisestä algoritmista. Tarvitaan selkeämpiä erotteluja järjestelmien itsenäisyyden ja vastuunjaon perusteella.

3. Epäselvä suhde yleiskäyttöisiin (GPAI) järjestelmiin

Yleiskäyttöisten (GPAI) tekoälyjärjestelmien käyttö yleistyy myös terveysalalla, esimerkiksi kielimalleissa, kuvantulkinnassa ja dokumentaatiossa. Kuulemisen osiossa 3 käsitellään GPAI:n ja riskiluokittelun välistä suhdetta, ja tämä keskustelu on olennaisen tärkeä.

Jos GPAI-järjestelmiä ei käsitellä EU:ssa yhtenäisesti, on vaarana, että sama teknologia saa eri riskiluokituksen eri maissa tai sektoreilla. Tällainen sääntelyn sirpaloituminen heikentää markkinoiden ennakoitavuutta ja investointihalukkuutta.

Yhteenveto: sääntelyä, joka mahdollistaa, ei tukahduta

Tulevat ohjeet suuren riskin tekoälyn luokittelusta muodostavat tekoälyasetuksen käytännön selkärangan. Terveysteknologian näkökulmasta sääntelyn on oltava älykästä, riskiperusteista ja dynaamista, jotta se tukee terveysinnovaatioita ja suojaa potilasturvallisuutta oikeasuhtaisesti.

Kutsumme jäsenistömme mukaan vaikuttamaan – palautteella on nyt merkitystä.