Joonas Mikkilä

EU:n historiallinen tekoälyasetus nytkähti eteenpäin – tutustu Teknologiateollisuuden koontiin

|
Joonas Mikkilä

Tekoäly oli yksi vuoden 2023 polttavimmista puheenaiheista, kiitos tekstiä ja kuvaa generoivien sovellusten kuten ChatGPT:n ja Midjourneyn läpimurron. Osin tämän takia myös Euroopan unionin tekoälyasetuksen neuvottelut keräsivät syyskaudella huomiota, jollaista vain harva teknologiaa tai digitaalista taloutta koskeva Bryssel-säädös on saanut osakseen.  

Euroopan parlamentti ja neuvosto saavuttivat säädöksen päälinjoista alustavan sovun joulukuun alussa. Yksityiskohtia hiottiin vielä tammikuu, ja helmikuussa jäsenmaiden pysyvät edustajat ja parlamentin vastuuvaliokunnat näyttivät lopputulokselle vihreää valoa. Lopulliset äänestykset ovat huhtikuussa. Asetus astuu näillä näkymin voimaan ensi kesänä, ja sen vaatimuksia ryhdytään soveltamaan asteittain seuraavan kolmen vuoden aikana. 

EU:sta tulee näin ensimmäinen merkittävä markkina, joka asettaa tekoälyn kehittäjille ja käyttäjille kokonaisvaltaisen ja sitovan säännöstön. Se, kopioivatko muut maat eurooppalaisia normeja, jää nähtäväksi. Tekoäly on nopeasti kehittyvä ja taloudelle ja turvallisuudelle kriittisen tärkeä teknologia-alue. Luultavasti sääntelijät muualla arvioivat tarkkaan EU-säännösten innovaatio- ja muita vaikutuksia ennen kuin tarttuvat suitsiin.  

Vaikka lopullista säädöstekstiä ei vielä ole, pystymme neuvottelutuloksen pohjalta tunnistamaan asetuksen keskeiset sisällöt. Poliittisen kädenväännön myötä syntynyt kompromissi on kiharainen kokonaisuus ja soveltamisalaltaan laajempi kuin Euroopan komission alkuperäinen ehdotus keväältä 2021. Sulateltavaa siis riittää.  

Olemme Teknologiateollisuudessa koonneet neuvottelutulosta koskevat havaintomme infopaketiksi, jonka keskeiset osat käymme läpi myös videomuodossa. Tulkintamme ovat alustavia ja niihin voi tulla muutoksia lopullisen asetuksen tultua julki.

Vaikka et ehtisi tutustumaan koontiimme, on tekoälysäädöksestä hyvä tietää ainakin seuraavat asiat:

Soveltamisala
  • Asetus koskee EU:ssa markkinoille saatettavia ja EU:ssa käyttöönotettavia tekoälyjärjestelmiä, jotka siis ovat tekoälyn käytännön sovelluksia, sekä yleiskäyttöisiä tekoälyämalleja, kuten suuria kielimalleja, joille monet tekoälyjärjestelmät pohjautuvat.
  • Yksinkertaiset ohjelmistot ja ihmisen asettamia sääntöjä suoraviivaisesti seuraavat päätöksentekojärjestelmät eivät tule asetuksen piiriin.
  • Ilmaiset, avoimen lähdekoodin järjestelmät ja mallit tulevat pääosin säädöksen piiriin.
  • Asetuksen ulkopuolelle jäävät tutkimus- ja kehitysvaiheessa olevat järjestelmät ja mallit sekä järjestelmät, jotka on tarkoitettu yksinomaan sotilaalliseen, puolustukselliseen tai kansallisen turvallisuuden käyttöön.  
Turvallisuussäädös
  • Asetuksen tavoitteena on suojata terveyttä, turvallisuutta ja perusoikeuksia tekoälyjärjestelmien ja -mallien käytöstä aiheutuvilta riskeiltä ja haitoilta.
  • Säädös pyrkii asettamaan tekoälyjärjestelmien ja -mallien vaatimukset riskiperusteisesti. Olennaista on tarjoajana tai käyttöönottajana tietää, mihin riskiluokkaan järjestelmä tai malli kuuluu, jotta voi täyttää velvoitteensa.  
Tekoälyjärjestelmien riskiluokittelu
  • Kestämättömiä riskejä sisältävien järjestelmien käyttö kielletään. Esimerkkinä voidaan mainita sosiaalinen pisteytys. Joidenkin kiellettyjen järjestelmien käyttö on sallittua tietyissä tarkkaan rajatuissa tapauksissa.
  • Korkean riskin järjestelmien käyttö on sallittua, kunhan järjestelmä täyttää sille säädetyt vaatimukset. Korkean riskin piiri kattaa tuotteita ja niiden turvakomponentteja, jotka ovat EU:n tuoteturvallisuuslainsäädännön piirissä, kuten koneet. Lisäksi korkean riskin piiriin luetaan muita määriteltyjä käyttötapauksia, kuten rekrytointi ja kriittisen digitaalisen infrastruktuurin hallinnointi. Korkean riskin vaatimuksista on mahdollisuus poiketa tietyissä määritellyissä tapauksissa.
  • Rajoittuneita riskejä käsittävien generatiivisten ja muiden järjestelmien tarjoamiselle ja käytölle asetetaan tiettyjä avoimuusvaatimuksia. Ihmisen on esimerkiksi saatava tieto siitä, että hän kommunikoi tekoälyjärjestelmän kanssa.
  • Vähäisen riskin järjestelmille ei aseteta vaatimuksia. Suurin osa järjestelmistä, mukaan lukien valtaosa teollisuuden käyttötapauksista, lukeutuu tähän luokkaan.  
Yleiskäyttöisten tekoälymallien riskiluokittelu
  • Kaikkia malleja koskevat tietyt avoimuus- ja informointivaatimukset. Näitä ovat muun muassa mallin tekoälyjärjestelmäänsä integroivien jatkokehittäjien informoiminen mallin ominaisuuksista sekä riittävän yksityiskohtaisen tiivistelmän laatiminen mallin koulutukseen käytetyistä sisällöistä.
  • Järjestelmäriskejä sisältävien mallien, jotka ovat tyypillisesti isoimpia perustamalleja, on lisäksi täytettävä tietyt lisävaatimukset, mukaan lukien mallin arviointi ja vastatestaus.  
Asteittainen soveltamisaikataulu
  • Kielletyt käyttötapaukset soveltuvat, kun asetuksen voimaan astumisesta on kulunut 6 kuukautta.
  • Yleiskäyttöisten tekoälymällien vaatimuksia ryhdytään soveltamaan, kun voimaan astumisesta on kulunut 12 kuukautta.
  • Rajoittuneen riskin järjestelmien ja tiettyjen korkean riskin järjestelmien vaatimuksia aletaan soveltaa, kun voimaan astumisesta on kulunut 24 kuukautta. Loput korkean riskin järjestelmät tulevat sovellettaviksi 36 kuukauden kuluttua säädöksen voimaan astumisesta.

Tekoälyasetuksen riskiluokittelu

EU:n tekoälyasetuksen riskiluokittelu kaaviokuvana.

Lisätiedot:
Johtava asiantuntija Joonas Mikkilä, puh. 045 1296 791, joonas.mikkila@teknologiateollisuus.fi, X: @JoonasMikkila