EU AI Act 2026: mitä yritysten pitää tehdä nyt – riskit, sopimukset ja johdon vastuut
EU AI Act 2026: mitä yritysten pitää tehdä nyt – riskit, sopimukset ja johdon vastuut
Tiivistelmä: EU AI Act tuo vaiheittain voimaan velvoitteita tekoälyn käyttöön ja hankintaan, ja vuosi 2026 on monille yrityksille käytännön käännekohta. Aloita nyt AI-inventaario, riskiluokitus sekä hankinta- ja sopimusehtojen päivitys, jotta vastuut ja dokumentaatio ovat kunnossa ennen vaatimusten täysimääräistä soveltumista.
EU:n tekoälyasetus (EU AI Act) on ensimmäinen kattava tekoälyä koskeva oikeudellinen kehys EU:ssa. Se koskee sekä tekoälyjärjestelmien kehittäjiä että yrityksiä, jotka ottavat tekoälyä käyttöön tai hankkivat tekoälyratkaisuja kolmansilta toimittajilta. Asetusta sovelletaan vaiheittain, ja vuosi 2026 on monille yrityksille käytännön käännekohta: silloin tulevat sovellettaviksi mm. läpinäkyvyyttä koskevat velvoitteet sekä suuri osa vaatimuksista suuririskisille järjestelmille.
Tämä Insight on kirjoitettu liiketoiminnan näkökulmasta. Tarkoitus on auttaa johtoa, in-house juristeja, IT:tä ja hankintaa ymmärtämään: (i) mitä muuttuu 2026, (ii) missä sopimusoikeudelliset riskit tyypillisesti piilevät ja (iii) mitä kannattaa tehdä jo nyt.
Sisällysluettelo
- 1. Mikä EU AI Act on ja ketä se koskee?
- 2. Aikajana: keskeiset soveltamisajankohdat 2025–2027
- 3. Riskiperusteinen malli: mikä on yrityksellesi relevanttia?
- 4. Mitä yrityksen kannattaa tehdä nyt (2026-valmistautuminen)
- 5. Sopimusoikeudelliset riskit: palvelusopimukset, hankinta ja vastuunjako
- 6. AI-riskienhallinta ja johdon vastuut
- 7. EU AI Act compliance checklist yrityksille
- 8. Usein kysytyt kysymykset
1. Mikä EU AI Act on ja ketä se koskee?
EU AI Act asettaa velvoitteita tekoälyjärjestelmien elinkaarelle: suunnittelu, kehitys, markkinoille saattaminen, käyttöönotto ja käytön seuranta. Yrityksen näkökulmasta keskeistä on, että velvoitteet eivät kohdistu vain “tekoälyfirmoihin”. Usein velvollinen on myös käyttöönotosta vastaava yritys (esim. HR-järjestelmä, analytiikka- tai automaatiotyökalu, asiakaspalvelubotti tai päätöksenteon tuki).
Jos yrityksesi ostaa tekoälypohjaisia ratkaisuja (SaaS, alustat, integraatiot), tekoälyasetus on samalla hankinnan ja sopimusten hallinnan kysymys – ei vain compliance-muistilista.
Lisää sääntelyn kokonaisuudesta ja vastuullisuutta koskevasta EU-sääntelystä löydät palvelusivultamme: ESG & vastuullisuus – lakipalvelut yrityksille.
2. Aikajana: keskeiset soveltamisajankohdat 2025–2027
EU AI Actin soveltaminen on vaiheittaista. Yritysten kannalta olennaista on tunnistaa, milloin eri velvoitteet tulevat käytännössä vastaan:
- 2.2.2025: kielletyt tekoälykäytännöt sekä AI literacy (tekoälylukutaito) -velvoite alkavat soveltua.
- 2.8.2025: hallintomalli (governance) sekä yleiskäyttöisten tekoälymallien (GPAI) velvoitteet alkavat soveltua.
- 2.8.2026: asetus on lähtökohtaisesti kokonaisuudessaan sovellettava, ja mm. läpinäkyvyysvelvoitteet tulevat käytäntöön.
- 2.8.2027: osa suuririskisääntelystä (erityisesti säänneltyihin tuotteisiin integroidut järjestelmät) saa pidemmän siirtymäajan.
Yrityksen käytännön viesti: 2026 ei ole “kaukaista tulevaisuutta”. Jos tekoäly on jo tuotannossa (tai hankinnassa), valmistautuminen kannattaa aloittaa nyt – erityisesti hankinnan, sopimusehtojen ja sisäisen riskienhallinnan osalta.
3. Riskiperusteinen malli: mikä on yrityksellesi relevanttia?
Asetus luokittelee tekoälyn käytöt riskin mukaan. Yrityksille tyypilliset riskipisteet liittyvät seuraaviin:
3.1 Suuririskinen tekoäly (high-risk)
Suuririskisyys voi tulla vastaan esimerkiksi, jos tekoälyä käytetään:
- rekrytoinnissa, työntekijöiden arvioinnissa tai työvuorojen/työn ohjauksessa
- luottokelpoisuuden, vakuutusten tai palvelujen saatavuuden arvioinnissa
- turvallisuuskriittisissä ympäristöissä (esim. liikenne, infrastruktuuri)
Suuririskisissä järjestelmissä korostuvat dokumentaatio, riskienhallinta, laadukas data, lokitus ja ihmisen valvonta.
3.2 Läpinäkyvyysvelvoitteet (transparency)
Moni yritys kohtaa läpinäkyvyysvelvoitteet käytännössä nopeasti: jos käytössä on chatbotteja, generatiivista tekoälyä tai sisältöä, joka voi näyttää “ihmisen tuottamalta”, voi tulla velvoite kertoa käyttäjälle tekoälyn roolista ja varmistaa tunnistettavuus.
4. Mitä yrityksen kannattaa tehdä nyt (2026-valmistautuminen)
Yrityksen kannattaa edetä kahdella rinnakkaisella polulla:
- (A) Tekoälyn hallintamalli: omistajuus, vastuut, hyväksymisprosessit, riskien seuranta
- (B) Hankinta & sopimukset: toimittajan velvoitteet, dokumentaatio, audit-oikeudet, vastuunjaot
Käytännössä paras aloitus on AI-inventaario (mitä tekoälyä käytetään ja missä prosesseissa) sekä riskiluokitus (onko mukana suuririskisiä käyttötapauksia tai läpinäkyvyysvelvoitteita).
5. Sopimusoikeudelliset riskit: palvelusopimukset, hankinta ja vastuunjako
EU AI Act tuo sopimuksiin uuden “kerroksen” velvoitteita. Tyypillinen ongelma on, että yritys käyttää tekoälyä SaaS-palvelussa, mutta sopimuksessa:
- ei ole määritelty, kuka vastaa AI Act -vaatimustenmukaisuudesta
- ei saada riittäviä tietoja ja dokumentaatiota (esim. järjestelmän tarkoitus, rajoitteet, lokit)
- puuttuu audit- ja tarkastusoikeus tai oikeus vaatia korjauksia
- vastuunrajoitukset ja “as is” -ehdot tekevät riskistä käytännössä yksipuolisen
Suositus: päivitä hankinta- ja IT-sopimusten mallit niin, että ne kattavat vähintään: (i) compliance-vastuut, (ii) tiedonsaanti ja dokumentaatio, (iii) incident-ilmoitukset ja korjausvelvoitteet, (iv) alihankkijat ja dataketju, (v) vastuunjako ja vakuutukset.
6. AI-riskienhallinta ja johdon vastuut
Tekoälyyn liittyvät riskit ovat yhä useammin liiketoimintariskiä, eivät pelkkää “IT-riskienhallintaa”. Siksi johdon kannattaa varmistaa ainakin:
- AI-järjestelmien omistajuus ja päätöksenteko (kuka saa ottaa käyttöön ja millä ehdoilla)
- riskien seuranta ja raportointi (mitä mitataan ja miten poikkeamiin reagoidaan)
- henkilöstön osaaminen ja tekoälylukutaito (AI literacy)
- kriittisten prosessien “human-in-the-loop” -periaatteet (ihmisen valvonta)
7. EU AI Act compliance checklist yrityksille
- Tunnista tekoäly: listaa käytössä olevat AI-järjestelmät (myös SaaS ja alihankkijat).
- Luokittele riskit: onko mukana suuririskisiä käyttötapauksia tai läpinäkyvyysvelvoitteita?
- Arvioi sopimukset: vastuunjako, dokumentaatio, audit-oikeudet, incident-menettely.
- Rakenna hallintamalli: roolit, hyväksymisprosessit, seuranta ja raportointi johdolle.
- Kouluta: varmista tekoälylukutaito – erityisesti niille, jotka hankkivat tai käyttävät AI:ta päätöksenteossa.
- Valmistaudu 2026: priorisoi korjaavat toimet järjestelmiin, joissa on suora vaikutus työntekijöihin, asiakkaisiin tai kriittisiin prosesseihin.
Jos haluat arvioida tilanteen nopeasti, aloitamme tyypillisesti AI-kartoituksella ja sopimus- ja hankintaehtojen tarkastuksella – tavoitteena käytännöllinen ja johdettavissa oleva kokonaisuus.
8. Usein kysytyt kysymykset
1) Koskeeko EU AI Act yritystä, jos käytämme vain “valmista” AI-työkalua?
Usein kyllä. Vaikka et kehittäisi tekoälyä itse, olet tyypillisesti käyttöönottaja (deployer). Velvoitteet riippuvat käyttötarkoituksesta ja riskiluokasta.
2) Mitkä ovat tyypillisimmät riskit vuonna 2026?
Käytännössä: läpinäkyvyysvelvoitteet (esim. chatbotit ja generatiivinen AI), puutteellinen dokumentaatio toimittajalta sekä sopimuksissa epäselvä vastuunjako.
3) Pitääkö sopimuksiin tehdä muutoksia jo nyt?
Kyllä, jos AI on osa palvelua tai päätöksentekoa. Vanhoissa IT- ja SaaS-sopimuksissa AI Act -velvoitteet harvoin näkyvät, jolloin riski jää käyttäjäyritykselle.
4) Mistä kannattaa aloittaa, jos tekoälyä on käytössä useassa tiimissä?
AI-inventaario + riskiluokitus + hankinta- ja sopimusmallien päivitys. Näillä saat nopeasti hallittavuuden ja johdon näkyvyyden riskeihin.
Tarvitsetko apua EU AI Actiin valmistautumisessa?
Autamme yrityksiä rakentamaan käytännöllisen AI-governance -mallin, päivittämään sopimuksia ja hallitsemaan sääntelyriskejä liiketoimintaa tukevalla tavalla. Tutustu myös palveluihimme: ESG & vastuullisuus – lakipalvelut yrityksille.
Asiantuntija: Liene Krumina
Vastuullinen juristi: Liene Krumina, LKOS Law Office Oy