Blogi 11.3.2024

EU:n AI Act -tekoälysäädös muuttaa tapaa, jolla käytämme ja kehitämme tekoälyä

Digitaalinen yhteiskunta

Älykäs teollisuus

Tekoäly (AI), digitalisaation tuote, on kiinnittänyt kaikkien huomion siihen, miten se potentiaalisesti muokkaa yhteiskuntia. Samanaikaisesti normien, kuten lainsäädännön, avulla me myös muovaamme tekoälyä. Kiinnittäkäämme siis huomiomme myös siihen. 

Ensimmäinen kokemukseni lainsäädännön ja tekoälyn risteytyksestä oli 2010-luvun alussa, johtaessani tutkimusta AI-videokoosteiden käyttäjäkokemuksesta. Tutkimuksissa selvitimme ihmisen ja AI:n yhteistyöhön liittyviä kysymyksiä [1, 2]. Projektin sujuvan toteutuksen kannalta oli ratkaisevaa neuvotella tekijänoikeussopimukset yhdessä tekijänoikeusjärjestö TEOSTO:n kanssa ja yhdessä muotoilimmekin sopimuksen, joka mahdollisti uusien AI-innovaatioden kokeilun. 

Lainsäädäntö on muodollisesti voimassa oleva normi, jonka parlamentti päättää, ja jonka tarkoituksena on esimerkiksi ylläpitää järjestystä, suojella oikeuksia ja varmistaa turvallisuus. Kuitenkin lainsäädännön ja teknologian välillä on usein jännitteitä. Lakien luominen vie aikaa, ja sääntelyä nähdään joskus innovaatioiden hidastajana. Toisaalta tekoäly kehittyy suurella nopeudella ja sillä on valtava potentiaali esimerkiksi tehokkuuden ja hyvinvoinnin lisäämisessä. Tämä on herättänyt maailmanlaajuisen keskustelun tekoälyn ja lain suhteesta sekä siitä, mikä on vastuullinen lähestymistapa tekoälyyn. 

Vastuullisen lähestymistavan edistämiseksi Euroopan unioni on äskettäin hyväksynyt EU:n tekoälyasetuksen, jonka tarkoituksena on suojella kansalaisia tekoälyn negatiivisilta vaikutuksilta estämättä samalla innovaatioita. 

Mikä on EU:n AI Act -tekoälysäädös ja miksi minun pitäisi olla kiinnostunut siitä? 

Lain tarkoituksena on asettaa sääntöjä tekoälyn (AI) käytölle, jotta voidaan käsitellä riskejä ihmisten terveydelle, turvallisuudelle ja perusoikeuksille sekä ympäristölle. Vaikka blogin kirjoitushetkellä säädöksen yksityiskohdista vielä keskustellaan, nykyinen käsitys on, että lakia aletaan täysimääräisesti soveltaa 24 kuukautta sen voimaantulon jälkeen, ja asetetut vaatimukset riippuvat tekoälyjärjestelmien riskiluokista [3]. 

Laki vaikuttaa kaikkiin julkisiin ja yksityisiin organisaatioihin, jotka käyttävät tekoälyjärjestelmiä EU:ssa tai vaikuttavat EU:n kansalaisiin. Nykyisessä versiossa tekoäly määritellään ”a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.” Tämä vastaa OECD:n määritelmää. 

Tekoälyjärjestelmät luokitellaan ja niitä säännellään neljän riskitason perusteella: 

Minimaalinen riski – Useimmat tekoälyjärjestelmät. Nämä noudattavat olemassa olevaa lainsäädäntöä, eikä niihin liity lisävaatimuksia. 

Suuri riski – Tekoälyjärjestelmät, joilla voi olla negatiivinen vaikutus turvallisuuteen tai perusoikeuksiin. Suuren riskin käyttöalueet tullaan erikseen määrittelemään, ja esimerkiksi terveydenhuolto- ja koulutusjärjestelmät luokitellaan tällä hetkellä suuren riskin riskitasoon. Lisäksi asetetaan vaatimustenmukaisuuden arviointi. Tämän avulla pyritään osoittamaan, että järjestelmä täyttää luotettavan tekoälyn vaatimukset, mikä tarkoittaa esimerkiksi asianmukaista tietojen laatua, läpinäkyvyyttä ja ihmisen valvontaa 

Ei-hyväksyttävä riski – Tämä riskitason tekoälyjärjestelmän käyttö kielletään, koska sen katsotaan rikkovan EU:n arvoja perusoikeuksien näkökulmasta. Joitakin esimerkkejä ovat tekoälyn käyttö sosiaaliseen luokitukseen, käyttäytymisen manipulointiin ja kasvojen kuvien keräämiseen. 

Vaatimus läpinäkyvyydestä – Joillekin tietyille tekoälyjärjestelmille asetetaan läpinäkyvyysvaatimukset. Esimerkiksi chatbotien osalta käyttäjien on tiedostettava, että he ovat vuorovaikutuksessa koneen kanssa. 

Lisäksi säädöksessä käsitellään sekä yleiskäyttöisiä että suuria generatiivisia tekoälymalleja. Niitä tarkastellaan erityisesti systeemisestä näkökulmasta, sillä vaikutusvaltaisella mallilla voi olla merkittävä vaikutus yhteiskuntaan ja se voi esimerkiksi levittää vinoumia. Yleiskäyttöisten tekoälyjärjestelmien tarjoajien on myös noudatettava läpinäkyvyysvelvoitteita ja varmistettava, että he kunnioittavat tekijänoikeuslakeja kouluttaessaan tekoälymalleja. 

Äskettäisessä New York Timesin oikeusjutussa OpenAI:ta vastaan, jossa NYT syyttää OpenAI:ta heidän sisällön käyttämisestä kielletyllä tavalla kielimallin kouluttamiseksi ilman lupaa, korostaa tekijänoikeusongelmien merkitystä [4]. Tämä tilanne tuo mieleen mahdolliset ongelmat, joita olisimme voineet kohdata tekoälyvideoprojektissamme, ellei tekijänoikeusjärjestöä olisi otettu mukaan. 

Tämän blogipostauksen kirjoitushetkellä uutta tietoa laista paljastuu lähes päivittäin. Äskettäin 892 sivun luonnosteksti vuosi julkisuuteen [5] ja koko ajan tapahtuukin paljon, joista asiasta kiinnostuneiden olisi hyvä pysyä ajan tasalla. 

Miten johdat tekoälyn käyttöönottoa ihmislähtöisesti organisaatiossasi?

Pysy ajan tasalla tekoälyn kehityksessä ja toimi sen mukaisesti 

EU:n tekoälyasetus ja muut sääntelyaloitteet, kuten Valkoisen talon luonnos tekoälyoikeuksien julistukseksi [6] ja GDPR, heijastavat jatkuvaa vuorovaikutusta teknologian ja yhteiskunnallisten normien välillä. 

Päättäjien, jotka haluavat hyödyntää tekoälyä täysimääräisesti, on tärkeää ymmärtää sen monipuolinen luonne. Tämä edellyttää pysymistä ajan tasalla lainsäädännön, teknologian, sosiaalisten normien ja yhteiskunnallisten vaikutusten muutoksista. 

Tekoäly muuttaa ihmisten roolia organisaatioiden prosesseissa, käytännöissä ja kulttuurissa. Tässä muutoksessa on tärkeää säilyttää asenne, joka pyrkii vastuullisesti lähestymään tekoälyä, joka on inklusiivinen, ottaa huomioon hyvinvoinnin ja näkee tekoälyn ennemmin yhteistyökumppanina kuin ihmisen korvaajana. Korostamme näitä teemoja Ethical Design -oppaassamme [7]. 

Olemme Goforella erikoistuneet tekoälyn monimutkaisuuteen. Innovoimme ja tutkimme mielellämme kanssasi mitä vastuullinen ja ihmiskeskeinen lähestyminen tekoälyyn tarkoittaa sinun organisaatiollesi. 

  1. Vihavainen, S. & al., Video as memorabilia: user needs for collaborative automatic mobile video production. CHI 2012, ACM Press. https://dl.acm.org/doi/10.1145/2207676.2207768 
  2. Vihavainen, S. & al., We Want More: Human-Computer Collaboration in Mobile Social Video Remixing of Music Concerts. CHI 2011, ACM Press https://dl.acm.org/doi/10.1145/1978942.1978983 
  3. EU Commission, Artificial Intelligence – Questions and Answers* https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683 
  4. New York Times sues Microsoft and OpenAI for ’billions’. https://www.bbc.com/news/technology-67826601 
  5. https://twitter.com/BertuzLuca/status/1749326217612820558 
  6. Blueprint for an AI Bill of Rights. MAKING AUTOMATED SYSTEMS WORK FOR THE AMERICAN PEOPLE https://www.whitehouse.gov/ostp/ai-bill-of-rights/ 
  7. Ethical design booklet. Gofore 2022. https://gofore.com/en/ethical-design-booklet/ 

data ja tekoäly

Sami Vihavainen

Principal Designer

Samilla on yli 15 vuoden kokemus ihmisten ja teknologian vuorovaikutuksen tutkimuksesta ja suunnittelusta. Hän on työskennellyt monenlaisissa rooleissa sekä akateemisessa että liiketoimintaympäristössä ja mm. tehnyt väitöskirjan liittyen tekoälyn käyttäjäkokemukseen.

Samin tavoitteena on suunnitella teknologioita ja palveluita, jotka lisäävät ihmisten ja yhteiskuntien hyvinvointia. Hän näkee, että digitaalisuuden ja tekoälyn kasvavan roolin kautta sekä arkielämässä että globaalien haasteiden ratkaisemisessa on entistä tärkeämpää ottaa yhteiskunnan tason tavoitteet, etiikka ja kestävyys huomioon suunnittelussa.

Takaisin ylös