Yksilön vastuusta tekoälyn käyttäjänä

Yksilön vastuusta tekoälyn käyttäjänä

Loading the Elevenlabs Text to Speech AudioNative Player...

On ollut kiinnostavaa lukea, että sekä EU että Valkoinen talo ovat sitä mieltä, että pääsääntöisesti avoimen lähdekoodin tekoälykehitystä ei tarvitse toistaiseksi rajoittaa. Ainakaan suljettujen mallien mittakaavassa. Tämä toivottavasti kannustaa toimijoita laajojen kielimallien kehityksen läpinäkyvyyteen ja kehityksen resurssien allokoimiseen avoimen lähdekoodin puolelle.

On silti hyvä olla realisti ja tunnustaa, että ne varsinaiset ”frontier mallit”, eli ne parhaista parhaat laajat kielimallit, kuten tällä hetkellä OpenAI:n Omni ja Anthropicin Claude-3.5 Sonnet, ovat isolla rahalla kehitettyjä suljettuja malleja. Niitä uskon parhaiden mallien olevan myös jatkossa. Toki löytyy jo poikkeuksia, kuten tätä kirjoittaessa osin, ja melko avoimella Llama 3.1 lisenssillä, julkaistu Metan Llama-3 400B. Voi olla, että se jää Euroopassa ominaisuuksiltaan torsoksi ”EU:n arvaamattoman sääntelyn takia”. Onkin valitettavasti mahdollista, että Eurooppa jää tulevaisuudessa puuhastelemaan pienillä avoimen lähdekoodin kilkuttimilla, kun muu maailma rymistelee kohti yltäkylläisyyden aikaa.

Basically, if you want something, you can just have it. Essentially, AI and robotics will drop the cost of goods and services to almost nothing.”

Elon Musk futuristi Peter H. Diamandisin blogissa 19.4.2024

Onko algoritmien säätely vastuun pakoilua?

Kun keskustellaan avoimista ja suljetuista tekoälymalleista ja säätelystä, huomio keskittyy valitettavan usein niiden haittoihin: mitä pahaa tekoälyllä voi tehdä. Yksi keskeinen seikka jää usein keskusteluissa huomiotta: yksilön vastuu. Kuitenkin, ainakin tällä hetkellä AGI (Artificial General Intelligence, eli keinotekoinen yleinen älykkyys) on vielä scifiä, eivätkä edes semi-autonomiset tekoälyagentit vielä toimi kovin hyvin. Näin ollen kaikki mahdolliset tekoälyllä tehdyt rikokset, informaatiovaikuttaminen ja kognitiivinen sodankäynti ovat ihmisten aikaansaamia.

Vuoden 2024 tekoälyt ovat vielä niin sanottuja kapeita tai heikkoja tekoälyjä (Narrow AI), ja niiden tehtävä on auttaa ihmistä (Miloski 2023). Kapea-alaista tekoälyä ei tule sekoittaa autonomisesti toimivaan yleisen tekoälyn (Artificial General Intelligence, AGI, Strong AI) tai koko ihmiskuntaa älykkäämmän super-tekoälyn (Artificial Super Intelligence, ASI) käsitteisiin. Ainakin toistaiseksi ne ovat vielä spekulatiivisia teknologioita.

Niittymaa & Luoma-aho, Tekoälykäs viestintä (2024)

Tässä keskustelussa ei juuri kenellään tunnu olevan kiinnostusta mennä syvemmälle toiminnan syihin, sillä vastaukset eivät ole mitä ilmeisemmin miellyttäviä. Esimerkiksi nuorison syrjäytyminen, segregaatio, sosio-ekonominen epätasa-arvo, ja niitä seuraavat päihde- ja mielenterveysongelmat, kun vaativat erilaisia lähestymistapoja kuin mitä vallitseva poliittinen diskurssi tuntuu mahdollistavan. Suomessakin nyky-hallituksen poliittisen päätöksenteon narratiivina tuntuu olevan “pakko leikata, koska on pakko leikata”, vaikka leikkausten tehokkuudesta on eriäviä näkemyksiä huippuasiantuntijoiden keskuudessa.

Näen tämän velkalaivaretoriikan kautta; nyt tehdään isoa muutosta. Velkataso meillä ei ole mitenkään hälyttävä muihin euromaihin nähden, mutta kotitaloudet kärsivät korkeista koroista eri tavalla kuin vaikka Saksassa. Siksi valtionvelka on voitu nostaa jutuksi, jonka varjolla tehdä isoja reformeja.

Vanhempi yliopistonlehtori Markku Sippola, Imagessa 26.7.2024

Leikkausten sijaan katse tulevaan

Sen sijaan, että pohditaan mistä leikataan ja miten paljon, pitäisi nyt investoida ainakin tulevaisuuteen ja koulutukseen enemmän kuin koskaan – vaikka sitten velaksi. Tekoälyn kehitys avaa ennennäkemättömiä mahdollisuuksia tiedon ja osaamisen demokratisoimiseen. Jos esimerkiksi OpenAI:n teknologiajohtaja Mira Muratin lupaukset pitävät paikkaansa, tavallisen kansan on jo vuoden 2025 loppuun mennessä mahdollista käyttää tohtoritasoista tekoälyassistenttia.

Toteutuessaan tämä voi  tasoittaa tiedollista epätasa-arvoa ja avata uusia ovia oppimiselle, innovaatioille ja arvonluonnille kaikissa yhteiskuntaluokissa. Tästä näkökulmasta tekoälyn mahdollisimman vapaa kehitys, oli kyseessä sitten avoin tai suljettu malli, voi olla avain parempaan tulevaisuuteen. Ainakin jos keskitymme oikeiden kysymysten kysymiseen. Tämä taas vaatii entistä korkealaatuisempaa koulutusta kriittiseen ajatteluun, asiakaslähtöisyyteen ja innovaatioiden toteuttamiseen. Siitä, että huippuälykäs tekoäly tietää luotettavasti vastauksia vaikeisiinkin kysymyksiin, voi olla vielä pitkä matka varsinaiseen arvontuotantoon.

Yksilön vastuusta tekoälyn käyttäjänä

Samalla on kuitenkin korostettava yksilön vastuuta näiden voimakkaiden työkalujen käyttäjinä – tämäkin vaatii panostuksia ja koulutusta. On vielä aikaista haaveilla eettisten päätösten ulkoistamisesta algoritmeille. Sen sijaan meidän on sekä kannettava vastuu teoistamme että opittava käyttämään tekoälyä viisaasti ja tarvittaessa tehokkaasti myös pahantahtoisia toimijoita vastaan. Sekin kun on realismia, että säädeltiin tekoälyjä miten tahansa, niin kaikki ihmiset, päättäjät ja valtiot eivät kunnioita länsimaista etiikkaa, demokratiaa tai yksilön vapautta. Tämä on jo mainitusti huomioitava sekä AI-kasvatuksen että mediakasvatuksen, mutta myös kyberrikollisuuden torjunnan ja sota- ja puolustusvoimien asianmukaisissa resursseissa.

Nuorten verkkorikoskierre alkaa usein lievemmillä rikoksilla, jotka voivat ajan myötä kehittyä yhä vakavammiksi taloudellisesti motivoituneiksi rikoksiksi. Viime vuosien aikana nuorten tekemä kyberrikollisuus on kasvanut. Usein nuoret eivät tiedosta laillisen ja laittoman toiminnan rajoja, jolloin he tietämättään syyllistyvät lainvastaiseen toimintaan.

Poliisi.fi, Ajankohtainen katsaus kyberrikollisuuteen (luettu 2.8.2024)

Näin ollen tekoälyn kehittämisen säätelyä parempi strategia on mielestäni kansallisella tasolla tapahtuva lainsäädäntö, joka keskittyy rajaamaan mitä tekoälyllä ei saa tehdä ja tosiasiallisesti nykylainsäädäntö määrittää ja kattaa jo varsin paljon. Haittojen mitigoinnissa on nähdäkseni kyse lähinnä tutkintaresurssien puutteista.

Tekoäly on valtava mahdollisuus – kuin saisi mahtavan lohikäärmeen ratsuksi, mutta sen todellinen voima realisoituu vain, jos ymmärrämme sen toimintaa ja olemme valmiita kantamaan vastuumme ohjaksissa. Ja ennen kaikkea on tyhmää antaa moinen mahdollisuus muille vain siksi, että ei ole valmis käsittelemään vaikeita kysymyksiä.

Otsakekuva: Nainen ratsastaa lohikäärmeellä
”Riding The AI-Beast” (AI-kuvitus, 2024)

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *