Hallusinaation riski tekoälysovelluksissa
Hallusinaatio (hallucination) tekoälysovelluksissa (AI) ja erityisesti chattibot-malleissa kuten ChatGPT:ssä, tarkoittaa tilannetta, jossa AI-malli tuottaa tekstiä tai teoksia, jotka eivät perustu pelkästään relevanttiin dataan, vaan johonkin muuhun tiedonlähteeseen, jonka AI näkee soveltuvana. Tämä voi tapahtua, kun malli on koulutettu suurella määrällä tietoa ja se muodostaa kaavoja tai yhteyksiä, jotka eivät ole todellisia, mutta vaikuttavat siitä siltä. Tämä AI:n ominaisuus on sekä uhka että mahdollisuus, riippuen tavoitteesta ja käyttötarkoituksesta.
AI:n hallusinaatio mahdollisuutena
Mahdollisuuden saralla, varsinkin visuaalisia teoksia tehtäessä AI:n, kuten vaikka Midjourney, Dall-E 2.0 ja Stable Diffusion, hallusinointi saattaa tuottaa kiinnostavia kuvia. Nämä voivat toimia joko valmiina teoksina, jossa promptaaja (tekoälyn ohjaaja) voidaan nähdä taiteilijana tai sitten hallusinaatiot voivat toimia taiteilijan inspiraationa tuottaa käsityönä tehtyjä teoksia.
Tässä kontekstissa on hyvä muistaa, että vaikka nyt pohditaankin taiteen inflaatiota, niin pelkkä tekoälyn tuottama hieno kuva ei vielä ole taidetta per se. Tekoälyn tuottama kuva voi toki olla OSA taidetta, mutta se on eri asia ja vasta yleisö määrittelee sen, onko tekoälyavusteinen taide taas kiinnostavaa. Osmo Juhani Räihä määritteleekin loistavassa kirjassaan Miksi nykymusiikki on niin vaikeaa (Atena, 2021) taiteen seuraavasti:
”Taiteen tehtävä on olla vertauskuva. Yleisön tehtävä on kokea, minkä vertauskuva se on. Kokemus on subjektiivinen, joten jokainen kokemus on oikea.” … ”Taide on rakenteellisesti yhteiskunnan vastaista. Yhteiskunnan toimintaedellytys on kuri, taiteen lähtökohta ja päämäärä on kurittomuus. Yhteiskunta kuitenkin tarvitsee taidetta, koska taide osoittaa kurin rajat. Taiteen tarkoitus ei silti ole rikkoa lakeja, vaan vain laajentaa ajatteluamme ja tarkentaa käsitystämme siitä, millainen ympärillä oleva maailma on. Onhan kuri muutakin kuin lait. Yksi taiteen tehtävistä onkin paljastaa tabuja ja toisinaan myös rikkoa niitä.”
Lähde: Miksi nykymusiikki on niin vaikeaa (Osmo Juhani Räihä, Atena, 2021)
Kaupallisen puolen visuaalinen työ – se sellainen, jolla ei ole taiteen funktiota – taas on todella suuren mullistuksen äärellä prosessin nopeutuessa hurjasti. Tästä linkistä voi katsoa vaikka kuvittaja Dave McKeanin haastattelun aiheesta.
AI:n hallusinaatio riskinä
Uhkapuolen käytännön esimerkkinä tekoälyn hallusinointi (brändi)markkinoinnin saralla voisi olla esim. seuraava skenaario:
ChatGPT saa tietoja brändin kohderyhmästä ja se oppii kaavoja siitä, miten kohderyhmä ajattelee ja toimii. Kun malli sitten saa pyynnön tehdä asiakkaissa luottamusta lisäävä kampanja, saattaa AI tuottaa näkemyksen, joka perustuu hallusinaatioon. Näin tapahtuu siksi, että mikäli kaikkea tarvittavaa tietoa ei ole saatavilla, keksii AI sen uskottavasti itse. Näin voikin olla, että tekoälyä sokeasti seuraava saattaakin päätyä tuhoamaan luottamusta ja arvoa, tai ainakin hukkaamaan resursseja. Hallusinaation riskit AI:ssa ovatkin totta puhuen – ainakin vielä – merkittäviä mitä tulee ei-visuaalisiin sovelluksiin.
Vaikka kuulun itse tekki-intoilijoihin, ja olen tekoälystä kirjoittanut paljonkin historiassa sekä täällä että Linkkarissa, ja olen kehityksestä enemmän innoissani kuin huolissani (vaikka hiukan myös jälkimmäistä), niin mielestäni on erityisen tärkeää, että ihmiset ja yritykset ovat tietoisia hallusinaation mahdollisuudesta tekoälyissä. Tällä hetkellä, tammikuussa 2023, ChatGPT-hypen käydessä kuumana, voi faktojen tarkistus unohtua, varsinkin kiireessä ja koska tuotettu tieto saattaa näyttää hyvinkin aidoilta ja asialliselta. Olen aiemmin pohtinut tarkemmin hallusinaation riskejä akateemisen tutkimuksen saralla täällä.
Helpoin tapa välttää hallusinaation riski tekoälysovelluksissa
”Helpoin” tapa välttyä pahimmilta hallusinaatioperäisiltä virheiltä on pyytää asiantuntijan näkemykseen merkittävän lähteet ja dataviittaukset selkeästi, vaikka toki se lisääkin työmäärää sekä näkemyksen synnyttäjälle että tarkistajalle. Tämä toimintatapa on varmasti tuttu jokaiselle korkeakoulusta valmistuneelle. Pikaohjeen lähteiden oikeaoppiseen kirjaamiseen Harvard-tyylillä löydät esimerkiksi täältä. Tämä ei kuitenkaan täysin poista riskiä, sillä ChatGPT osaa myös luoda aidolta näyttäviä lähteitä, niiden ollessa ihan tuulesta temmattuja.
Lisäys 24.3.2023: ChatGPT:n uudempi versio, GPT-4, osaa jo lähteiden merkinnän merkittävästi paremmin ja se on myös useammin oikeassa. Edelleen kuitenkin hallusinaation riski on merkittävä, eikä GPT-4:nkään sanomisiin kannata sokeasti luottaa. Sen sille käsin syötetyistä teksteistä se on varsin pätevä tekemään sisältöanalyysejä. Kts. esimerkiksi LinkedIn-kirjoitukseni aiheesta “How to use GPT-4 to analyze and summarize any textual content”.
Disclaimer
Tämä kirjoitus “Hallusinaation riski tekoälysovelluksissa” on kirjoitettu yhteistyössä ChatGPT:n kanssa. Pyysin sitä kertomaan mitä hallusinaatio tarkoittaa tekoälykontekstissa ja antamaan pari esimerkkiä. Sain pienellä jumpalla vastaukseksi alla olevan, jonka pohjalta kirjoitin yllä olevan. Tämä tulee varmasti myös olemaan tulevaisuudessa yhä useammin sisällöntuotantomalli monissa blogeissa, sosiaalisessa mediassa ja myös uutisissa.
Tekoälyn tuottama pohjateksti
Hallucination in AI refers to the phenomenon where a model generates output that is not based on the input it was given, but rather on some other source of information or previous experience. This can occur when a model is trained on a large amount of data and it learns patterns or associations that are not actually present in the input it is currently processing. As a result, the model may generate output that is not accurate or relevant to the input.
One example of this is in computer vision, where a model might be trained on a large dataset of images of animals and then when presented with an image of a chair, the model might identify it as an animal based on some features it learned from the training data.
The risks of hallucination in AI include the production of inaccurate or irrelevant information, which can lead to poor decision-making and wasted resources. In some cases, it can even be dangerous if the model is used in critical applications such as self-driving cars or medical diagnosis.
It can be difficult for a user to know when an AI model is producing hallucinated information, especially if the model is generating text or other output that is similar to what would be expected based on the input. However, there are some signs that can indicate that a model is producing hallucinated information such as output that is completely unrelated to the input, contain factual errors or inconsistencies, or overly specific or detailed.
It’s important to keep in mind that AI models are not infallible and they can make mistakes, so it’s always a good idea to verify any information that is generated by an AI model before using it.