Hallusinaation riski tekoälysovelluksissa
Hallusinaatio (hallucination) tekoälysovelluksissa (AI) ja erityisesti chattibot-malleissa kuten ChatGPT:ssä, tarkoittaa tilannetta, jossa AI-malli tuottaa tekstiä tai teoksia, jotka eivät perustu pelkästään relevanttiin dataan, vaan johonkin muuhun tiedonlähteeseen, jonka AI näkee soveltuvana. Tämä voi tapahtua, kun malli on koulutettu suurella määrällä tietoa ja se muodostaa kaavoja tai yhteyksiä, jotka eivät ole todellisia, mutta vaikuttavat siitä siltä. …