En KI-hallusinasjon er når en KI-modell presenterer noe usant som om det er fakta – og gjør det med full selvsikkerhet. Modellen finner ikke bare på fakta i blinde; den genererer det som statistisk sett høres riktig ut, selv om det ikke er det.

Begrepet er litt misvisende: KI-en «ser» ikke ting som ikke er der, slik mennesker gjør under en hallusinasjon. En bedre beskrivelse er kanskje «KI-konfabulering» – men hallusinasjon har festet seg.

Eksempler på hallusinasjoner

Hvorfor skjer det?

Språkmodeller genererer det mest sannsynlige neste ordet, ikke det sanneste. De har ingen intern sjekk mot virkeligheten – ingen database de verifiserer påstander mot.

Når en modell ikke «vet» svaret, gjetter den ikke bevisst. Den genererer rett og slett et sannsynlig-klingende svar basert på mønstre i treningsdataene. Og siden mønsteret «spørsmål → selvsikkert svar» er overrepresentert i treningsdataene, svarer modellen selvsikkert.

Hva hallusinerer KI mest?

Slik oppdager og unngår du hallusinasjoner

  1. Stol aldri blindt på kildehenvisninger. Søk opp og verifiser at artikkelen faktisk eksisterer.
  2. Be KI-en om å si «jeg vet ikke». Promptet: «Hvis du ikke er sikker, si det eksplisitt.» Dette hjelper.
  3. Bruk RAG eller verktøy med internettilgang for faktaspørsmål. Da henter KI-en fra reelle kilder.
  4. Dobbeltsjekk spesifikke tall, datoer og navn mot autoritative kilder.
  5. Still oppfølgingsspørsmål: «Er du sikker? Hvor vet du dette fra?» – noen ganger innrømmer KI-en usikkerhet da.

Vanlige spørsmål

Relaterte begreper