Generativ AI er fantastisk, men den præsenterer altid sine oplysninger med absolut autoritet. Hvilket er fantastisk, medmindre det hallucinerer sandheden.

Hallucinationer med kunstig intelligens (AI) lyder forvirrende. Du tænker sikkert: "Er hallucination ikke et menneskeligt fænomen?" Nå, ja, det plejede at være et udelukkende-menneske fænomen, indtil AI begyndte at udvise menneskelige egenskaber som ansigtsgenkendelse, selvlæring og tale anerkendelse.

Desværre påtog AI nogle negative egenskaber, herunder hallucinationer. Så ligner AI-hallucination den slags hallucinationer, som mennesker oplever?

Hvad er AI Hallucination?

Kunstig intelligens hallucination opstår, når en AI-model genererer output, der er anderledes end forventet. Bemærk, at nogle AI-modeller er trænet til med vilje at generere output, der ikke er relateret til input fra den virkelige verden (data).

For eksempel, top AI tekst-til-kunst generatorer, såsom DALL-E 2, kan kreativt generere nye billeder, vi kan mærke som "hallucinationer", da de ikke er baseret på virkelige data.

instagram viewer

AI Hallucination i store sprogbehandlingsmodeller

Lad os overveje, hvordan AI-hallucination ville se ud i en stor sprogbehandlingsmodel såsom ChatGPT. En ChatGPT-hallucination ville resultere i, at botten giver dig en forkert kendsgerning med en påstand, sådan at du naturligvis ville tage sådanne fakta som sandhed.

Enkelt sagt er det opdigtede udtalelser fra den kunstigt intelligente chatbot. Her er et eksempel:

Ved yderligere forespørgsel dukkede ChatGPT op med dette:

AI Hallucination i Computer Vision

Lad os overveje et andet felt af AI, der kan opleve AI-hallucination: Computer Vision. Quizzen nedenfor viser en 4x4 montage med to enheder, der ligner hinanden så meget. Billederne er en blanding af BBQ kartoffelchips og blade.

Udfordringen er at vælge kartoffelchips uden at ramme nogen blade i montagen. Dette billede kan se vanskeligt ud for en computer, og det er muligvis ikke i stand til at skelne mellem BBQ-kartoffelchips og -blade.

Her er endnu en montage med en blanding af puddel- og flossbollebilleder. En computer ville højst sandsynligt ikke være i stand til at skelne mellem dem, og derfor blande billederne.

Hvorfor opstår AI-hallucination?

AI-hallucination kan forekomme på grund af modstridende eksempler - inputdata, der narrer en AI-applikation til at fejlklassificere dem. For eksempel, når udviklere træner AI-applikationer, bruger de data (billede, tekst eller andet); hvis data ændres eller forvrænges, fortolker applikationen inputtet anderledes, hvilket giver et forkert output.

I modsætning hertil kan et menneske stadig genkende og identificere dataene nøjagtigt på trods af forvrængningerne. Vi kan mærke dette som sund fornuft – en menneskelig egenskab, AI endnu ikke besidder. Se, hvordan AI bliver narret med modstridende eksempler i denne video:

Vedrørende store sprogbaserede modeller som f.eks ChatGPT og dets alternativer, kan hallucinationer opstå fra unøjagtig afkodning fra transformeren (machine learning model).

I AI er en transformator en dyb læringsmodel, der bruger selvopmærksomhed (semantiske forhold mellem ord i en sætning) for at producere tekst, der ligner, hvad et menneske ville skrive ved hjælp af en encoder-dekoder (input-output) rækkefølge.

Så transformatorer, en semi-overvåget maskinlæringsmodel, kan generere en ny tekst (output) fra det store korpus af tekstdata, der bruges i deres træning (input). Det gør den ved at forudsige det næste ord i en serie baseret på de foregående ord.

Med hensyn til hallucination, hvis en sprogmodel blev trænet på utilstrækkelige og unøjagtige data og ressourcer, forventes det, at outputtet ville være opdigtet og unøjagtigt. Sprogmodellen kan generere en historie eller fortælling uden logiske uoverensstemmelser eller uklare sammenhænge.

I eksemplet nedenfor blev ChatGPT bedt om at give et ord svarende til "oprør" og starter med et "b." Her er dens svar:

Ved yderligere sondering blev den ved med at give forkerte svar med en høj grad af selvtillid.

Så hvorfor er ChatGPT ude af stand til at give et præcist svar på disse prompter?

Det kan være, at sprogmodellen ikke er rustet til at håndtere ret komplekse prompter som disse eller hint kan ikke fortolke prompten nøjagtigt, ignorere prompten om at give et lignende ord med et specifikt alfabet.

Hvordan opdager du AI-hallucination?

Det er tydeligt nu, at AI-applikationer har potentialet til at hallucinere - generere svar på anden måde fra det forventede output (fakta eller sandhed) uden nogen ondsindet hensigt. Og at spotte og genkende AI-hallucinationer er op til brugerne af sådanne applikationer.

Her er nogle måder at spotte AI-hallucinationer, mens du bruger almindelige AI-applikationer:

1. Store sprogbehandlingsmodeller

Selvom det er sjældent, hvis du bemærker en grammatisk fejl i indholdet produceret af en stor behandlingsmodel, såsom ChatGPT, burde det hæve et øjenbryn og få dig til at mistænke en hallucination. På samme måde, når tekstgenereret indhold ikke lyder logisk, korrelerer med den givne kontekst eller matcher inputdataene, bør du mistænke en hallucination.

Brug af menneskelig dømmekraft eller sund fornuft kan hjælpe med at opdage hallucinationer, da mennesker nemt kan identificere, hvornår en tekst ikke giver mening eller følger virkeligheden.

2. Computer Vision

Som en gren af ​​kunstig intelligens, maskinlæring og datalogi giver computersyn computere mulighed for at genkende og behandle billeder som menneskelige øjne. Ved brug af konvolutionelle neurale netværk, stoler de på den utrolige mængde visuelle data, der bruges i deres træning.

En afvigelse fra mønstrene for de visuelle data, der bruges i træningen, vil resultere i hallucinationer. For eksempel, hvis en computer ikke var trænet med billeder af en tennisbold, kunne den identificere den som en grøn orange. Eller hvis en computer genkender en hest ved siden af ​​en menneskestatue som en hest ved siden af ​​et rigtigt menneske, så er der sket en AI-hallucination.

Så for at få øje på en hallucination af computersyn, skal du sammenligne det genererede output med det, et [normalt] menneske forventes at se.

3. Selvkørende biler

Billedkredit: Ford

Takket være kunstig intelligens infiltrerer selvkørende biler sig gradvist på bilmarkedet. Pionerer som Tesla Autopilot og Fords BlueCruise har været forkæmpere for selvkørende biler. Du kan tjekke ud hvordan og hvad Tesla Autopilot ser for at få lidt af en forståelse af, hvordan AI driver selvkørende biler.

Hvis du ejer en af ​​sådanne biler, vil du gerne vide, om din AI-bil hallucinerer. Et tegn vil være, hvis dit køretøj ser ud til at afvige fra dets normale adfærdsmønstre under kørslen. For eksempel, hvis køretøjet bremser eller svinger pludseligt uden nogen åbenlys grund, kan dit AI-køretøj hallucinere.

AI-systemer kan også hallucinere

Mennesker og AI-modeller oplever hallucinationer forskelligt. Når det kommer til AI, refererer hallucinationer til fejlagtige output, der er milevidt fra virkeligheden eller ikke giver mening inden for rammerne af den givne prompt. For eksempel kan en AI-chatbot give et grammatisk eller logisk forkert svar eller fejlidentificere et objekt på grund af støj eller andre strukturelle faktorer.

AI-hallucinationer er ikke et resultat af et bevidst eller underbevidst sind, som du ville observere hos mennesker. Det skyldes snarere utilstrækkelighed eller utilstrækkelighed af de data, der bruges til træning og programmering af AI-systemet.