AI-chatbots kan hallucinere og give sikkert forkerte svar - hvilket hackere kan drage fordel af. Her er hvordan hackere våben hallucinationer.

Store sprogmodel-AI'er er ufuldkomne og genererer nogle gange falsk information. Disse tilfælde, kaldet hallucinationer, kan udgøre en cybertrussel for virksomheder og individuelle AI-entusiaster.

Heldigvis kan du øge forsvaret mod AI-hallucinationer med øget bevidsthed og sundt andet gætte.

Hvorfor hallucinerer AI?

Der er ingen konsensus om, hvorfor AI-modeller hallucinerer, selvom der er et par sandsynlige gæt.

AI trænes ud fra massive datasæt, der ofte indeholder fejl som tankehuller, indholdsmæssig varians eller skadelige skævheder. Enhver træning fra disse ufuldstændige eller utilstrækkelige datasæt kan være roden til hallucinationer, selvom senere iterationer af datasættet modtog kuration fra dataforskere.

Over tid kan dataforskere gøre information mere nøjagtig og tilføje yderligere viden for at udfylde ledige stillinger og minimere hallucinationspotentialet. Tilsynsmænd kan fejlmærke data. Programmeringskoden kan have fejl. Det er vigtigt at rette disse elementer, fordi AI-modeller avancerer baseret på maskinlæringsalgoritmer.

instagram viewer

Disse algoritmer bruger data til at træffe beslutninger. En udvidelse af dette er AI's neurale netværk, som skaber nye beslutninger fra maskinlæringsoplevelse til ligne originaliteten af ​​menneskelige sind mere præcist. Disse netværk indeholder transformere, som analyserer forholdet mellem fjerne datapunkter. Når transformatorer går skævt, kan der opstå hallucinationer.

Hvordan AI-hallucinationer giver muligheder for hackere

Desværre er det ikke almindeligt kendt, at AI hallucinerer, og AI vil lyde selvsikker, selv når den er helt forkert. Alt dette bidrager til at gøre brugerne mere selvtilfredse og tillidsfulde med AI, og trusselsaktører er afhængige af denne brugeradfærd for at få dem til at downloade eller udløse deres angreb.

For eksempel kan en AI-model hallucinere et falsk kodebibliotek og anbefale, at brugere downloader dette bibliotek. Det er sandsynligt, at modellen vil fortsætte med at anbefale det samme hallucinerede bibliotek til mange brugere, der stiller et lignende spørgsmål. Hvis hackere opdager denne hallucination, kan de skabe en ægte version af det forestillede bibliotek – men fyldt med farlig kode og malware. Nu, når AI fortsætter med at anbefale kodebiblioteket, vil uvidende brugere downloade hackernes kode.

Transport af skadelig kode og programmer ved at drage fordel af AI-hallucinationer er et ikke overraskende næste skridt for trusselsaktører. Hackere skaber ikke nødvendigvis utallige nye cybertrusler - de leder blot efter nye måder at levere dem uden mistanke. AI-hallucinationer forgriber sig på den samme menneskelige naivitet, at klikke på e-mail-links afhænger af (hvilket er grunden til, at du bør bruge værktøjer til kontrol af link til at bekræfte URL'er).

Hackere kan også tage det til næste niveau. Hvis du leder efter hjælp til kodning og downloader den falske, ondsindede kode, kan trusselsaktøren også få koden til at fungere rent faktisk med et skadeligt program, der kører i baggrunden. Bare fordi det fungerer, som du forventer, betyder det ikke, at det ikke er farligt.

En mangel på uddannelse kan tilskynde dig til at downloade AI-genererede anbefalinger på grund af online autopilotadfærd. Hver sektor er under kulturelt pres for at indføre kunstig intelligens i deres forretningspraksis. Utallige organisationer og industrier, der er fjernt fra teknologien, leger med AI-værktøjer med ringe erfaring og endnu mere sparsom cybersikkerhed, blot for at forblive konkurrencedygtig.

Sådan forbliver du sikker mod bevæbnede AI-hallucinationer

Der er fremskridt i horisonten. Det var nemt at skabe malware med generativ AI, før virksomheder justerede datasæt og vilkår og betingelser for at forhindre uetiske generationer. Når du kender de samfundsmæssige, tekniske og personlige svagheder, du kan have mod farlige AI-hallucinationer, hvad er nogle måder at forblive sikker på?

Alle i branchen kan arbejde på at forfine neural netværksteknologi og biblioteksverifikation. Der skal være checks og balances, før svar rammer slutbrugere. På trods af at dette er et nødvendigt industrifremskridt, har du også en rolle at spille i at beskytte dig selv og andre mod generative AI-trusler.

Gennemsnitlige brugere kan øve sig i at spotte AI-hallucinationer med disse strategier:

  • Finde stave- og grammatikfejl.
  • Se, hvornår konteksten for forespørgslen ikke stemmer overens med konteksten for svaret.
  • At anerkende, når computervisionsbaserede billeder ikke stemmer overens med, hvordan menneskelige øjne ville se konceptet.

Vær altid forsigtig, når du downloader indhold fra internettet, selv når det anbefales af AI. Hvis AI anbefaler at downloade kode, skal du ikke gøre det blindt; tjek eventuelle anmeldelser for at sikre, at koden er legitim, og se, om du kan finde oplysninger om skaberen.

Den bedste modstand mod AI-hallucinationsbaserede angreb er uddannelse. At tale om dine oplevelser og læse, hvordan andre fremkaldte ondsindede hallucinationer, hvad enten det var ved et uheld eller bevidst test, er uvurderligt i fremtidens navigation af AI.

Forbedring af AI Cybersikkerhed

Du skal være forsigtig med, hvad du beder om, når du taler med en AI. Begræns potentialet for farlige udfald ved at være så specifik som muligt og sætte spørgsmålstegn ved alt, der kommer på skærmen. Test kode i sikre miljøer og faktatjek andre tilsyneladende troværdige oplysninger. Derudover samarbejde med andre, diskutere dine erfaringer og forenkle jargon om AI hallucinationer og cybersikkerhedstrusler kan hjælpe masserne til at være mere årvågne og modstandsdygtige over for hackere.