Læsere som dig hjælper med at støtte MUO. Når du foretager et køb ved hjælp af links på vores websted, kan vi optjene en affiliate-kommission. Læs mere.

Kunstig intelligens (AI) har potentialet til at ændre vores samfunds natur. Og hvis de AI-værktøjer, vi i øjeblikket har til rådighed, er en indikation af, hvad der skal komme, har vi meget at se frem til.

Vi har også meget at være på vagt over for. Nemlig cyberkriminelles og andre trusselsaktørers bevæbning af kunstig intelligens. Dette er ikke en teoretisk bekymring, og ikke engang AI-billedgeneratorer er immune over for misbrug.

Hvad er AI-billedgeneratorer? Hvordan virker de?

Hvis du nogensinde har brugt en AI-billedgenerator, har du en ret god idé om, hvad de handler om. Selvom du aldrig har brugt en, er du højst sandsynligt stødt på AI-genererede billeder på sociale medier og andre steder. Den software, der er populær i dag, fungerer efter et meget simpelt princip: brugeren skriver teksten ind, og AI'en genererer et billede baseret på den tekst.

instagram viewer

Hvad der foregår under motorhjelmen er meget mere komplekst. AI er blevet meget bedre de seneste år, og de fleste tekst-til-billede generatorer i dag er såkaldte diffusionsmodeller. Det betyder, at de over længere tid bliver "trænet" på enormt mange tekster og billeder, hvilket er det, der gør deres kreationer så imponerende og fantastisk realistiske.

Det, der gør disse AI-værktøjer endnu mere imponerende, er det faktum, at de ikke bare ændrer eksisterende billeder eller kombinerer tusindvis af billeder til ét, men også skaber nye, originale billeder fra bunden. Jo flere mennesker bruger disse tekst-til-billede-generatorer, jo mere information får de, og jo bedre bliver deres kreationer.

Nogle af de mest kendte AI-billedgeneratorer er Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor og Craiyon. Nye dukker op til venstre og højre, og teknologigiganter – inklusive Google – udgiver deres egne, så vi kan kun spekulere i, hvad fremtiden vil bringe.

4 Ways Threat Actors våben AI-billedgeneratorer

Som stort set al teknologi kan AI-billedgeneratorer blive misbrugt af ondsindede skuespillere. Faktisk bliver de allerede brugt til alle mulige uhyggelige formål. Men præcis hvilken type svindel og cyberangreb kan en kriminel udføre ved hjælp af AI-billedgeneratorer?

1. Social Engineering

En indlysende ting, trusselsaktører kunne gøre med AI-billedgeneratorer, er engagere sig i social engineering; for eksempel oprette falske profiler på sociale medier. Nogle af disse programmer kan skabe utroligt realistiske billeder, der ligner ægte fotografier af rigtige mennesker, og en svindler kunne bruge disse falske sociale medieprofiler til catfishing.

I modsætning til rigtige menneskers billeder, kan AI-genererede billeder ikke opdages via omvendt billedsøgning, og cyberkriminelle behøver ikke at arbejde med en begrænset antal fotografier for at nå deres mål – ved hjælp af kunstig intelligens kan de generere så mange, de vil, og opbygge en overbevisende online identitet fra kradse.

Men der er eksempler fra det virkelige liv på trusselsaktører, der bruger AI-billedgeneratorer til at snyde folk. I april 2022, TechTalks bloggeren Ben Dickinson modtog en e-mail fra et advokatfirma, hvori han hævdede, at han havde brugt et billede uden tilladelse. Advokaterne sendte en e-mail med en DMCA-meddelelse om krænkelse af ophavsret og fortalte Dickinson, at han skal linke tilbage til deres klient eller fjerne billedet.

Dickinson googlede advokatfirmaet og fandt den officielle hjemmeside. Det hele virkede fuldstændig legitimt; webstedet havde endda billeder af 18 advokater, komplet med deres biografier og legitimationsoplysninger. Men intet af det var ægte. Billederne blev alle genereret af AI, og de formodede meddelelser om krænkelse af ophavsretten blev sendt ud af nogen, der søger at afpresse backlinks fra intetanende bloggere, som en del af en uetisk, sort hat SEO (Søgemaskineoptimering) strategi.

2. Velgørenhedssvindel

Da ødelæggende jordskælv ramte Tyrkiet og Syrien i februar 2023, udtrykte millioner af mennesker verden over deres solidaritet med ofrene ved at donere tøj, mad og penge.

Ifølge en rapport fra BBC, udnyttede svindlere dette ved at bruge kunstig intelligens til at skabe realistiske billeder og anmode om donationer. En svindler viste AI-genererede billeder af ruiner på TikTok Live og bad deres seere om donationer. En anden postede et AI-genereret billede af en græsk brandmand, der reddede et såret barn fra ruiner, og bad sine følgere om donationer i Bitcoin.

Man kan kun forestille sig, hvilken type velgørenhedssvindel kriminelle vil køre ved hjælp af kunstig intelligens i fremtiden, men det er sikkert at antage, at de kun bliver bedre til at misbruge denne software.

3. Deepfakes og desinformation

Regeringer, aktivistgrupper og tænketanke har længe advaret om farerne ved deepfakes. AI-billedgeneratorer tilføjer endnu en komponent til dette problem, i betragtning af hvor realistiske deres kreationer er. Faktisk er der i Storbritannien endda et komedieprogram kaldet Deep Fake Neighbour Wars, som finder humor i usandsynlige berømtheder. Hvad ville forhindre en desinformationsagent i at skabe et falsk billede og promovere det på sociale medier ved hjælp af bots?

Dette kan få konsekvenser i det virkelige liv, som det næsten gjorde i marts 2022, da en falsk video, der forestiller den ukrainske præsident Volodymyr Zelensky, der fortæller ukrainere at overgive sig, cirkulerede online, pr. NPR. Men det er bare et eksempel, for mulighederne er næsten uendelige, og der er utallige måder trusselsaktør kan skade nogens omdømme, fremme en falsk fortælling eller sprede falske nyheder med hjælp af AI.

4. Annoncebedrageri

TrendMicro forskere opdagede i 2022, at svindlere brugte AI-genereret indhold til at skabe vildledende reklamer og promovere lyssky produkter. De skabte billeder, der foreslog populære berømtheder at bruge bestemte produkter, og kørte annoncekampagner baseret på disse billeder.

For eksempel viste en annonce for en "finansiel rådgivningsmulighed" milliardæren Elon Musk, Teslas grundlægger og administrerende direktør. Musk godkendte selvfølgelig aldrig det pågældende produkt, men de viste AI-genererede optagelser fik det til at virke på den måde, hvilket formentlig lokkede intetanende seere til at klikke på annoncerne.

AI og cybersikkerhed: et komplekst problem, vi skal tackle

Fremover vil offentlige regulatorer og cybersikkerhedseksperter sandsynligvis skulle arbejde sammen for at imødegå den nye trussel fra AI-drevet cyberkriminalitet. Men hvordan kan vi regulere kunstig intelligens og beskytte almindelige mennesker uden at kvæle innovation og begrænse digitale friheder? Det spørgsmål vil være stort i de kommende år.

Indtil der er et svar, gør hvad du kan for at beskytte dig selv: kontroller omhyggeligt enhver information, du ser online, undgå lyssky websteder, brug sikker software, hold dine enheder opdaterede, og lær at bruge kunstig intelligens til at fordel.