Deepfake-teknologi kan være sjovt at lege med, men dens potentiale for skade er betydelig. Her er, hvad fremtiden for deepfakes kan bringe.

De afslørende tegn på et dybt falsk billede plejede at være nemme at få øje på, men generativ AI får os til at stille spørgsmålstegn ved næsten alt, hvad vi ser og hører nu. For hver ny kunstig intelligens-model, der udgives, aftager de afslørende tegn på et falsk billede, og for at tilføje forvirring, du kan nu oprette dybe falske videoer, stemmekloner af dine kære og fremstille falske artikler i ren sekunder.

For at undgå at blive narre af AI-deepfakes, er det værd at vide, hvilken slags farer de udgør.

Udviklingen af ​​Deepfakes

En deepfake viser en person, der gør noget, der aldrig er sket i det virkelige liv. Det er fuldstændig falsk. Vi griner af deepfakes, når de bliver delt på internettet som en meme eller joke, men meget få mennesker finder det sjovt, når de er vant til at vildlede os.

Tidligere blev deepfakes skabt ved at tage et eksisterende billede og ændre det i et billedredigeringssoftware som Photoshop. Men det, der adskiller en AI deepfake, er, at den kan genereres fra bunden ved hjælp af deep learning-algoritmer.

instagram viewer

Det Merriam-Webster ordbog definerer en deepfake som:

Et billede eller en optagelse, der på overbevisende måde er blevet ændret og manipuleret til at misrepræsentere nogen som gør eller siger noget, der ikke rent faktisk blev gjort eller sagt.

Men med fremskridt inden for AI-teknologi begynder denne definition at se forældet ud. Med brugen af ​​AI-værktøjer inkluderer deepfakes nu billeder, tekst, videoer og stemmekloning. Nogle gange bruges alle fire former for AI-generering på én gang.

Fordi det er en automatiseret proces, der er utrolig hurtig og billig at bruge, er det det perfekte værktøj til at skære ud deepfakes i en hastighed, vi aldrig har set før – alt sammen uden at skulle vide en eneste ting om, hvordan man redigerer billeder, videoer eller lyd.

De store farer ved AI Deepfakes

Et væld af AI video generatorer findes allerede sammen med masser af AI stemme generatorer. Smid en stor sprogmodel som GPT-4 og du har en opskrift på at skabe de mest troværdige deepfakes, som vi hidtil har set i moderne historie.

At være opmærksom på de forskellige former for AI deepfakes, og hvordan de kan bruges til at narre dig, er en måde at undgå at blive vildledt på. Her er blot et par seriøse eksempler på, hvordan AI deepfake-teknologi udgør en reel trussel.

1. AI identitetstyveri

Du har måske set dem. Blandt de første virkelig virale AI-deepfakes, der blev spredt over hele verden, var et billede af Donald Trump, der blev arresteret, og et af pave Frans i en hvid pufferjakke.

Mens man virker som en uskyldig gen-forestilling om, hvad en berømt religiøs skikkelse kan kaste på sig for at bære på en kølig dag i Rom; det andet billede, der viser en politisk person i en alvorlig situation med loven, har langt større konsekvenser, hvis det tages for at være reelt.

Hidtil har folk hovedsageligt rettet sig mod berømtheder, politiske figurer og andre berømte personer, når de opretter AI-deepfakes. Til dels skyldes det, at kendte personer har masser af billeder af dem på internettet, hvilket sandsynligvis hjalp med at træne modellen i første omgang.

I tilfælde af en AI-billedgenerator som Midjourney - brugt i både Trumps og pavens dybe falske - skal en bruger blot indtaste tekst, der beskriver, hvad de vil se. Nøgleord kan bruges til at specificere kunststilen, såsom et fotografi eller fotorealisme, og resultaterne kan finjusteres ved at opskalere opløsningen.

Det kan du lige så nemt lære at bruge Midjourney og test det selv, men af ​​åbenlyse moralske og juridiske årsager bør du undgå at offentliggøre disse billeder.

Desværre vil det at være et gennemsnitligt, ikke-berømt menneske heller ikke garantere, at du er sikker mod AI-deepfakes.

Problemet ligger i en nøglefunktion, der tilbydes af AI-billedgeneratorer: evnen til at uploade dit eget billede og manipulere det med AI. Og et værktøj som Overmaling i DALL-E 2 kan udvide et eksisterende billede ud over dets grænser ved at indtaste en tekstprompt og beskrive, hvad du ellers vil generere.

Hvis en anden skulle gøre dette med dine billeder, kunne farerne være betydeligt større end pavens dybe falske i en hvid jakke – de kan bruge det overalt og foregive at være dig. Mens de fleste mennesker generelt bruger AI med gode intentioner, er der meget få begrænsninger, der forhindrer folk i at bruge det til at forårsage skade, især i tilfælde af identitetstyveri.

2. Deepfake Voice Clone Scams

Ved hjælp af kunstig intelligens har deepfakes krydset en grænse, de fleste af os ikke var forberedt på: falske stemmekloner. Med kun en lille mængde original lyd - måske fra en TikTok-video, du engang har postet, eller en YouTube-video, du optræder i - kan en AI-model replikere din ene-og-kun-stemme.

Det er både uhyggeligt og skræmmende at forestille sig at modtage et telefonopkald, der lyder ligesom et familiemedlem, en ven eller en kollega. Deepfake stemme kloner er en alvorlig nok bekymring, at Federal Trade Commission (FTC) har udstedt en advarsel om det.

Stol ikke på stemmen. Ring til den person, der angiveligt kontaktede dig, og bekræft historien. Brug et telefonnummer, du ved er deres. Hvis du ikke kan nå din elskede, så prøv at komme i kontakt med dem gennem et andet familiemedlem eller deres venner.

Det skriver Washington Post et tilfælde af et par i 70'erne, der modtog et telefonopkald fra en, der lød ligesom deres barnebarn. Han sad i fængsel og havde akut brug for penge til kaution. Uden anden grund til at tvivle på, hvem de talte med, gik de videre og overrakte pengene til svindleren.

Det er heller ikke kun den ældre generation, der er i fare, Det rapporterede The Guardian endnu et eksempel på en bankdirektør, der godkendte en transaktion på 35 millioner dollars efter en række "dybt falske opkald" fra en, som de troede var en bankdirektør.

3. Masseproducerede falske nyheder

Store sprogmodeller, som f.eks ChatGPT er meget, meget gode til at producere tekst, der lyder ligesom et menneske, og vi har i øjeblikket ikke effektive værktøjer til at få øje på forskellen. I de forkerte hænder vil falske nyheder og konspirationsteorier være billige at producere og tage længere tid at afsløre.

Spredning af misinformation er selvfølgelig ikke noget nyt, men et forskningspapir offentliggjort på arXiv i januar 2023 forklarer, at problemet ligger i, hvor nemt det er at skalere outputtet op med AI-værktøjer. De omtaler det som "AI-genererede indflydelseskampagner", som de siger for eksempel kunne bruges af politikere til at outsource deres politiske kampagner.

Kombination af mere end én AI-genereret kilde skaber en deepfake på højt niveau. Som et eksempel kan en AI-model generere en velskrevet og overbevisende nyhedshistorie til at gå sammen med det falske billede af Donald Trump, der bliver arresteret. Dette giver det mere legitimitet, end hvis billedet blev delt alene.

Falske nyheder er heller ikke begrænset til billeder og skrift, udviklingen i AI-videogenerering betyder, at vi ser flere deepfake-videoer dukke op. Her er en af ​​Robert Downey Jr. podet på en video af Elon Musk, postet af YouTube-kanal Deepfakery.

At oprette en deepfake kan være lige så simpelt som at downloade en app. Du kan bruge en app som f.eks TokkingHeads til at omdanne stillbilleder til animerede avatarer, som giver dig mulighed for at uploade dit eget billede og lyd for at få det til at virke som om personen taler.

For det meste er det underholdende og sjovt, men der er også potentiale for problemer. Det viser os, hvor nemt det er at bruge nogens billede til at få det til at virke, som om personen udtalte ord, de aldrig talte.

Lad dig ikke narre af en AI Deepfake

Deepfakes kan hurtigt implementeres til meget lave omkostninger og med en lav ekspertise eller computerkraft påkrævet. De kan tage form af et genereret billede, en stemmeklon eller en kombination af AI-genererede billeder, lyd og tekst.

Det plejede at være meget vanskeligere og mere arbejdskrævende at producere en deepfake, men nu, med masser af AI-apps derude, har næsten alle adgang til de værktøjer, der bruges til at skabe deepfakes. Efterhånden som AI deepfake-teknologi bliver stadig mere avanceret, er det værd at holde et vågent øje med de farer, det udgør.