Kunstig intelligens kan lyde som præsidenten. Eller det kan lyde som dig eller mig. Så hvilken cybersikkerhedsrisiko udgør AI-stemmekloningssoftware?
Kunstig intelligens (AI) er en potent teknologi, der lover at transformere vores liv. Aldrig har det været så tydeligt som i dag, hvor kraftfulde værktøjer er tilgængelige for alle med en internetforbindelse.
Dette inkluderer AI-stemmegeneratorer, avanceret software, der er i stand til at efterligne menneskelig tale så kompetent, at det kan være umuligt at skelne mellem de to. Hvad betyder det for cybersikkerhed?
Hvordan fungerer AI-stemmegeneratorer?
Talesyntese, processen med at producere menneskelig tale kunstigt, har eksisteret i årtier. Og som al teknologi har den gennemgået dybtgående ændringer gennem årene.
Dem, der har brugt Windows 2000 og XP, husker måske Microsoft Sam, operativsystemets standard tekst-til-tale mandestemme. Microsoft Sam fik arbejdet gjort, men lydene, den producerede, var robotiske, stive og unaturlige. De værktøjer, vi har til rådighed i dag, er betydeligt mere avancerede, i høj grad takket være deep learning.
Dyb læring er en metode til maskinlæring der er baseret på kunstige neurale netværk. På grund af disse neurale netværk er moderne AI i stand til at behandle data næsten ligesom neuronerne i den menneskelige hjerne fortolker information. Det vil sige, jo mere menneskelignende AI bliver, jo bedre er den til at efterligne menneskelig adfærd.
Det er i en nøddeskal, hvordan moderne AI-stemmegeneratorer fungerer. Jo flere taledata de udsættes for, jo dygtigere bliver de til at efterligne menneskelig tale. På grund af relativt nylige fremskridt inden for denne teknologi kan den nyeste tekst-til-tale-software i det væsentlige replikere de lyde, den tilføres.
Hvordan trusselsaktører bruger AI-stemmegeneratorer
Ikke overraskende bliver denne teknologi misbrugt af trusselsaktører. Og ikke kun cyberkriminelle i ordets typiske betydning, men også af desinformationsagenter, svindlere, marketingfolk med sort hat og trolde.
I det øjeblik ElevenLabs udgav en betaversion af sin tekst-til-tale-software i januar 2023, begyndte højreekstremistiske trolde på opslagstavlen 4chan at misbruge den. Ved at bruge den avancerede AI gengav de stemmerne fra personer som David Attenborough og Emma Watson, hvilket fik det til at virke som om berømthederne var i gang med modbydelige, hadefulde tirader.
Som Vice rapporterede på det tidspunkt, indrømmede ElevenLabs, at folk misbrugte dets software, især stemmekloning. Denne funktion giver enhver mulighed for at "klone" en anden persons stemme; alt hvad du skal gøre er at uploade en optagelse på et minut og lade AI'en klare resten. Jo længere en optagelse er, jo bedre er outputtet.
I marts 2023 fangede en viral TikTok-video opmærksomheden New York Times. I videoen blev den berømte podcaster Joe Rogan og Dr. Andrew Huberman, en hyppig gæst på The Joe Rogan Experience, hørt diskutere en "libido-forstærkende" koffeindrik. Videoen fik det til at se ud som om både Rogan og Huberman utvetydigt støttede produktet. I virkeligheden blev deres stemmer klonet ved hjælp af AI.
Omkring samme tid kollapsede den Santa Clara, Californien-baserede Silicon Valley Bank på grund af risikostyringsfejl og andre problemer, og blev overtaget af delstatsregeringen. Dette var det største bankfald i USA siden finanskrisen i 2008, så det sendte chokbølger på tværs af globale markeder.
Det, der bidrog til panikken, var en falsk lydoptagelse af den amerikanske præsident Joe Biden. I optagelsen blev Biden tilsyneladende hørt advare om et forestående "sammenbrud" og instruere sin administration til at "bruge mediernes fulde kraft til at berolige offentligheden." Fakta-tjekkere kan lide PolitiFakt var hurtige til at afsløre klippet, men det er sandsynligt, at millioner havde hørt det på det tidspunkt.
Hvis AI-stemmegeneratorer kan bruges til at efterligne berømtheder, kan de også bruges til at efterligne almindelige mennesker, og det er præcis, hvad cyberkriminelle har gjort. Ifølge ZDNet, tusindvis af amerikanere falder for svindel kendt som vishing eller stemme-phishing hvert år. Et ældre ægtepar skabte nationale overskrifter i 2023, da de modtog et telefonopkald fra deres "barnebarn", som hævdede at være i fængsel og bad om penge.
Hvis du nogensinde har uploadet en YouTube-video (eller optrådt i en), har du deltaget i et stort gruppeopkald med personer, du ikke gør ved, eller har uploadet din stemme til internettet i en eller anden kapacitet, kan du eller dine kære teoretisk set være i fare. Hvad ville forhindre en svindler i at uploade din stemme til en AI-generator, klone den og kontakte din familie?
AI-stemmegeneratorer forstyrrer cybersikkerhedslandskabet
Det kræver ikke en cybersikkerhedsekspert at erkende, hvor farlig AI kan være i de forkerte hænder. Og selvom det er rigtigt, at det samme kan siges om al teknologi, er AI en unik trussel af flere grunde.
For det første er det relativt nyt, hvilket betyder, at vi ikke rigtig ved, hvad vi kan forvente af det. Moderne AI-værktøjer giver cyberkriminelle mulighed for at skalere og automatisere deres operationer på en hidtil uset måde, mens de drager fordel af offentlighedens relative uvidenhed, hvad angår denne sag. Generativ kunstig intelligens gør det også muligt for trusselsaktører med ringe viden og færdigheder oprette ondsindet kode, opbyg fupsider, spred spam, skriv phishing-e-mails, skabe realistiske billeder, og producere endeløse timer med falsk lyd- og videoindhold.
Det er afgørende, at dette virker begge veje: AI bruges også til at beskytte systemer og vil sandsynligvis være det i årtier fremover. Det ville ikke være urimeligt at antage, at det, der venter os, er en slags AI-våbenkapløb mellem cyberkriminelle og cybersikkerhedsindustrien, idet disse værktøjers defensive og offensive kapacitet i sagens natur er lige.
For den gennemsnitlige person kræver fremkomsten af udbredt generativ AI en radikal nytænkning af sikkerhedspraksis. Hvor spændende og nyttigt AI end måtte være, kan det i det mindste udviske grænsen mellem, hvad der er ægte og hvad er det ikke, og i værste fald forværre eksisterende sikkerhedsproblemer og skabe nyt rum for trusselsaktører at manøvrere i.
Stemmegeneratorer viser AI's ødelæggende potentiale
Så snart ChatGPT kom på markedet, steg forhandlingerne om regulering af AI op. Ethvert forsøg på at begrænse denne teknologi ville sandsynligvis kræve internationalt samarbejde i en grad, vi ikke har set i årtier, hvilket gør det usandsynligt.
Anden er ude af flasken, og det bedste, vi kan gøre, er at vænne os til det. Det, og håber, at cybersikkerhedssektoren tilpasser sig i overensstemmelse hermed.