Falske nyheder, deepfakes, vildledende billeder: alt dette kan skabes ved hjælp af kunstig intelligens. Her er, hvordan AI betyder, at misinformation spredes.
Kunstig intelligens (AI) spiller nu en rolle i forskellige aspekter af vores liv. Specifikt er generative AI-værktøjer såsom ChatGPT og andre vokset betydeligt. Det betyder, at der vil være en overflod af AI-genereret indhold i fremtiden.
Generativ AI introducerer dog også risikoen for AI-genereret desinformation. Dens funktioner gør det lettere for opportunistiske individer at sprede falsk information. Så lad os undersøge, hvordan generativ AI bliver brugt til desinformation.
Potentielle risici ved generativ kunstig intelligens til at sprede desinformation
Generativ kunstig intelligens udgør mange trusler mod mennesker, såsom at fjerne job, mere overvågning og cyberangreb. Og sikkerhedsproblemer med AI bliver endnu værre. Men der er en anden bekymring: folk kan bruge den til at sprede løgne. Vildledende individer kan bruge generativ AI til at dele falske nyheder gennem visuelt, auditivt eller tekstmæssigt indhold.
Falske nyheder kan kategoriseres i tre typer:
- Misinformation: Utilsigtet forkert eller falsk information.
- Desinformation: Bevidst brug af manipulerende eller vildledende information.
- Fejlinformation: Vildledende nyheder eller en overdreven version af sandheden.
Hvornår kombineret med deepfake teknologi, kan generative AI-værktøjer gøre indhold, der ser ud og lyder ægte, som billeder, videoer, lydklip og dokumenter. Der er mange muligheder for at skabe falsk indhold, så vel vidende hvordan du beskytter dig selv mod deepfake videoer er vigtigt.
Falske nyhedsspredere kan generere indhold i store mængder, hvilket gør det nemmere at sprede blandt masserne gennem sociale medier. Målrettet desinformation kan bruges til at påvirke politiske kampagner, hvilket potentielt kan påvirke valg. Derudover rejser brugen af AI-tekst- og billedgenereringsværktøjer bekymringer vedrørende ophavsretslovgivningen, som rapporteret af Kongressens forskningstjeneste: at bestemme ejerskab af indhold genereret af disse værktøjer bliver udfordrende.
Hvordan vil loven adressere udbredelsen af falske nyheder gennem generativ AI? Hvem vil blive holdt ansvarlig for at sprede falsk information – brugerne, udviklerne eller værktøjerne selv?
4 måder generativ AI kan bruges til at sprede desinformation
For at forblive sikker online skal alle forstå risiciene ved generativ AI ved at sprede desinformation, da den kommer i mange forskellige former. Her er et par måder, det kan bruges til at manipulere folk.
1. Generering af falsk indhold online
At skabe falsk indhold ved hjælp af generativ AI er en almindelig strategi, der anvendes af dem, der spreder falske nyheder. De bruger populære generative AI-værktøjer som ChatGPT, DALL-E, Bard, Midjourney og andre til at producere forskellige typer indhold. For eksempel, ChatGPT kan hjælpe indholdsskabere på mange måder. Men det kan også generere opslag på sociale medier eller nyhedsartikler, der kan bedrage folk.
For at bevise dette fik jeg ChatGPT til at skrive en opdigtet artikel om anholdelsen af den amerikanske præsident Joe Biden på grund af korruptionsanklager. Vi anmodede også om at inkludere udtalelser fra relevante myndigheder for at få det til at virke mere troværdigt.
Her er den fiktive artikel, som ChatGPT kom med:
Overraskende nok var outputtet meget overbevisende. Den inkluderede navne og udtalelser fra autoritative personer for at gøre artiklen mere overbevisende. Dette viser, hvordan enhver kan bruge sådanne værktøjer til at generere falske nyheder og nemt sprede dem online.
2. Brug af chatbots til at påvirke folks meninger
Chatbots, der er afhængige af generative AI-modeller, kan anvende forskellige taktikker til at påvirke folks meninger, herunder:
- Følelsesmæssig manipulation: AI kan bruge emotionelle intelligensmodeller til at udnytte følelsesmæssige triggere og skævheder til at forme dine perspektiver.
- Ekkokamre og bekræftelsesbias: Chatbots kan forstærke eksisterende overbevisninger ved at skabe ekkokamre, der validerer dine fordomme. Hvis du allerede har et bestemt synspunkt, kan AI styrke det ved at præsentere information, der stemmer overens med dine meninger.
- Social proof og bandwagon effekt: AI kan manipulere offentlighedens følelser ved at generere sociale beviser. Dette kan have betydelige konsekvenser, da det kan få individer til at rette sig efter populære meninger eller følge mængden.
- Målrettet personalisering: Chatbots har adgang til enorme mængder data, som de kan indsamle for at oprette personlige profiler. Dette sætter dem i stand til at tilpasse indhold baseret på dine præferencer. Gennem målrettet personalisering kan AI overtale enkeltpersoner eller yderligere styrke deres meninger.
Disse eksempler illustrerer alle, hvordan chatbots kan bruges til at vildlede folk.
3. Oprettelse af AI DeepFakes
Nogen kan bruge deepfakes til at skabe falske videoer af en person, der siger eller gør ting, de aldrig har gjort. De kan bruge sådanne værktøjer til social engineering eller til at køre smædekampagner mod andre. Desuden kan deepfakes i nutidens meme-kultur tjene som værktøjer til cybermobning på sociale medier.
Derudover kan politiske modstandere bruge deepfake lyd og videoer til at plette deres modstanderes omdømme og manipulere offentlighedens følelser ved hjælp af kunstig intelligens. Så AI-genererede deepfakes udgør adskillige trusler i fremtiden. Ifølge en 2023 Det skriver Reuters, kan fremkomsten af AI-teknologi påvirke USAs valg i 2024. Rapporten fremhæver tilgængeligheden af værktøjer som Midjourney og DALL-E, der nemt kan skabe opdigtet indhold og påvirke folks kollektive meninger.
Det er altså afgørende at kunne identificere videoer skabt af deepfakes og skelne dem fra originaler.
4. Kloning af menneskestemmer
Generativ AI, sammen med deepfake-teknologi, muliggør manipulation af en persons tale. Deepfake-teknologien udvikler sig hurtigt og tilbyder en række værktøjer, der kan replikere enhvers stemme. Dette gør det muligt for ondsindede personer at efterligne andre og bedrage intetanende personer. Et sådant eksempel er brugen af deepfake musik.
Du er måske stødt på værktøjer som f.eks Ligner AI, Speechify, FakeYou, og andre, der kan efterligne berømtheders stemmer. Selvom disse AI-lydværktøjer kan være underholdende, udgør de betydelige risici. Svindlere kan bruge stemmekloningsteknikker til forskellige svigagtige ordninger, hvilket resulterer i økonomiske tab.
Svindlere kan bruge dybfalske stemmer til at efterligne dine kære og ringe til dig og foregive at være i nød. Med syntetisk lyd, der lyder overbevisende, kan de opfordre dig til at sende penge hurtigt, hvilket fører til, at du bliver et offer for deres svindel. En hændelse rapporteret af Washington Post i marts 2023 eksemplificerer dette problem: svindlere brugte dybfalske stemmer til at overbevise folk om, at deres børnebørn sad i fængsel og havde brug for penge...
Sådan opdager du AI-spread disinformation
Bekæmpelse af spredningen af desinformation lettet af AI er et presserende problem i dagens verden. Så hvordan kan du se falsk information, der er lavet af AI?
- Tilgå onlineindhold med skepsis. Hvis du støder på noget, der virker manipulativt eller utroligt, skal du kontrollere det gennem krydstjek.
- Før du stoler på en nyhedsartikel eller et opslag på sociale medier, skal du sikre dig, at det stammer fra en velrenommeret kilde.
- Pas på indikatorer for dybe falske billeder, såsom unaturlige blink eller ansigtsbevægelser, dårlig lydkvalitet, forvrængede eller slørede billeder og mangel på ægte følelser i tale.
- Brug faktatjek-websteder til at verificere nøjagtigheden af oplysningerne.
Ved at følge disse trin kan du identificere og beskytte dig selv mod AI-drevet misinformation.
Pas på desinformation spredt af AI
Generativ software har spillet en afgørende rolle i at fremme kunstig intelligens. Alligevel kan de også være en væsentlig kilde til desinformation i samfundet. Disse overkommelige værktøjer har gjort det muligt for enhver at skabe forskellige typer indhold ved hjælp af sofistikerede AI-modeller; deres evne til at generere indhold i store mængder og inkorporere deepfakes gør dem endnu mere farlige.
Det er vigtigt, at du er opmærksom på udfordringerne ved desinformation i AI-æraen. At forstå, hvordan AI kan bruges til at sprede falske nyheder, er det første skridt mod at beskytte dig selv mod misinformation.