FraudGPT er en sprogmodel, der er finjusteret til at hjælpe kriminelle med svigagtige aktiviteter. Lær, hvad det er at beskytte dig selv mod potentielle trusler.

Fremkomsten af ​​kunstig intelligens (AI) er et tveægget sværd. Som enhver transformativ teknologi tilbyder kunstig intelligens et enormt potentiale, men også enorme risici. På trods af det eftertrykkelige skub for at regulere AI, ser trusselsaktører ud til at være kommet foran.

Et nyt ChatGPT-stil værktøj, FraudGPT, vinder indpas blandt cyberkriminelle, hvilket giver dem mulighed for at automatisere og bedre udføre en stor del af deres svindeloperationer. Alle kan blive et offer, så det er vigtigt at holde sig orienteret. Her er alt, hvad vi ved om FraudGPT indtil videre.

Hvad er FraudGPT?

FraudGPT er et kunstig intelligensværktøj drevet af en stor sprogmodel, der er særligt finjusteret til at hjælpe cyberkriminelle med at begå cyberkriminalitet. Det abonnementsbaserede AI-værktøj gør det muligt for trusselsaktører at lette deres kriminelle aktiviteter som carding, phishing og skabelse af malware.

Selvom detaljer om værktøjet forbliver meget begrænsede, har forskere fra Netenrich, et sikkerhedsforskningsfirma, afsløret adskillige annoncer på det mørke web, der annoncerer for værktøjet. Ifølge forskningsrapport fra Netenrich, varierer abonnementsgebyrene mellem $200 pr. måned til $1.700 årligt.

For bedre at overskue værktøjet kan du tænke på FraudGPT som ChatGPT, men for bedrageri. Men hvordan fungerer FraudGPT præcist, og hvordan bruger cyberkriminelle det?

Hvordan virker FraudGPT?

Billedkredit: Freepik

I sin kerne er FraudGPT ikke væsentligt forskellig fra ethvert værktøj, der er drevet af en stor sprogmodel. Med andre ord er selve værktøjet en interaktiv grænseflade for kriminelle for at få adgang til en særlig form for sprogmodel, der er blevet indstillet til at begå cyberkriminalitet.

Forstår du det stadig ikke? Her er en grov idé om, hvad vi taler om. I de tidlige dage af ChatGPT's lancering kunne AI-chatbot bruges til stort set alt, herunder at hjælpe cyberkriminelle med at skabe malware. Dette var muligt, fordi ChatGPTs underliggende sprogmodel blev trænet på et datasæt, der sandsynligvis indeholdt prøver af en lang række data, herunder data, der kunne hjælpe et kriminelt foretagende.

Store sprogmodeller fodres typisk med alt fra de gode ting, som videnskabsteorier, sundhedsinformation og politik, til de knap så gode, som eksempler på malware-kode, beskeder fra carding- og phishing-kampagner og andre kriminelle materialer. Når man beskæftiger sig med den slags datasæt, der er nødvendige for at træne sprogmodeller som den slags, der driver ChatGPT, er det næsten uundgåeligt, at modellen ville indeholde prøver af uønskede materialer.

På trods af typisk omhyggelige bestræbelser på at eliminere de uønskede materialer i datasættet, slipper nogle igennem, og de er normalt stadig nok til at give modellen mulighed for at generere materialer for at lette cyberkriminalitet. Det er derfor med højre hurtig ingeniørarbejde, kan du få værktøjer som ChatGPT, Google Bard og Bing AI til at hjælpe dig med at skrive svindelmails eller computermalware.

Hvis værktøjer som ChatGPT kan hjælpe cyberkriminelle med at begå forbrydelser på trods af alle bestræbelser på at gøre disse AI-chatbots sikre, så tænk nu på kraft et værktøj som FraudGPT kunne bringe, i betragtning af at det var specifikt finjusteret på ondsindet materiale for at gøre det egnet til cyberkriminalitet. Det er ligesom den onde tvilling af ChatGPT, der har fået steroider.

Så for at bruge værktøjet kunne kriminelle bare spørge chatbotten, som de ville gøre med ChatGPT. De kunne bede den om at f.eks. skrive en phishing-e-mail til Jane Doe, der arbejder hos virksomheden ABC, eller måske bede den om at skrive malware ved hjælp af C++ for at stjæle alle PDF-filerne fra en Windows 10-computer. Kriminelle ville dybest set bare finde på ond mekanisering og lade chatbotten gøre det tunge løft.

Hvordan kan du beskytte dig selv mod svindelGPT?

På trods af at det er en ny slags værktøj, er truslen fra FraudGPT ikke fundamentalt anderledes. Man kan sige, at det introducerer mere automatisering og effektivitet til allerede etablerede metoder til at udføre cyberkriminalitet.

Kriminelle, der bruger værktøjet, ville i det mindste teoretisk være i stand til at skrive mere overbevisende phishing-e-mails, bedre planlægning svindel og skabe mere effektiv malware, men de ville for det meste stadig stole på de etablerede måder at udføre deres uhyggelige planer. Som følge heraf gælder de etablerede måder at beskytte dig selv på:

  • Vær på vagt over for uopfordrede beskeder, der beder dig om oplysninger eller henvise dig til at klikke på links. Giv ikke oplysninger eller klik på links i disse meddelelser, medmindre du bekræfter kilden.
  • Kontakt virksomheder direkte ved hjælp af et uafhængigt, verificeret nummer for at kontrollere legitimiteten. Brug ikke kontaktoplysninger i mistænkelige beskeder.
  • Brug stærke, unikke adgangskoder, der er svære at knække og omfavn to-faktor-godkendelse, når den er tilgængelig for alle konti. Del aldrig adgangskoder eller koder, der er sendt til dig.
  • Tjek regelmæssigt kontoudtog for mistænkelig aktivitet.
  • Hold software opdateret, og brug antivirus- eller anti-malware-værktøjer.
  • Makuler dokumenter, der indeholder personligt identificerende eller økonomiske oplysninger, når de ikke længere er nødvendige.

For mere om, hvordan du beskytter dig selv, læs vores guide om hvordan du beskytter dig selv i AI-æraen.

Hold dig informeret for at beskytte dig selv

Fremkomsten af ​​værktøjer som FraudGPT minder os om, at på trods af alt det gode, AI kan gøre for os, repræsenterer det stadig et meget potent værktøj i hænderne på trusselsaktører.

Mens regeringer og store AI-virksomheder går på et hektisk kapløb for at indføre bedre måder at regulere AI på, er det vigtigt at være opmærksom på den trussel, som AI i øjeblikket udgør og tage de nødvendige forholdsregler for at beskytte dig selv.