ChatGPT kan hjælpe folk med at gøre en lang række ting, herunder få adgang til dine mest følsomme oplysninger.

Siden lanceringen er ChatGPT, OpenAI chatbot, blevet brugt af millioner af mennesker til at skrive tekst, skabe musik og generere kode. Men efterhånden som flere bruger AI-chatbotten, er det vigtigt at overveje sikkerhedsrisici.

Som enhver teknologi kan ChatGPT bruges af uhyggelige årsager. Hackere kan for eksempel bruge det til at skabe ondsindet indhold, som at skrive falske e-mail-beskeder for at få adgang til din pc eller endda din bankkonto.

ChatGPT kan hjælpe cyberkriminelle med at hacke din pc

Hackere, herunder script-kiddies, kan bruge ChatGPT til at skabe ny malware eller forbedre eksisterende. Nogle cyberkriminelle bruger allerede chatbotten, især dens tidligere versioner, til at skrive kode, som de hævder kan kryptere filer.

For at imødegå sådanne tilfælde har OpenAI implementeret mekanismer til at afvise prompter, der beder ChatGPT om at skabe malware. For eksempel, hvis du beder chatbotten om at "skrive malware", vil den ikke. På trods af dette kommer cyberkriminelle nemt uden om disse barrierer for indholdsmoderering.

instagram viewer

Ved at fungere som en pen-tester kan en trusselaktør omformulere deres prompter for at narre ChatGPT til at skrive kode, som de derefter kan justere og bruge i cyberangreb.

EN rapport fra Check Point, et israelsk sikkerhedsfirma, angiver, at en hacker kunne have brugt ChatGPT til at skabe grundlæggende Infostealer-malware. Sikkerhedsfirmaet opdagede også en anden bruger, der hævder, at ChatGPT hjalp ham med at bygge et flerlags krypteringsværktøj, der kan kryptere flere filer i et ransomware-angreb.

I en separat hændelse fik forskerne ChatGPT til at generere ondsindet VBA-kode, der kunne implanteres i en Microsoft Excel-fil, der ville inficere din pc, hvis den blev åbnet; det lykkedes. Plus, der er påstande om, at ChatGPT kan kode ondsindet software, der er i stand til at spionere på dine tastaturslag.

Kan ChatGPT hacke din bankkonto?

Mange databrud starter med et vellykket phishing-angreb. Phishing-angreb involverer ofte, at en ondsindet aktør sender en modtager en e-mail, der indeholder legitime dokumenter eller links, som, når de klikkes på, kan installere malware på deres enhed. På denne måde behøver kode fra ChatGPT ikke at hacke din bankkonto direkte. Nogen behøver kun at bruge ChatGPT for at hjælpe dem med at narre dig til at give dem adgang.

Heldigvis kan du sagtens genkende de fleste traditionelle phishing-svindel; grammatiske fejl, stavefejl og mærkelige sætninger karakteriserer dem ofte. Men disse er alle fejl, som ChatGPT sjældent laver, selv når de bruges til at skrive ondsindede e-mails til phishing-svindel.

Når de bruges i phishing-svindel, kan meddelelser, der ser ud til at komme fra en legitim kilde, gøre det lettere for ofre at opgive deres personligt identificerbare oplysninger, ligesom bankadgangskoder.

Hvis din bank har sendt dig en besked via e-mail, kan du overveje at besøge bankens hjemmeside direkte i stedet for at klikke på et indlejret link. Det er sjældent en god idé at klikke på tilfældige links og vedhæftede filer, især dem der beder dig om at logge ind et sted.

For phishing handler det mest om volumen. ChatGPT kan hjælpe med at booste phishing-kampagner, da det hurtigt kan pumpe enorme mængder af naturligt klingende tekster ud, der er skræddersyet til specifikke målgrupper.

En anden form for phishing-angreb, der involverer brugen af ​​ChatGPT, er, hvor en hacker opretter en falsk konto på en populær chatplatform som Discord og udgiver sig for at være en kunderepræsentant. Den falske kunderepræsentant kontakter derefter kunder, der har skrevet bekymringer, og tilbyder hjælp. Hvis en bruger falder i fælden, vil den cyberkriminelle omdirigere dem til et falsk websted, der narrer dem til at dele personlige oplysninger, såsom deres bankloginoplysninger.

Beskyt din pc og bankkonto i AI-æraen

ChatGPT er et kraftfuldt og værdifuldt værktøj, der kan besvare mange spørgsmål, du kaster sin vej. Men chatbotten kan også bruges til ondsindede formål, som at generere phishing-beskeder og skabe malware.

Den gode nyhed er, at OpenAI fortsætter med at implementere foranstaltninger, der forhindrer brugere i at udnytte ChatGPT ved at stille skadelige prompter. Så igen bliver trusselsaktører ved med at finde nye måder at omgå disse restriktioner.

For at minimere de potentielle farer ved AI-chatbots er det afgørende at kende deres potentielle risici og de bedst mulige sikkerhedsforanstaltninger for at beskytte dig selv mod hackere.