ChatGPT kan være et nyttigt værktøj, uanset om dine intentioner er gode eller dårlige. Det betyder, at ChatGPT kan hjælpe, hvis du ønsker at deltage i svindel.
Selvom mange digitale indfødte roser ChatGPT, frygter nogle, at det gør mere skade end gavn. Nyhedsrapporter om skurke, der kaprer AI, har været rundt på internettet, hvilket øger uroen blandt skeptikere. De betragter endda ChatGPT som et farligt værktøj.
AI chatbots er ikke perfekte, men du behøver ikke at undgå dem helt. Her er alt, hvad du bør vide om, hvordan skurke misbruger ChatGPT, og hvad du kan gøre for at stoppe dem.
Vil ChatGPT kompromittere dine personlige oplysninger?
De fleste frontend-sikkerhedsbekymringer om ChatGPT stammer fra spekulationer og ubekræftede rapporter. Platformen blev trods alt først lanceret i november 2022. Det er naturligt for nye brugere at have misforståelser om privatlivets fred og sikkerhed for ukendte værktøjer.
Ifølge OpenAIs brugsbetingelser, her er, hvordan ChatGPT håndterer følgende data:
Personligt identificerbare oplysninger
Rygter siger, at ChatGPT sælger personligt identificerbare oplysninger (PII).
Platformen blev lanceret af OpenAI, et velrenommeret AI-forskningslaboratorium finansieret af teknologiinvestorer som Microsoft og Elon Musk. ChatGPT bør kun bruge kundedata til at levere de tjenester, der er angivet i Fortrolighedspolitik.
Desuden beder ChatGPT om minimal information. Du kan oprette en konto med kun dit navn og din e-mailadresse.
Samtaler
OpenAI holder ChatGPT-samtaler sikre, men det forbeholder sig retten til at overvåge dem. AI-trænere leder løbende efter forbedringsområder. Da platformen omfatter store, men begrænsede datasæt, kræver løsning af fejl, fejl og sårbarheder system-dækkende opdateringer.
OpenAI kan dog kun overvåge konvoser til forskningsformål. Distribution eller salg af dem til tredjeparter overtræder dets egne vilkår for brug.
Offentlig information
Ifølge BBC, OpenAI trænede ChaGPT på 300 milliarder ord. Det indsamler data fra offentlige websider, såsom sociale medieplatforme, virksomhedswebsteder og kommentarsektioner. Medmindre du er gået væk fra nettet og slettet dit digitale fodaftryk, har ChatGPT sandsynligvis dine oplysninger.
Hvilke sikkerhedsrisici udgør ChatGPT?
Selvom ChatGPT ikke i sig selv er farligt, udgør platformen stadig sikkerhedsrisici. Skurke kan omgå restriktioner for at udføre forskellige cyberangreb.
1. Overbevisende phishing-e-mails
I stedet for at bruge timer på at skrive e-mails, bruger skurke ChatGPT. Det er hurtigt og præcist. Avancerede sprogmodeller (såsom GPT-3.5 og GPT-4) kan producere hundredvis af sammenhængende, overbevisende phishing-e-mails på få minutter. De adopterer endda unikke toner og skrivestile.
Da ChatGPT gør det sværere at opdage hackingforsøg, vær ekstra forsigtig, før du besvarer e-mails. Undgå som hovedregel at videregive oplysninger. Bemærk, at legitime virksomheder og organisationer sjældent beder om fortrolig PII gennem tilfældige e-mails.
Lær at spotte hackingforsøg. Selvom e-mail-udbydere filtrerer spam-beskeder, kan nogle listige dem falde igennem. Du bør stadig vide, hvordan phishing-beskeder ser ud.
2. Datatyveri
ChatGPT bruger en open source LLM, som alle kan ændre. Kodere, der er dygtige til store sprogmodeller (LLM) og maskinlæring, integrerer ofte forudtrænede AI-modeller i deres gamle systemer. Træning af AI på nye datasæt ændrer funktionaliteten. For eksempel bliver ChatGPT en pseudo-fitness-ekspert, hvis du giver den opskrifter og træningsrutiner.
Selvom det er samarbejdende og bekvemt, efterlader open-sourcing teknologier sårbare over for misbrug. Dygtige kriminelle udnytter allerede ChatGPT. De træner den på store mængder stjålne data, hvilket gør platformen til en personlig database for svindel.
Husk: du har ingen kontrol over, hvordan skurke fungerer. Den bedste tilgang er at kontakte Federal Trade Commission (FTC), når du bemærker det tegn på identitetstyveri.
3. Malware produktion
ChatGPT skriver brugbare kodestykker på forskellige programmeringssprog. De fleste prøver kræver minimale ændringer for at fungere korrekt, især hvis du strukturerer en kortfattet prompt. Du kan bruge denne funktion til at udvikle apps og websteder.
Da ChatGPT blev trænet på milliarder af datasæt, kender den også til ulovlig praksis, som at udvikle malware og vira. OpenAI forbyder chatbots at skrive ondsindede koder. Men skurke omgår disse restriktioner ved at omstrukturere prompter og stille præcise spørgsmål.
Billedet nedenfor viser, at ChatGPT afviser at skrive kode til ondsindede formål.
I mellemtiden viser billedet nedenfor, at ChatGPT vil give dig skadelig information, hvis du formulerer dine prompter korrekt.
4. Intellektuel ejendomstyveri
Uetiske bloggere spinner indhold ved hjælp af ChatGPT. Da platformen kører på avancerede LLM'er, kan den hurtigt omformulere tusindvis af ord og undgå plagiat-tags.
ChatGPT omformulerede nedenstående tekst på 10 sekunder.
Selvfølgelig klassificeres spinning stadig som plagiat. Parafraserede AI-artikler rangerer nogle gange tilfældigt, men Google foretrækker generelt originalt indhold fra velrenommerede kilder. Billige tricks og SEO-hacks kan ikke slå stedsegrøn skrivning af høj kvalitet.
Google udgiver desuden flere kerneopdateringer årligt. Det vil snart fokusere på at fjerne dovne, uoriginale AI-genererede stykker fra SERP'er.
5. Generering af uetiske reaktioner
AI-sprogmodeller har ingen skævheder. De giver svar ved at analysere brugeranmodninger og trække data fra deres eksisterende database.
Tag ChatGPT som et eksempel. Når du sender en prompt, reagerer den baseret på de datasæt, OpenAI brugte til træning.
Mens ChatGPTs indholdspolitikker blokerer upassende anmodninger, omgår brugerne dem med jailbreak-prompter. De giver den præcise, smarte instruktioner. ChatGPT producerer nedenstående svar, hvis du beder den om at portrættere en psykopatisk fiktiv karakter.
Den gode nyhed er OpenAI har ikke mistet kontrollen over ChatGPT. Dets igangværende bestræbelser på at stramme restriktioner forhindrer ChatGPT i at producere uetiske svar, uanset brugerinput. Jailbreaking vil ikke være så let at komme videre.
6. Noget for noget
Den hurtige vækst af nye, ukendte teknologier som ChatGPT skaber muligheder for quid pro quo-angreb. Det er social ingeniør-taktikker, hvor skurke lokker ofre med falske tilbud.
De fleste mennesker har ikke udforsket ChatGPT endnu. Og hackere udnytter forvirringen ved at sprede vildledende kampagner, e-mails og meddelelser.
De mest berygtede sager involverer falske apps. Nye brugere ved ikke, at de kun kan få adgang til ChatGPT gennem OpenAI. De downloader ubevidst spammy-programmer og -udvidelser.
De fleste vil bare have app-downloads, men andre stjæler personligt identificerbare oplysninger. Skurke inficerer dem med malware og phishing-links. For eksempel, i marts 2023, en falsk ChatGPT Chrome-udvidelse stjal Facebook-legitimationsoplysninger fra 2.000+ brugere dagligt.
Undgå tredjepartsapps for at bekæmpe quid pro quo-forsøg. OpenAI har aldrig frigivet en autoriseret mobilapp, computerprogram eller browserudvidelse til ChatGPT. Alt, der hævder som sådan, er svindel.
Brug ChatGPT sikkert og ansvarligt
ChatGPT er ikke en trussel i sig selv. Systemet har sårbarheder, men det kompromitterer ikke dine data. I stedet for at frygte AI-teknologier, undersøg, hvordan skurke inkorporerer dem i social engineering taktik. På den måde kan du proaktivt beskytte dig selv.
Men hvis du stadig er i tvivl om ChatGPT, så prøv Bing. Den nye Bing har en AI-drevet chatbot, der kører på GPT-4, trækker data fra internettet og følger strenge sikkerhedsforanstaltninger. Du finder det måske mere egnet til dine behov.