Generativ AI er et tveægget sværd, der bruges til angreb og forsvar mod cyberkriminalitet.

Generativ kunstig intelligens (AI) har været i søgelyset på det seneste. AI-drevet chatbot ChatGPT og andre understøttede systemer til behandling af naturligt sprog, såsom VALL-E, har bragt generativ kunstig intelligens til den brede offentlighed og frigjort dens fordele og negative virkninger.

En af de centrale bekymringer ved generativ AI er, at den kan bruges til at opgradere ondsindede udnyttelser og komme med mere sofistikerede cyberangreb. Så hvordan bruger hackere generativ AI i deres angreb, og hvad betyder det for fremtiden for cybersikkerhed?

Hvad er generativ AI, og hvordan virker det?

Som navnet antyder, er generativ AI en type AI, der er i stand til at generere nyt indhold - billeder, tekst, lyd og syntetiske data.

Et berømt eksempel er ChatGPT, en AI-drevet chatbot, som du kan have menneskelignende samtaler med og få nogle fantastiske filmanbefalinger - det er hvis du ikke kan komme i tanke om en mere meningsfuld mission at sende ChatGPT på.

instagram viewer

Lad os give dig en idé eller to – det kunne du få ChatGPT til at skrive alle de svære e-mails til dig, bruge ChatGPT som et oversættelsesværktøj, og endda gør ChatGPT til din sunde måltidsplanlægningsassistent. Alt i alt kan denne chatbot på få sekunder komme med tilsyneladende nyt, overbevisende indhold og præsentere det på en ret politisk korrekt måde.

En generativ AI kan dog ikke være kreativ på en måde, som et menneske kan, endnu. Dette skyldes, at den bruger uovervågede og semi-overvågede maskinlæringsalgoritmer til at behandle en frygtelig masse data og generere brugerdefinerede output.

For eksempel, hvis du vil bestille et Picasso-lignende maleri fra en generativ AI såsom DALL-E 2, skal du skrive din beskrivelse i et udpeget felt - lad os sige "Picassos Guernica men med killinger" - og bliv ved et par sekunder. I løbet af den tid vil AI anvende alle specifikke træk ved kunstnerens stil, den har lært før, tilføje killinger for en god ordens skyld, og kom med noget originalt - vi fik det billede, du kan se lidt over.

Hvordan bruger hackere generativ AI i deres angreb?

Onde fyre har altid været tiltrukket af gode algoritmer. Så det er ingen overraskelse, at de udnytter generativ AI til at styrke deres angreb. Ved at bruge ML-metoder såsom forstærkende læring og generative kontradiktoriske netværk, cyberkriminelle kan komme med nye, mere sofistikerede cyberangreb, der kan bryde igennem standarden cyberforsvar.

Et eksempel på denne perversion er OpenAI's "cutting edge" chatbot, som ChatGPT udnyttes af cyberkriminelle til at skrive malware. I starten så ChatGPT ud til at være sjov og spil, men nu er det afsløret som en af ​​de største sikkerhedstrusler og privatlivstrusler. Hvis du kan lide at chatte med ChatGPT, er det smart at passe på ting cyberkriminelle kunne gøre med ChatGPT.

Kort sagt, ChatGPT og andre generative AI-værktøjer har gjort livet lettere for cyberkriminelle og sværere for sikkerhedsteams. Nogle af måderne, hvorpå cybertrusselsaktører bruger kunstig intelligens i deres angreb inkluderer:

  • Opbygning af bedre, mere sofistikeret malware: I hænderne på hackere kan generativ AI bruges til at generere svære at opdage malware-stammer og udføre angreb. Kombineret med AI-modeller kan malware maskere sin hensigt, indtil den opfylder sit dårlige formål.
  • Skrivning af AI-drevne, personlige phishing-e-mails: Ved hjælp af generativ AI har phishing-e-mails ikke længere de afslørende tegn på svindel – såsom dårlig stavning, dårlig grammatik og mangel på kontekst. Plus, med kunstig intelligens som ChatGPT, kan trusselsaktører iværksætte phishing-angreb med hidtil uset hastighed og skala.
  • Generering af dybe falske data: Da det kan skabe overbevisende efterligninger af menneskelige aktiviteter - som skrift, tale og billeder – generativ kunstig intelligens kan bruges til svigagtige aktiviteter såsom identitetstyveri, økonomisk bedrageri og desinformation.
  • Cracking CAPTCHAs og password gætte: Brugt af websteder og netværk til at udkæmpe bots, der søger uautoriseret adgang, kan CAPTCHA nu omgås af hackere. Ved at bruge ML kan de også udføre andre gentagne opgaver såsom gættekode og brute-force-angreb.
  • Saboterer ML i detektion af cybertrusler: Hvis et sikkerhedssystem er overvældet med for mange falske positiver, kan en hacker overraske det med et rigtigt cyberangreb.

Hvordan kan vi bekæmpe generativ AI-trussel?

Efterhånden som cyberangreb bliver mere sofistikerede og deres konsekvenser mere alvorlige, vil traditionelle sikkerhedssystemer blive til noget fra svunden tid. Med evnen til at lære af tidligere angreb og tilpasse sig, er AI et uvurderligt aktiv både for cyberkriminelle og deres modstandere.

Brugen af ​​kunstig intelligens i cybersikkerhed har nogle alvorlige fordele, såsom hurtigere trusselsdetektion, trusselsidentifikation og trusselsrespons - så at bekæmpe ild med ild virker som det rigtige svar. Før cyberkriminelle lærer, hvordan man uddeler ødelæggende slag til enkeltpersoner og virksomheder på tværs af hele verden verden, skal cybersikkerhedsprofessionelle lære deres AI-drevne systemer at beskytte sig mod disse angreb.

Det hele er dog ikke op til AI. Når alt kommer til alt, kan vi også styrke vores egen sikkerhed og privatliv med afprøvede metoder som multi-faktor autentificering (MFA), biometrisk teknologi, ved hjælp af en adgangskodemanager, ved hjælp af bedst krypterede samarbejdsværktøjer, og en god, gammel sund fornuft.

Bekæmpelse af AI med AI

Så vil vi være vidne til AI-cybersikkerhedskrige i den nærmeste fremtid? Nå, det håber vi ikke. Men efterhånden som AI fortsætter med at udvikle sig og bliver tilgængelig for alle – både cyberkriminelle og cybersikkerhedsprofessionelle – vil rollen som AI og ML blive større i de kommende år.