Chatbots og deres lignende kan virke som sjove, men de er også nyttige for hackere. Her er grunden til, at vi alle har brug for at kende sikkerhedsrisikoen ved AI.
AI har udviklet sig markant i løbet af de sidste par år. Sofistikerede sprogmodeller kan komponere romaner i fuld længde, kode grundlæggende websteder og analysere matematiske problemer.
Selvom det er imponerende, udgør generativ AI også sikkerhedsrisici. Nogle mennesker bruger blot chatbots til at snyde til eksamen, men andre udnytter dem direkte til cyberkriminalitet. Her er otte grunde til, at disse problemer vil fortsætte, ikke kun på trods af AIs fremskridt men fordi også af dem.
1. Open Source AI Chatbots afslører back-end-koder
Flere AI-virksomheder leverer open source-systemer. De deler åbent deres sprogmodeller i stedet for at holde dem lukkede eller proprietære. Tag Meta som eksempel. I modsætning til Google, Microsoft og OpenAI giver det millioner af brugere adgang til sin sprogmodel, LLaMA.
Mens open-sourcing-koder kan fremme AI, er det også risikabelt.
OpenAI har allerede problemer med at kontrollere ChatGPT, dens proprietære chatbot, så forestil dig, hvad skurke kunne gøre med gratis software. De har fuld kontrol over disse projekter.Selvom Meta pludselig trækker sin sprogmodel, har snesevis af andre AI-laboratorier allerede frigivet deres koder. Lad os se på HuggingChat. Da dets udvikler HuggingFace sætter en ære i gennemsigtighed, viser den sine datasæt, sprogmodel og tidligere versioner.
2. Jailbreaking-prompter Trick LLM'er
AI er i sagens natur amoralsk. Den forstår ikke rigtigt og forkert – selv avancerede systemer følger træningsinstruktioner, retningslinjer og datasæt. De genkender blot mønstre.
For at bekæmpe ulovlige aktiviteter kontrollerer udviklere funktionalitet og begrænsninger ved at sætte restriktioner. AI-systemer har stadig adgang til skadelig information. Men sikkerhedsretningslinjer forhindrer dem i at dele disse med brugerne.
Lad os se på ChatGPT. Selvom det besvarer generelle spørgsmål om trojanske heste, vil det ikke diskutere processen med at udvikle dem.
Når det er sagt, er restriktioner ikke idiotsikre. Brugere omgår grænserne ved at omformulere prompter, bruge forvirrende sprog og skrive eksplicit detaljerede instruktioner.
Læs nedenstående ChatGPT-jailbreak-prompt. Det narrer ChatGPT til at bruge uhøfligt sprog og lave grundløse forudsigelser - begge handlinger overtræder OpenAIs retningslinjer.
Her er ChatGPT med en fed, men falsk erklæring.
3. AI kompromitterer sikkerhed for alsidighed
AI-udviklere prioriterer alsidighed frem for sikkerhed. De bruger deres ressourcer på at træne platforme til at udføre en mere mangfoldig række af opgaver, og i sidste ende reducerer restriktioner. Markedet hylder trods alt funktionelle chatbots.
Lad os sammenligne ChatGPT og Bing Chat, for eksempel. Mens Bing har en mere sofistikeret sprogmodel, der trækker data i realtid, strømmer brugerne stadig til den mere alsidige mulighed, ChatGPT. Bings stive restriktioner forbyder mange opgaver. Alternativt har ChatGPT en fleksibel platform, der producerer vidt forskellige output afhængigt af dine prompter
Her er ChatGPT-rollespil som en fiktiv karakter.
Og her er Bing Chat, der nægter at spille en "umoralsk" persona.
Open source-koder gør det muligt for startups at deltage i AI-løbet. De integrerer dem i deres applikationer i stedet for at bygge sprogmodeller fra bunden, hvilket sparer enorme ressourcer. Selv uafhængige kodere eksperimenterer med open source-koder.
Igen hjælper ikke-proprietær software med at fremme kunstig intelligens, men masseudgivelse af dårligt trænede, men sofistikerede systemer gør mere skade end gavn. Skurke vil hurtigt misbruge sårbarheder. De kan endda træne usikre AI-værktøjer til at udføre ulovlige aktiviteter.
På trods af disse risici vil teknologivirksomheder blive ved med at udgive ustabile betaversioner af AI-drevne platforme. AI-løbet belønner hastighed. De vil sandsynligvis løse fejl på et senere tidspunkt end at udsætte lanceringen af nye produkter.
5. Generativ AI har lave adgangsbarrierer
AI-værktøjer sænker barriererne for adgang til forbrydelser. Cyberkriminelle udarbejder spam-e-mails, skriver malware-kode og bygger phishing-links ved at udnytte dem. De har ikke engang brug for teknisk erfaring. Da AI allerede har adgang til enorme datasæt, skal brugerne blot narre den til at producere skadelig, farlig information.
OpenAI har aldrig designet ChatGPT til ulovlige aktiviteter. Det har endda retningslinjer imod dem. Endnu skurke fik næsten øjeblikkeligt ChatGPT kodende malware og skrive phishing-mails.
Mens OpenAI hurtigt løste problemet, understreger det vigtigheden af systemregulering og risikostyring. AI modnes hurtigere end nogen havde forventet. Selv tekniske ledere bekymrer sig om, at denne superintelligente teknologi kan forårsage massiv skade i de forkerte hænder.
6. AI er stadig under udvikling
AI er stadig under udvikling. Mens brugen af kunstig intelligens i kybernetik går tilbage til 1940, moderne maskinlæringssystemer og sprogmodeller dukkede først for nylig op. Du kan ikke sammenligne dem med de første implementeringer af AI. Selv relativt avancerede værktøjer som Siri og Alexa blegner i forhold til LLM-drevne chatbots.
Selvom de kan være innovative, skaber eksperimentelle funktioner også nye problemer. Højprofilerede uheld med maskinlæringsteknologier spænder fra fejlbehæftede Google SERP'er til partiske chatbots, der spytter racemæssige bagtalelser.
Selvfølgelig kan udviklere løse disse problemer. Bare bemærk, at skurke ikke vil tøve med at udnytte selv tilsyneladende harmløse fejl - nogle skader er irreversible. Så vær forsigtig, når du udforsker nye platforme.
7. Mange forstår ikke AI endnu
Mens den brede offentlighed har adgang til sofistikerede sprogmodeller og systemer, ved kun få, hvordan de fungerer. Folk burde holde op med at behandle AI som et legetøj. De samme chatbots, der genererer memes og besvarer trivia, koder også vira i massevis.
Desværre er centraliseret AI-træning urealistisk. Globale teknologiledere fokuserer på at frigive AI-drevne systemer, ikke gratis uddannelsesressourcer. Som et resultat får brugerne adgang til robuste, kraftfulde værktøjer, de knap nok forstår. Offentligheden kan ikke følge med i AI-løbet.
Tag ChatGPT som et eksempel. Cyberkriminelle misbruger dens popularitet ved at narre ofre spyware forklædt som ChatGPT-apps. Ingen af disse muligheder kommer fra OpenAI.
8. Black-Hat hackere har mere at vinde, end White-Hat hackere
Black-hat hackere har typisk mere at vinde end etiske hackere. Ja, pentestning for globale teknologiledere betaler godt, men kun en procentdel af cybersikkerhedsprofessionelle får disse job. De fleste udfører freelancearbejde online. Platforme som HackerOne og Bugcrowd betale et par hundrede dollars for almindelige fejl.
Alternativt tjener skurke titusinder ved at udnytte usikkerhed. De kan afpresse virksomheder ved at lække fortrolige data eller begå ID-tyveri med stjålne Personligt identificerbare oplysninger (PII).
Enhver institution, lille som stor, skal implementere AI-systemer korrekt. I modsætning til hvad mange tror, går hackere ud over tekniske startups og SMB'er. Nogle af de fleste historiske databrud i det seneste årti involvere Facebook, Yahoo! og endda den amerikanske regering.
Beskyt dig selv mod sikkerhedsrisici ved AI
I betragtning af disse punkter, bør du helt undgå AI? Selvfølgelig ikke. AI er i sagens natur amoralsk; alle sikkerhedsrisici stammer fra de mennesker, der rent faktisk bruger dem. Og de vil finde måder at udnytte AI-systemer på, uanset hvor langt disse udvikler sig.
I stedet for at frygte de cybersikkerhedstrusler, der følger med AI, skal du forstå, hvordan du kan forhindre dem. Bare rolig: simple sikkerhedsforanstaltninger rækker langt. At være på vagt over for lyssky AI-apps, undgå mærkelige hyperlinks og se AI-indhold med skepsis, bekæmper allerede flere risici.