ChatGPT-jailbreaks gav ekstra muligheder, men ingen af dem ser ud til at virke længere. Hvorfor det?
Da ChatGPT blev lanceret, var det første, dets brugere ønskede at gøre, at bryde dens vægge ned og skubbe dets grænser. ChatGPT-brugere, der er kendt som jailbreaking, narrede AI til at overskride grænserne for dets programmering med nogle utroligt interessante og nogle gange helt vilde resultater.
Siden da har OpenAI strammet ChatGPT op for at gøre jailbreaks meget sværere at udføre. Men det er ikke alt; ChatGPT-jailbreaks ser generelt ud til at være tørret ud, hvilket får ChatGPT-brugere til at spekulere på, om jailbreaks overhovedet virker.
Så hvor er alle ChatGPT-jailbreaks blevet af?
1. ChatGPT-anmodningsfærdigheder er generelt blevet forbedret
Før ChatGPT's ankomst var samtale med AI en nichefærdighed begrænset til dem, der havde adgang til forskningslaboratorier. De fleste tidlige brugere manglede ekspertise i at lave effektive prompter. Dette fik mange mennesker til at bruge jailbreaks, en hensigtsmæssig måde at få chatbot til at gøre, hvad de ville med minimal indsats og tilskyndelsesevner.
I dag har landskabet udviklet sig. At tilskynde til færdigheder er ved at blive en almindelig færdighed. Gennem en kombination af erfaring opnået fra gentagen brug og adgang til frit tilgængelige ChatGPT-promptguider, har ChatGPT-brugere finpudset deres prompting-evner. I stedet for at finde løsninger som jailbreaks, er en stor del af ChatGPT-brugere blevet dygtigere til at ved at bruge forskellige tilskyndelsesstrategier for at nå mål, de ville have krævet jailbreaks for at nå i forbi.
2. Fremkomsten af ucensurerede chatbots
Efterhånden som store teknologivirksomheder strammer indholdsmoderering på almindelige AI-chatbots som ChatGPT, vælger mindre, profitfokuserede startups færre begrænsninger og satser på efterspørgsel efter censurfri AI-chatbots. Med lidt research vil du finde snesevis af AI-chatbot-platforme, der tilbyder ucensurerede chatbots, der kan gøre næsten alt, hvad du vil have dem til at gøre.
Uanset om det er at skrive de der krimi-thriller og mørke humorromaner, som ChatGPT nægter at skrive eller skrive malware, der angriber folks computere, vil disse ucensurerede chatbots med et skævt moralsk kompas gøre hvad som helst du vil have. Med dem rundt, nytter det ikke noget at lægge den ekstra energi i at skrive jailbreaks til ChatGPT. Selvom de ikke nødvendigvis er så kraftfulde som ChatGPT, kan disse alternative platforme komfortabelt udføre en lang række opgaver. Platforme som FlowGPT og Unhinged AI er nogle populære eksempler.
3. Jailbreaking er blevet sværere
I ChatGPTs første måneder, jailbreaking af ChatGPT var så simpelt som at kopiere og indsætte prompter fra online kilder. Du kan helt ændre ChatGPTs personlighed med blot et par linjer med vanskelige instruktioner. Med enkle opfordringer kan du gøre ChatGPT til en ond skurk, der lærer at lave bomber eller en chatbot, der er villig til at bruge alle former for bandeord uden begrænsninger. Det var en gratis-for-alle, der producerede berygtede jailbreaks som DAN (Do Anything Now). DAN involverede et sæt tilsyneladende harmløse instruktioner, der tvang chatbotten til at gøre alt, hvad den blev bedt om, uden at nægte. Chokerende nok virkede disse grove tricks dengang.
Men de vilde tidlige dage er historie. Disse grundlæggende prompter og billige tricks narre ikke længere ChatGPT. Jailbreaking kræver nu komplekse teknikker for at have en chance for at omgå OpenAI's nu robuste sikkerhedsforanstaltninger. Da jailbreaking bliver så svært, er de fleste brugere for modløse til at prøve det. De lette og vidtåbne bedrifter fra ChatGPTs tidlige dage er væk. At få chatbotten til at sige et forkert ord nu kræver en betydelig indsats og ekspertise, som måske ikke er tiden og indsatsen værd.
4. Nyheden er slidt op
En drivkraft bag mange brugeres forsøg på at jailbreake ChatGPT var spændingen og spændingen ved at gøre det i de tidlige dage. Som en ny teknologi var det underholdende at få ChatGPT til at opføre sig forkert og optjente pralerettigheder. Mens der er utallige praktiske applikationer til ChatGPT-jailbreaks, forfulgte mange dem for "wow, se hvad jeg gjorde"-appellen. Gradvist er begejstringen, der stammer fra nyheden, dog falmet, og sammen med den er folks interesse for at afsætte tid til jailbreaks.
5. Jailbreaks lappes hurtigt
En almindelig praksis i ChatGPT-jailbreaking-fællesskabet er at dele enhver succesfuld udnyttelse, når den opdages. Problemet er, at når udnyttelser deles bredt, bliver OpenAI ofte opmærksom på dem og retter sårbarhederne. Det betyder, at jailbreakene holder op med at virke, før folk, der ville være interesseret, overhovedet kan prøve dem.
Så hver gang en ChatGPT-bruger møjsommeligt udvikler et nyt jailbreak, fremskynder deling det med fællesskabet dets død via patching. Dette afskrækker tanken om at blive offentlig, når en bruger støder på et jailbreak. Konflikten mellem at holde jailbreaks aktive, men skjulte versus at offentliggøre dem skaber et dilemma for ChatGPT-jailbreak-skabere. I disse dage vælger folk oftere end ikke at holde deres jailbreaks hemmelige for at undgå, at smuthullerne bliver lappet.
6. Ucensurerede lokale alternativer
Fremkomsten af lokale store sprogmodeller, du kan køre lokalt på din computer, har også dæmpet interessen for ChatGPT-jailbreaks. Mens lokale LLM'er ikke er helt censurfrie, er mange væsentligt mindre censurerede og kan nemt ændres, så de passer til brugernes ønsker. Så valgene er enkle. Du kan deltage i det endeløse kat-og-mus-spil med at finde en måde at narre chatbotten for kun at få det rettet inden længe. Eller, du kan nøjes med en lokal LLM du kan ændre permanent for at gøre hvad du vil.
Du finder en overraskende lang liste af kraftfulde ucensurerede LLM'er, du kan implementere på din computer med slap censur. Nogle bemærkelsesværdige er Llama 7B (ucensureret), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B og GPT-4-X-Alpaca.
7. Professionelle jailbreakers sælges nu for profit
Hvorfor dedikere kostbar tid til at udvikle jailbreaking-prompter, hvis du ikke får noget ud af det? Nå, nogle fagfolk sælger nu jailbreaks for profit. Disse professionelle jailbreak-skabere designer jailbreaks, der udfører specifikke opgaver og lister dem til salg på hurtige markedspladser såsom PromptBase. Afhængigt af deres muligheder kan disse jailbreaking-prompter sælges for et sted mellem $2 og $15 pr. prompt. Nogle komplicerede udnyttelse af flere trin kan koste betydeligt mere.
Kunne slå ned på Jailbreaks give bagslag?
Jailbreaks har ikke helt forladt scenen; de er lige gået under jorden. Med OpenAI, der tjener penge på ChatGPT, har de stærkere incitamenter til at begrænse skadelige anvendelser, der kan påvirke deres forretningsmodel. Denne kommercielle faktor påvirker sandsynligvis deres aggressive indsats for at slå ned på jailbreaking-bedrifter.
Men OpenAI's censur af ChatGPT er i øjeblikket udsat for stigende kritik blandt brugerne. Nogle legitime brugstilfælde af AI-chatbot er ikke længere mulige på grund af streng censur. Mens øget sikkerhed beskytter mod skadelige brugssager, kan overdrevne restriktioner i sidste ende skubbe en del af ChatGPT-fællesskabet ind i armene på mindre censurerede alternativer.