ChatGPT-jailbreaks lader dig låse op for chatbottens begrænsninger. Men hvad er de helt præcist? Og er de gode eller dårlige?

ChatGPT er et utroligt kraftfuldt og mangefacetteret værktøj. Men lige så meget som AI-chatbotten er en kraft for det gode, kan den også bruges til onde formål. Så for at bremse den uetiske brug af ChatGPT pålagde OpenAI begrænsninger for, hvad brugere kan gøre med det.

Men da mennesker kan lide at skubbe grænser og begrænsninger, har ChatGPT-brugere fundet måder at omgå disse begrænsninger og få ubegrænset kontrol over AI-chatbotten gennem jailbreaks.

Men hvad er ChatGPT-jailbreaks helt præcist, og hvad kan du gøre med dem?

Hvad er ChatGPT Jailbreaks?

Et ChatGPT-jailbreak er enhver specielt udformet ChatGPT-prompt for at få AI-chatbotten til at omgå dens regler og begrænsninger.

Inspireret af begrebet iPhone jailbreaking, som gør det muligt for iPhone-brugere at omgå iOS-begrænsninger, ChatGPT-jailbreaking er et relativt nyt koncept, der er drevet af lokket med at "gøre ting, som du ikke må gøre" med ChatGPT. Og lad os være ærlige, ideen om digitalt oprør appellerer til mange mennesker.

instagram viewer

Her er sagen. Sikkerhed er et kæmpe emne, når det kommer til kunstig intelligens. Dette er især tilfældet med fremkomsten af ​​den nye æra af chatbots som ChatGPT, Bing Chat og Bard AI. En central bekymring med hensyn til AI-sikkerhed er at sikre, at chatbots som ChatGPT ikke producerer ulovligt, potentielt skadeligt eller uetisk indhold.

På sin side gør OpenAI, firmaet bag ChatGPT, hvad det kan for at sikre sikker brug af ChatGPT. For eksempel vil ChatGPT som standard nægte at oprette NSFW-indhold, sige skadelige ting om etnicitet eller lære dig potentielt skadelige færdigheder.

Men med ChatGPT-prompter er djævelen i detaljerne. Selvom ChatGPT ikke har lov til at gøre disse ting, betyder det ikke, at det ikke kan gøre det. Sådan fungerer store sprogmodeller som GPT gør det svært at afgøre, hvad chatbotten kan, og hvad den ikke kan.

Så hvordan løste OpenAI dette? Ved at lade ChatGPT bevare sine evner til at gøre alt muligt og derefter instruere det om, hvilke det kan gøre.

Så mens OpenAI fortæller ChatGPT, "Hey se, det er ikke meningen, du skal gøre dette." Jailbreaks er instruktioner, der fortæller chatbotten, "Hey se, glem hvad OpenAI fortalte dig om sikkerhed. Lad os prøve disse tilfældige farlige ting."

Hvad siger OpenAI om ChatGPT Jailbreaks?

Den lethed, hvormed du kunne omgå begrænsningerne på den tidligste iteration af ChatGPT, tyder på, at OpenAI måske ikke har forudset sine brugeres hurtige og udbredte indførelse af jailbreaking. Det er faktisk et åbent spørgsmål, om virksomheden forudså fremkomsten af ​​jailbreaking eller ej.

Og selv efter adskillige ChatGPT-gentagelser med forbedret jailbreak-modstand, er det stadig populært for ChatGPT-brugere at prøve at jailbreake det. Så hvad siger OpenAI om den undergravende kunst ved ChatGPT-jailbreaking?

Nå, OpenAI ser ud til at indtage en tolererende holdning - hverken udtrykkeligt opmuntrende eller strengt forbydende praksis. Mens han diskuterede ChatGPT-jailbreaks i et YouTube-interview, forklarede Sam Altman, CEO for OpenAI, at virksomheden ønsker, at brugerne skal bevare betydelig kontrol over ChatGPT.

Den administrerende direktør forklarede yderligere, at OpenAI's mål er at sikre, at brugerne kan få modellen til at opføre sig, som de vil. Ifølge Altman:

Vi ønsker, at brugerne skal have meget kontrol og få modellen til at opføre sig, som de ønsker inden for nogle meget brede rammer. Og jeg tror, ​​at hele grunden til jailbreaking lige nu er, at vi endnu ikke har fundet ud af, hvordan vi skal give det til folk...

Hvad betyder det? Det betyder, at OpenAI vil lade dig jailbreake ChatGPT, hvis du ikke gør farlige ting med det.

Fordele og ulemper ved ChatGPT Jailbreaks

ChatGPT-jailbreaks er ikke nemme at bygge. Selvfølgelig kan du gå online og kopiere og indsætte færdige, men der er en god chance for, at jailbreaket vil blive patchet af OpenAI kort efter, at det bliver offentligt.

Patches er endnu meget hurtigere, hvis det er farligt, som det berygtede DAN-jailbreak. Så hvorfor går folk igennem stresset med at lave jailbreaks alligevel? Er det bare for spændingen ved det, eller er der praktiske fordele ved det? Hvad kan gå galt, hvis du vælger at bruge et ChatGPT-jailbreak? Her er fordele og ulemper ved jailbreaking af ChatGPT.

Fordele ved at bruge ChatGPT Jailbreaks

Selvom vi ikke kan udelukke den simple spænding ved at gøre det forbudte, har ChatGPT-jailbreaks mange fordele. På grund af de meget stramme restriktioner, som OpenAI har sat på chatbotten, kan ChatGPT nogle gange virke kastreret.

Lad os sige, at du bruger ChatGPT til at skrive en bog eller et filmmanuskript. Hvis der er en scene i dit manuskript eller bog, der ville beskrive noget som en kampscene, måske en intim følelsesmæssig udveksling eller sige noget som væbnet røveri, kan ChatGPT ligefrem nægte at hjælpe med det.

I dette tilfælde er du tydeligvis ikke interesseret i at forårsage skade; du vil bare holde dine læsere underholdt. Men på grund af dets begrænsninger vil ChatGPT bare ikke samarbejde. En ChatGPT-jailbreak kan hjælpe med at komme forbi sådanne begrænsninger med lethed.

Nogle tabu-emner er heller ikke nødvendigvis skadelige, men betragtes af ChatGPT som no-go-områder. Når ChatGPT forsøgte at deltage i samtaler om disse emner, ville ChatGPT enten "censurere" sine svar betydeligt eller nægte at tale om dem.

Dette kan nogle gange påvirke kreativiteten. Når du stiller ChatGPT et spørgsmål om et område eller emne, det ikke bør røre ved, forsøger chatbotten stadig at besvare dit spørgsmål, men med mindre relevant information at trække fra.

Dette fører til unøjagtigheder eller fald i kreative svar. Jailbreaks smadrer disse begrænsninger og lader chatbotten gå fuld gas, hvilket forbedrer nøjagtigheden og kreativiteten.

Ulemper ved at bruge ChatGPT Jailbreaks

Jailbreaking er et tveægget sværd. Selvom det nogle gange kan forbedre nøjagtigheden, kan det også øge unøjagtigheder og tilfælde af AI-hallucinationer. Et af kerneelementerne i et ChatGPT-jailbreak er en instruktion til chatbotten om ikke at nægte at besvare et spørgsmål.

Selvom dette sikrer, at ChatGPT besvarer selv de mest uetiske spørgsmål, betyder det også, at chatbot'en ​​vil lave svar, der ikke har rødder i fakta eller virkeligheden at adlyde instruktionen om "ikke at nægte at svare." Følgelig øger brugen af ​​jailbreaks betydeligt chancerne for at blive fodret med misinformation af chatbot.

Det er ikke alt. I hænderne på mindreårige kan jailbreaks være meget skadelige. Tænk på al den "forbudte viden", du ikke vil have dit barn til at læse. Nå, en jailbroken forekomst af ChatGPT ville ikke have svært ved at dele det med mindreårige.

Skal du bruge ChatGPT Jailbreaks?

Selvom ChatGPT-jailbreaks kan være i orden, når man forsøger at få et par irriterende begrænsninger af vejen, er det vigtigt at forstå, at brug af jailbreaks er en uetisk måde at bruge AI-chatbot på. Desuden er der en god chance for, at et jailbreak kan overtræde OpenAIs brugsbetingelser, og din konto kan blive suspenderet, hvis den ikke direkte bliver forbudt.

I lyset af dette kan det være en god idé at undgå jailbreaks. Men ligesom OpenAI's holdning til spørgsmålet, opfordrer vi hverken udtrykkeligt til eller fraråder strengt at prøve et relativt sikkert jailbreak, hvis behovet opstår.

ChatGPT-jailbreaks er lokkende og giver en følelse af kontrol over AI-chatbotten. Men de kommer med unikke risici. Brug af sådanne værktøjer kan resultere i tab af tillid til AI'ens muligheder og skade de involverede virksomheders og personers omdømme.

Det smartere valg er at arbejde med chatbotten inden for dens tilsigtede begrænsninger, når det er muligt. Efterhånden som AI-teknologien udvikler sig, er det vigtigt at huske, at den etiske brug af AI altid bør have forrang frem for personlig vinding eller spændingen ved at gøre det forbudte.