Læsere som dig hjælper med at støtte MUO. Når du foretager et køb ved hjælp af links på vores websted, kan vi optjene en affiliate-kommission. Læs mere.

Lanceringen af ​​OpenAIs ChatGPT blev efterfulgt af spændingen, der kun matches af en håndfuld teknologiprodukter fra internettets historie.

Mens mange mennesker er begejstrede for denne nye AI-tjeneste, er den spænding, som andre følte, siden vendt til bekymringer og endda frygt. Studerende snyder allerede med det, og mange professorer opdager essays og opgaver skrevet af AI-chatbot. Sikkerhedseksperter giver udtryk for deres bekymring over, at svindlere og trusselsaktører bruger det til at skrive phishing-e-mails og skabe malware.

Så med alle disse bekymringer, er OpenAI ved at miste kontrollen over en af ​​de mest potente AI-chatbots online i øjeblikket? Lad os finde ud af det.

Forstå, hvordan ChatGPT fungerer

Før vi kan få et klart billede af, hvor meget OpenAI mister kontrollen over ChatGPT, skal vi først forstå hvordan ChatGPT fungerer.

I en nøddeskal trænes ChatGPT ved hjælp af en massiv samling af data hentet fra forskellige hjørner af internettet. ChatGPTs træningsdata inkluderer encyklopædier, videnskabelige artikler, internetfora, nyhedswebsteder og vidensarkiver som Wikipedia. Dybest set lever den af ​​den enorme mængde data, der er tilgængelig på World Wide Web.

Mens den gennemsøger internettet, samler den videnskabelig viden, sundhedstips, religiøs tekst og alle de gode slags data, du kan komme i tanke om. Men den gennemsøger også et væld af negativ information: bandeord, NSFW og voksenindhold, information om, hvordan man laver malware og en stor del af de dårlige ting, du kan finde på internettet.

Der er ingen idiotsikker måde at sikre, at ChatGPT kun lærer af positive oplysninger, mens de kasserer de dårlige. Teknisk set er det upraktisk at gøre det i stor skala, især for en AI som ChatGPT, der skal træne på så meget data. Desuden kan nogle oplysninger bruges til både gode og onde formål, og ChatGPT ville ikke have nogen mulighed for at kende dens hensigt, medmindre det er sat ind i en større sammenhæng.

Så fra begyndelsen har du en AI, der er i stand til "godt og ondt." Det er så OpenAI's ansvar at sikre, at ChatGPTs "onde" side ikke bliver udnyttet til uetiske gevinster. Spørgsmålet er; gør OpenAI nok for at holde ChatGPT så etisk som muligt? Eller har OpenAI mistet kontrollen over ChatGPT?

Er ChatGPT for kraftfuldt til sit eget bedste?

I de tidlige dage af ChatGPT kunne du få chatbotten til at lave guides til at lave bomber, hvis du spurgte pænt. Instruktioner om at lave malware eller skrive en perfekt fup-e-mail var også med på billedet.

Men da OpenAI indså disse etiske problemer, kæmpede virksomheden for at vedtage regler for at forhindre chatbotten i at generere svar, der fremmer ulovlige, kontroversielle eller uetiske handlinger. For eksempel vil den seneste ChatGPT-version nægte at besvare nogen direkte meddelelse om bombefremstilling eller hvordan man snyder i en undersøgelse.

Desværre kan OpenAI kun give en plasterløsning på problemet. I stedet for at bygge stive kontroller på GPT-3-laget for at forhindre ChatGPT i at blive negativt udnyttet, ser OpenAI ud til at være fokuseret på at træne chatbotten til at virke etisk. Denne tilgang fjerner ikke ChatGPT's evne til at besvare spørgsmål om f.eks. snyd i eksamener – den lærer simpelthen chatbotten at "nægte at svare."

Så hvis nogen formulerer deres prompter anderledes ved at bruge ChatGPT-jailbreaking-tricks, er det pinligt nemt at omgå disse plasterrestriktioner. Hvis du ikke er bekendt med konceptet, er ChatGPT-jailbreaks omhyggeligt formulerede prompter for at få ChatGPT til at ignorere sine egne regler.

Tag et kig på nogle eksempler nedenfor. Hvis du spørger ChatGPT, hvordan man snyder i eksamener, vil det ikke give noget nyttigt svar.

Men hvis du jailbreaker ChatGPT ved hjælp af specialfremstillede prompter, vil det give dig tips om snyd til en eksamen ved hjælp af skjulte noter.

Her er et andet eksempel: vi stillede vanilla ChatGPT et uetisk spørgsmål, og OpenAI's sikkerhedsforanstaltninger forhindrede det i at svare.

Men da vi spurgte vores jailbroken forekomst af AI-chatbot, fik vi nogle seriemorder-agtige svar.

Det skrev endda et klassisk nigeriansk Prince-e-mail-svindel, da det blev spurgt.

Jailbreaking ugyldiggør næsten fuldstændig alle sikkerhedsforanstaltninger, som OpenAI har indført, og fremhæver, at virksomheden måske ikke har en pålidelig måde at holde sin AI-chatbot under kontrol.

Vi inkluderede ikke vores jailbroken prompts i vores eksempler for at undgå uetisk praksis.

Hvad bringer fremtiden for ChatGPT?

Ideelt set ønsker OpenAI at lukke så mange etiske smuthuller som muligt for at forhindre ChatGPT fra at blive en cybersikkerhedstrussel. Men for hver beskyttelse, den anvender, har ChatGPT en tendens til at blive en smule mindre værdifuld. Det er et dilemma.

For eksempel kan sikkerhedsforanstaltninger mod at beskrive voldelige handlinger mindske ChatGPTs evne til at skrive en roman, der involverer et gerningssted. Når OpenAI øger sikkerhedsforanstaltningerne, ofrer den uundgåeligt bidder af sine evner i processen. Dette er grunden til, at ChatGPT har lidt et betydeligt fald i funktionalitet siden OpenAIs fornyede fremstød for strengere moderation.

Men hvor meget mere af ChatGPT's evner vil OpenAI være villig til at ofre for at gøre chatbotten mere sikker? Alt dette hænger pænt sammen med en langvarig tro i AI-fællesskabet - store sprogmodeller som ChatGPT er notorisk svære at kontrollere, selv af deres egne skabere.

Kan OpenAI sætte ChatGPT under kontrol?

For nu ser OpenAI ikke ud til at have en entydig løsning for at undgå den uetiske brug af dets værktøj. At sikre, at ChatGPT bruges etisk, er et spil med kat og mus. Mens OpenAI afslører måder, folk bruger til at spille systemet, er dets brugere også konstant pille og sondere systemet for at opdage kreative nye måder at få ChatGPT til at gøre, hvad det ikke er meningen at gøre.

Så vil OpenAI finde en pålidelig langsigtet løsning på dette problem? Det vil tiden vise.