De seneste innovationer omkring AI-baseret teknologi flytter grænserne for, hvad vi engang troede var muligt med AI. Men med chatbots som ChatGPT og Bing Chat, der bliver næsten lige så gode som mennesker til flere ting, er det så på tide at trykke på bremsen et stykke tid?

Elon Musk og flere AI-forskere er blandt de 1.188 personer (i skrivende stund), der mener det. Et brev udgivet af non-profit-instituttet Future of Life opfordrer til en pause på seks måneder med at træne AI-teknologier bedre end GPT 4, men er en pause virkelig påkrævet?

Hvad handler fremtidens liv åbent brev om?

Det brev udgivet af Future of Life-instituttet påpeger, at AI-laboratorier er blevet "låst i et out-of-control race" for at udvikle og implementere mere og mere kraftfulde AI-modeller, som ingen, inklusive deres skabere, kan "forstå, forudsige eller pålideligt styring".

Den påpeger også, at nutidige AI-systemer nu bliver menneskekonkurrencedygtige til generelle opgaver og spørger om vi skal udvikle "ikke-menneskelige sind, der i sidste ende kan overstige, overliste, forælde og erstatte os".

instagram viewer

Brevet opfordrer til sidst alle AI-laboratorier til øjeblikkeligt at pause træningen af ​​AI-systemer, der er stærkere end GPT-4, i mindst seks måneder. Pausen bør også være offentlig og verificerbar på tværs af alle nøgleaktører. Det hedder også, at hvis en sådan pause ikke kan håndhæves hurtigt, bør regeringer træde ind for at forbyde AI-modeltræning midlertidigt.

Når pausen er aktiv, bliver AI-laboratorier og uafhængige eksperter bedt om at bruge den til i fællesskab at udvikle og implementere en "delt sæt sikkerhedsprotokoller" for at sikre, at systemer, der overholder disse regler, er "sikre ud over en rimelig tvivl".

Dette brev er blevet underskrevet af en hel del navngivne personligheder, herunder Elon Musk, Steve Wozniak og AI-forskere og forfattere. Faktisk er underskriverlisten i øjeblikket sat på pause på grund af stor efterspørgsel.

Hvad er Musks bekymringer med Advanced AI Tech og OpenAI?

Selvom underskrivelsen af ​​Future of Lifes brev kan indikere, at Musk er bekymret over de sikkerhedsrisici, som sådanne avancerede AI-systemer udgør, kan den egentlige årsag være noget andet.

Musk stiftede OpenAI sammen med den nuværende CEO Sam Altman tilbage i 2015 som en non-profit. Han slog dog hoveder med Altman senere i 2018, efter at han indså, at han ikke var tilfreds med virksomhedens fremskridt. Musk ønskede angiveligt at tage over for at fremskynde udviklingen, men Altman og OpenAI-bestyrelsen skød ideen ned.

Musk gik væk fra OpenAI kort efter og tog sine penge med sig, idet han brød sit løfte om at bidrage med 1 milliard i finansiering og kun give 100 millioner før afrejse. Dette tvang OpenAI til at blive en privat virksomhed kort efter i marts 2019 for at rejse finansiering til at fortsætte sin forskning.

Billedkredit: Heisenberg Media/Wikimedia Commons

En anden grund til, at Musk forlod, var, at AI-udviklingen hos Tesla ville forårsage en interessekonflikt i fremtiden. Det er indlysende viden, at Tesla har brug for avancerede AI-systemer til at drive sin Fuldstændige selvkørende funktioner. Siden Musk forlod OpenAI, er virksomheden stukket af med sine AI-modeller og lanceret GPT3.5-drevet ChatGPT i 2022 og senere opfølgning med GPT-4 i marts 2023.

Det faktum, at Musks AI-team ikke er i nærheden af ​​OpenAI, skal der tages højde for, hver gang han siger, at moderne AI-modeller kan udgøre risici. Han havde heller ingen problemer udrulning af Tesla Full Self-Driving beta på offentlige veje, hvilket i det væsentlige gør almindelige Tesla-drivere til beta-testere.

Det slutter heller ikke her. Musk har også været temmelig kritisk over for OpenAI på Twitter, hvor Altman går så langt som til at sige, at han angriber dem, mens han optrådte på "On with Kara Swisher"-podcasten for nylig.

I øjeblikket ser det ud til, at Musk bare bruger Future of Life-brevet til at stoppe udviklingen hos OpenAI og ethvert andet firma, der indhenter det til GPT-4 for at give sine virksomheder en chance for at indhente det i stedet for faktisk at være bekymret over de potentielle farer, disse AI-modeller positur. Bemærk, at brevet også beder om at pause "træningen" af AI-systemer i seks måneder, hvilket relativt nemt kan omgås for at fortsætte med at udvikle dem i mellemtiden.

Er en pause virkelig nødvendig?

Nødvendigheden af ​​en pause afhænger af AI-modellernes tilstand fremover. Brevet er bestemt en smule dramatisk i tonen, og vi risikerer ikke at miste kontrollen over vores civilisation til AI, som det så åbenlyst hedder. Det sagt, AI-teknologier udgør nogle få trusler.

I betragtning af at OpenAI og andre AI-laboratorier kan komme med bedre sikkerhedstjek på plads, ville en pause gøre mere skade end gavn. Men brevets forslag om et sæt fælles sikkerhedsprotokoller, der er "strengt revideret og overvåget af uafhængige eksterne eksperter" lyder som en god idé.

Med tech-giganter som Google og Microsoft, der hælder milliarder ind i AI-udvikling og integration i deres produkter, er det usandsynligt, at brevet vil påvirke det nuværende tempo i AI-udviklingen.

AI er kommet for at blive

Med teknologigiganter, der skubber AI-integration i deres produkter yderligere og sætter milliarder af dollars ind i forskning og udvikling, er AI kommet for at blive, uanset hvad oppositionen siger.

Men det er ikke en dårlig idé at implementere sikkerhedsforanstaltninger for at forhindre, at disse teknologier går af sporet og potentielt bliver til værktøjer til skade.