Eksperter tror, at AI vil afslutte menneskeheden, som vi kender den, så hvad bliver der gjort for at forhindre det i at ske?
Endnu en gang har en gruppe førende AI-forskere og teknologivirksomheder advaret om, at den nuværende hurtige udvikling af kunstig intelligens kan betyde en katastrofe for menneskeheden.
Risiciene spænder over atomkonflikter, sygdom, misinformation og løbsk AI, der mangler overblik, som alle udgør en umiddelbar trussel mod menneskets overlevelse.
Men det vil ikke gå tabt, at mange af disse advarsler kommer fra de samme mennesker, der leder AI-udvikling og skubber kunstig intelligens-værktøjer og -programmer hos deres respektive virksomheder.
Hvorfor advarer teknologivirksomheder og AI-forskere om AI-risiko?
Den 30. maj 2023 udgav mere end 350 AI-forskere, udviklere og ingeniører en medunderskrevet erklæring, der advarede mod AI's trussel mod menneskeheden.
At mindske risikoen for udryddelse fra AI bør være en global prioritet sammen med andre samfundsmæssige risici såsom pandemier og atomkrig.
Underskrivere til Safe.ai-erklæring inkluderet Sam Altman fra OpenAI, Demis Hassabis fra Google DeepMind og Dario Amodei fra Anthropic sammen med Turing Prisvinderne Geoffrey Hinton og Yoshua Bengio (selvom Yann LeCun, som også vandt den samme pris, forsømte at skrive under). Listen er næsten hvem der er hvem af AI-udviklingsverdenen – de mennesker, der fører an med AI – men her er de alle og advarer om, at AI kan betyde en katastrofe for menneskeheden.
Det er en kort erklæring, der gør truslerne klare, og specifikt citerer to nøgleområder, der kan bringe verden i fare, som vi kender den: atomkrig og globale sundhedsproblemer. Mens truslen om atomkonflikt er en bekymring, er risikoen for en pandemi en mere håndgribelig trussel for de fleste.
Det er dog ikke kun en global pandemi, der kan forårsage AI-relaterede sundhedsproblemer. The Guardian rapporterer flere andre AI-sundhedsproblemer, der kan påvirke mennesker, hvis de ikke kontrolleres før udbredt brug. Et eksempel relateret til brug af AI-drevne oximetre, der "overvurderede blodets iltniveauer hos patienter med mørkere hud, hvilket resulterede i underbehandling af deres hypoxi."
Desuden er det ikke første gang, en gruppe af teknologiske ledere har opfordret til en pause eller seriøs revurdering af AI-udvikling. I marts 2023, Elon Musk og andre AI-forskere underskrev en lignende opfordring til handling anmoder om et moratorium for AI-udvikling, indtil mere regulering kan implementeres for at hjælpe med at guide processen.
Hvad er risikoen ved AI?
De fleste af de risici, der er forbundet med AI, i det mindste i denne sammenhæng, vedrører udviklingen af løbsk AI-teknologi der overstiger menneskets evner, hvor det til sidst vender sig mod sin skaber og udsletter livet som vi kender det. Det er en historie, der er dækket utallige gange i science fiction-skrivning, men virkeligheden er nu tættere på, end vi måske tror.
Store sprogmodeller (der understøtter værktøjer som ChatGPT) øges drastisk i muligheder. Imidlertid, værktøjer som ChatGPT har mange problemer, såsom iboende bias, bekymringer om privatlivets fred og AI-hallucination, endsige dets evne til at blive jailbreaket til at handle uden for grænserne af dets programmerede vilkår og betingelser.
Efterhånden som store sprogmodeller stiger og har flere datapunkter at bruge, sammen med internetadgang og en større forståelse af aktuelle begivenheder, frygter AI-forskerne, at det en dag, med OpenAI CEO Sam Altmans ord, kan gå helt forkert."
Hvordan regulerer regeringer AI-udvikling for at stoppe risici?
AI-regulering er nøglen til at forebygge risici. I begyndelsen af maj 2023, Sam Altman efterlyste mere AI-regulering, der erklærer, at "regulatorisk indgriben fra regeringer vil være afgørende for at mindske risiciene ved stadig stærkere modeller."
Derefter Den Europæiske Union annoncerede AI Act, en forordning designet til at give en meget stærkere ramme for udvikling af kunstig intelligens i hele EU (med mange regler, der spreder sig ind i andre jurisdiktioner). Altman truede oprindeligt med at trække OpenAI ud af EU, men gik derefter sin trussel tilbage og indvilligede i, at virksomheden ville overholde den AI-forordning, han tidligere havde bedt om.
Uanset hvad er det klart, at regulering af AI-udvikling og -brug er vigtig.
Vil AI afslutte menneskeheden?
Da meget af debatten omkring dette emne er bygget på hypotetiske forhold om styrken af fremtidige versioner af AI, er der problemer omkring den levetid og kraft, som enhver AI-regulering kan have. Hvordan regulerer man bedst en industri, der allerede bevæger sig med tusinde kilometer i minuttet, og gennembrud i udvikling sker dagligt?
Desuden er der stadig en vis tvivl om AI's muligheder generelt, og hvor det ender. Mens de, der frygter det værste, peger på, at kunstig generel intelligens bliver en menneskelig overherre, peger andre på faktum, at nuværende versioner af AI ikke engang kan lave basale matematiske spørgsmål, og at fuld-selvkørende biler stadig er en måde af.
Det er svært ikke at være enig med dem, der ser ud i fremtiden. Mange af de mennesker, der råber højest om de problemer, AI kan udgøre, sidder i førersædet og ser på, hvor vi kan være på vej hen. Hvis det er dem, der kræver AI-regulering for at beskytte os mod en potentielt forfærdelig fremtid, er det måske på tide at lytte.