AI er ikke klar til at udslette os... endnu.

Kunstig intelligens har været et debatemne lige siden starten. Mens frygten for, at en Skynet-lignende AI kommer til live og overtager menneskeheden mildest talt er irrationel, har nogle eksperimenter givet resultater.

Et sådant eksperiment er papirclips-maksimeringsproblemet, et tankeeksperiment, der viser, at en yderst intelligent AI, selvom den er designet fuldstændig uden ondskab, i sidste ende kan ødelægge menneskeheden.

Papirclipsmaksimeringsproblemet forklaret

Dette tankeeksperiment om, at selv en fuldstændig harmløs kunstig intelligens i sidste ende kunne udslette menneskeheden, blev først kaldt Paperclip Maximizer, simpelthen fordi papirclips blev valgt til at vise hvad AI kunne gøre, da de har ringe tilsyneladende fare og ikke vil forårsage følelsesmæssig nød sammenlignet med andre områder, som dette problem gælder for, såsom at helbrede kræft eller at vinde krige.

Det første eksperiment dukkede op i den svenske filosof Nick Bostroms papir fra 2003,

instagram viewer
Etiske spørgsmål i avanceret kunstig intelligens, som inkluderede papirclips-maksimering for at vise de eksistentielle risici, en avanceret nok AI kunne bruge.

Problemet præsenterede en AI, hvis eneste mål var at lave så mange papirklip som muligt. En tilstrækkelig intelligent AI ville før eller siden indse, at mennesker udgør en udfordring for sit mål på tre forskellige punkter.

  • Mennesker kunne slå AI fra.
  • Mennesker kunne ændre deres mål.
  • Mennesker er lavet af atomer, som kan forvandles til papirclips.

I alle tre eksempler ville der være færre papirklip i universet. Derfor en tilstrækkelig intelligent AI, hvis eneste mål er at lave så mange papirclips som muligt ville overtage alt stof og energi inden for rækkevidde og forhindre sig i at blive lukket af eller ændret. Som du sikkert kan gætte, er dette meget farligere end kriminelle, der bruger ChatGPT til at hacke din bankkonto eller pc.

AI'en er ikke fjendtlig over for mennesker; det er bare ligegyldigt. En AI, der kun bekymrer sig om at maksimere antallet af papirclips, ville derfor udslette menneskeheden og i det væsentlige konvertere dem til papirclips for at nå sit mål.

Hvordan gælder Paperclip Maximizer-problemet for AI?

Forsknings- og eksperimentomtaler af papirclips-maksimeringsproblemet nævner alle en hypotetisk ekstremt kraftfuld optimizer eller en yderst intelligent agent som den handlende part her. Alligevel gælder problemet for AI lige så meget, som det passer perfekt til rollen.

Ideen om en papirclipsmaksimering blev skabt for at vise nogle af farerne ved avanceret kunstig intelligens. Samlet set giver det to problemer.

  • Ortogonalitet afhandling: Ortogonalitetstesen er den opfattelse, at intelligens og motivation ikke er gensidigt afhængige af hinanden. Det betyder, at det er muligt for en AI med et højt niveau af generel intelligens ikke at nå de samme moralske konklusioner, som mennesker gør.
  • Instrumentel konvergens: Instrumentel konvergens er defineret som tendensen for de fleste tilstrækkeligt intelligente væsener (begge menneskelige og ikke-menneskelige) til at forfølge lignende delmål, selvom deres endelige mål måske er fuldstændigt forskellige. I tilfælde af papirclips-maksimeringsproblemet betyder det, at AI ender med at overtage hver naturressource og udslette menneskeheden bare for at nå sit mål om at skabe mere og mere papirclips.

Det større problem, der fremhæves af papirclipsmaksimering, er instrumentel konvergens. Det kan også fremhæves ved hjælp af Riemann-hypotesen, i hvilket tilfælde en AI designet til at løse hypotesen meget vel kan beslutte at overtage alle Jordens masse og konverter den til computronium (de mest effektive computerprocessorer muligt) for at bygge supercomputere for at løse problemet og nå dets mål.

Bostrom har selv understreget, at han ikke tror på, at papirclipsmaksimeringsproblemet nogensinde vil være et reelt problem, men hans hensigt var at illustrere farerne ved at skabe superintelligente maskiner uden at vide, hvordan man kontrollerer eller programmerer dem til ikke at være eksistentielt risikable for mennesker væsener. Moderne AI-systemer som ChatGPT har også problemer, men de er langt fra de superintelligente AI-systemer, der bliver talt om i papirclips-maksimeringsproblemet, så der er ingen grund til panik endnu.

Avancerede AI-systemer har brug for overlegen kontrol

Papirclipsmaksimeringsproblemet når altid den samme konklusion og fremhæver problemerne med at styre et yderst intelligent og kraftfuldt system, der mangler menneskelige værdier.

Selvom brugen af ​​papirclips kan være den mest populære metode til at illustrere problemet, gælder det for et hvilket som helst antal opgaver, du kunne give til en AI, hvad enten det er at eliminere kræft, vinde krige, plante flere træer eller enhver anden opgave, uanset hvor tilsyneladende Dum.