Med moderne AI-sprogmodeller som ChatGPT og Microsofts Bing Chat, der skaber bølger rundt om i verden, er en række mennesker bekymrede for, at AI skal overtage verden.

Selvom vi ikke vil løbe ind i SkyNet i en overskuelig fremtid, bliver AI bedre end mennesker til flere ting. Det er her AI-kontrolproblemet kommer ind i billedet.

AI-kontrolproblemet forklaret

AI-kontrolproblemet er ideen om, at AI med tiden vil blive bedre til at træffe beslutninger end mennesker. I overensstemmelse med denne teori, hvis mennesker ikke sætter tingene korrekt op på forhånd, vil vi ikke have en chance for at rette tingene senere, hvilket betyder, at AI vil have effektiv kontrol.

Nuværende forskning om AI og Machine Learning (ML) modeller er i det mindste år fra at overgå menneskelige evner. Det er dog rimeligt at tro, at i betragtning af de nuværende fremskridt vil AI overgå mennesker med hensyn til både intelligens og effektivitet.

Dermed ikke sagt, at AI- og ML-modeller ikke har deres grænser. De er trods alt bundet af fysikkens love og beregningsmæssig kompleksitet, såvel som processorkraften af ​​de enheder, der understøtter disse systemer. Det er dog sikkert at antage, at disse grænser er langt ud over menneskelige evner.

instagram viewer

Det betyder, at superintelligent AI-systemer kan udgøre en stor trussel hvis det ikke er korrekt designet med sikkerhedsforanstaltninger på plads for at kontrollere eventuel slyngel adfærd. Sådanne systemer skal bygges fra bunden for at respektere menneskelige værdier og holde deres magt i skak. Dette er, hvad kontrolproblemet betyder, når det siger, at tingene skal sættes korrekt op.

Hvis et AI-system skulle overgå menneskelig intelligens uden de rette sikkerhedsforanstaltninger, kunne resultatet blive katastrofalt. Sådanne systemer kunne overtage kontrol over fysiske ressourcer, da mange opgaver opnås bedre eller mere effektivt. Da AI-systemer er designet til at opnå maksimal effektivitet, kan tab af kontrol føre til alvorlige konsekvenser.

Hvornår opstår AI-kontrolproblemet?

Hovedproblemet er, at jo bedre et AI-system bliver, jo sværere er det for en menneskelig supervisor at overvåge teknologien for at sikre, at manuel kontrol nemt kan overtages, hvis systemet skulle svigte. Derudover er den menneskelige tendens til at stole på et automatiseret system højere, når systemet fungerer pålideligt det meste af tiden.

Et godt eksempel på dette er Tesla Full-Self Driving (FSD) suite. Mens bilen kan køre selv, kræver det, at et menneske har hænderne på rattet, klar til at tage kontrol over bilen, hvis systemet skulle fejle. Men efterhånden som disse AI-systemer bliver mere pålidelige, vil selv de mest opmærksomme menneskers opmærksomhed begynde at variere, og afhængigheden af ​​det autonome system vil øges.

Så hvad sker der, når biler begynder at køre med hastigheder, som mennesker ikke kan følge med? Vi ender med at overgive kontrollen til bilens autonome systemer, hvilket betyder, at et AI-system vil have kontrol over dit liv, i det mindste indtil du når din destination.

Kan AI-kontrolproblemet løses?

Der er to svar på, hvorvidt AI-kontrolproblemet kan løses. For det første, hvis vi fortolker spørgsmålet bogstaveligt, kan kontrolproblemet ikke løses. Der er intet, vi kan gøre, der direkte retter sig mod den menneskelige tendens til at stole på et automatiseret system, når det fungerer pålideligt og mere effektivt det meste af tiden.

Men hvis denne tendens skal tages i betragtning som et træk ved sådanne systemer, kan vi udtænke måder at omgå kontrolproblemet på. For eksempel Algoritmisk beslutningstagning og kontrolproblemet forskningsartikel foreslår tre forskellige metoder til at håndtere knibe:

  • Brugen af ​​mindre pålidelige systemer kræver, at et menneske aktivt engagerer sig i systemet, da mindre pålidelige systemer ikke udgør kontrolproblemet.
  • At vente på, at et system overstiger menneskelig effektivitet og pålidelighed, før implementering i den virkelige verden.
  • At implementere kun delvis automatisering ved hjælp af opgavenedbrydning. Det betyder, at kun de dele af et system, der ikke kræver, at en menneskelig operatør udfører en vigtig opgave, er automatiseret. Det kaldes den dynamiske/komplementære allokering af funktion (DCAF) tilgang.

DCAF-tilgangen sætter altid en menneskelig operatør i spidsen for et automatiseret system, og sikrer, at deres input styrer de vigtigste dele af systemets beslutningsproces. Hvis et system engagerer nok til, at en menneskelig operatør kan være opmærksom konstant, kan kontrolproblemet løses.

Kan vi nogensinde virkelig kontrollere AI?

Efterhånden som AI-systemer bliver mere avancerede, dygtige og pålidelige, vil vi fortsætte med at overføre flere opgaver til dem. Imidlertid kan AI-kontrolproblemet løses med de rigtige forholdsregler og sikkerhedsforanstaltninger.

AI er allerede ved at ændre verden for os, mest til det bedre. Så længe teknologien holdes under menneskelig opsyn, burde der ikke være noget for os at bekymre os om.