AI-udviklingen skubber hurtigt fremad, men hvem skal guide AI og dens indflydelse på verden?
Nøgle takeaways
- AI har brug for strengere overvågning, da cybersikkerhedssårbarheder og privatlivsproblemer fortsat dukker op.
- Regeringen, teknologivirksomheder og slutbrugere har alle en rolle at spille i reguleringen af AI, men hver tilgang har sine begrænsninger.
- Medier, non-profit organisationer, tekniske brancheforeninger, akademiske institutioner og retshåndhævende myndigheder bidrager også til reguleringen af kunstig intelligens.
Den brede offentlighed har forskellige holdninger til kunstig intelligens – nogle mener, at maskiner helt vil erstatte menneskelige arbejdere, mens andre hævder, at kunstig intelligens er et modefænomen. En ting alle er dog enige om er, at AI har brug for strengere overvågning.
På trods af vigtigheden af AI-regulering har det taget en bagsædet til træning. Udviklere er så besat af at bygge den næststørste AI-model, at de handler med cybersikkerhed for hurtige fremskridt. Spørgsmålet er ikke, om AI har brug for regulering; det er, hvilket styrende organ med tilstrækkelig finansiering, menneskelige ressourcer og teknologisk kapacitet vil tage initiativet.
Så hvem skal regulere AI?
statslige organer
Forskellige mennesker, fra forbrugere til tech-ledere, håber, at regeringen vil regulere AI. Offentligt finansierede institutioner har ressourcerne til at gøre det. Selv Elon Musk og Sam Altman, to hovedkørere af AI-løbet, mener, at nogle privatlivsproblemer omkring AI er for farlige for styrende organer at overse.
Regeringen bør fokusere på at beskytte sine vælgeres privatliv og borgerlige frihedsrettigheder, hvis den overtager AI-regulering. Cyberkriminelle bliver ved med at finde måder at udnytte AI-systemer i deres ordninger. Personer, der ikke er velbevandret i kunstig intelligens, kan nemt lade sig narre af syntetiserede stemmer, deepfake-videoer og bot-drevne onlineprofiler.
Et stort problem med regeringen, der regulerer AI, er imidlertid, at det uforvarende kan kvæle innovation. AI er en kompleks teknologi i udvikling. Medmindre embedsmændene, der fører tilsyn med retningslinjerne for implementering, udvikling og træning, forstår, hvordan AI fungerer, kan de træffe for tidlige, ineffektive domme.
AI-udviklere, teknologiske virksomheder og laboratorier
I betragtning af de potentielle vejspærringer, der kan opstå fra regeringens overvågning af AI, vil mange hellere have teknologivirksomheder i spidsen for regulering. De mener, at udviklere bør være ansvarlige for den teknologi, de frigiver. Selvregulering sætter dem i stand til at drive innovation og fokusere på at fremme disse systemer effektivt.
Desuden vil deres dybdegående forståelse af kunstig intelligens hjælpe dem med at lave retfærdige, informerede retningslinjer, der prioriterer brugersikkerhed uden at gå på kompromis med funktionaliteten. Som med enhver teknologi strømliner brancheekspertise overvågningen. At tildele utrænede embedsmænd til at regulere teknologier, de knap nok forstår, kan give flere problemer end fordele.
Tag det amerikanske senats høring i 2018 om Facebooks love om databeskyttelse som et eksempel. I denne rapport af Washington Post, vil du se, at mange lovgivere er forvirrede med Facebooks grundlæggende funktioner. Så medmindre det amerikanske senat opretter en eneste afdeling af tekniske specialister, er de sandsynligvis ikke kvalificerede til at regulere et så avanceret, stadigt skiftende system som AI.
Men det største problem med teknologivirksomheder, der regulerer sig selv, er, at lyssky virksomheder kan misbruge deres magt. Uden nogen indgribende tredjepart er de dybest set frie til at gøre, hvad de vil.
Slutbrugere
Nogle frygter, at offentlige og private enheder vil misbruge AI-systemer. De er usikre på at give en håndfuld styrende organer total kontrol over så kraftfulde teknologier, især da kunstig intelligens stadig er under udvikling. De kan i sidste ende kæmpe om autoritet i stedet for at arbejde hen imod effektiv regulering.
For at afbøde disse risici mener skeptikere, at slutbrugere fortjener frie tøjler til at bruge AI-modeller, som de vil. De siger, at regeringsorganer kun bør blande sig, når AI-brugere bryder loven. Det er et ambitiøst mål, men det kunne teknisk set opnås, hvis open source AI-udviklere dominerede markedsandele.
Når det er sagt, stiller denne opsætning ikke-teknologikyndige personer en ulempe. Brugere er ansvarlige for at sætte begrænsningerne i deres systemer - desværre er det ikke alle, der har ressourcerne til at gøre det.
Det er også kortsigtet at fjerne proprietære modeller fra markedet. Udbredelsen af open source AI-modeller har flere positive og negative virkninger; for nogle opvejer ulemperne fordelene.
Andre enheder, der spiller en rolle i reguleringen af AI
Selvom store enheder vil stå i spidsen for reguleringen af kunstig intelligens, er der organer, der spiller væsentlige roller:
Medier spiller en afgørende rolle i at forme offentlighedens opfattelse af kunstig intelligens. De rapporterer om industriens udvikling, deler nye værktøjer, gør opmærksom på den skadelige anvendelse af kunstig intelligens og interviewer eksperter om relevante bekymringer.
De fleste af de fakta, slutbrugere kender til AI, kommer grundlæggende fra medier. Udgivelse af falske data, uanset om det er med vilje eller ej, vil forårsage uoprettelig skade - du kan ikke undervurdere, hvor hurtigt misinformation spredes.
2. Ikke-statslige organisationer
Adskillige non-profit organisationer er centreret omkring beskyttelse af AI-brugeres privatliv og borgerlige frihedsrettigheder. De uddanner offentligheden gennem gratis ressourcer, går ind for nye politikker, samarbejder med embedsmænd og giver udtryk for oversete bekymringer.
Det eneste problem med NPO'er er, at de normalt mangler ressourcer. Da de ikke er forbundet med regeringen, er de afhængige af private anmodninger og donationer til den daglige drift. Desværre er det kun få organisationer, der får tilstrækkelig finansiering.
3. Tekniske industriforeninger
AI-fokuserede tech-industriforeninger kan repræsentere offentlighedens rettigheder og interesser. Ligesom NPO'er arbejder de med lovgivere, repræsenterer bekymrede enkeltpersoner, går ind for retfærdige politikker og skaber opmærksomhed om specifikke spørgsmål.
Forskellen er dog, at de ofte har tilknytning til private virksomheder. Deres medlemmer gør stadig opfordringer, men de vil normalt få nok finansiering fra deres moderorganisationer, så længe de leverer resultater.
4. Akademiske institutioner
Selvom AI kommer med flere risici, er den i sagens natur neutral. Alle skævheder, privatlivsproblemer, sikkerhedsfejl og potentielle cyberkriminalitetsaktiviteter stammer fra mennesker, så AI i sig selv er ikke noget at frygte.
Men meget få forstår allerede, hvordan moderne AI-modeller fungerer. Misforståelser skævvrider folks opfattelse af kunstig intelligens og fastholder grundløs frygt som f.eks. at kunstig intelligens overtager menneskeheden eller stjæler jobs.
Akademiske institutioner kunne udfylde disse uddannelseshuller gennem tilgængelige ressourcer. Der er ikke for mange videnskabelige værker om moderne LLM'er og NLP-systemer endnu. Offentligheden kan bruge kunstig intelligens mere ansvarligt og bekæmpe cyberkriminalitet, hvis de fuldt ud forstår, hvordan det fungerer.
5. Retshåndhævende myndigheder
Retshåndhævende myndigheder bør forvente at støde på flere AI-aktiverede cyberangreb. Med udbredelsen af generative modeller kan skurke hurtigt syntetisere stemmer, generere deepfake billeder, skrabe personligt identificerbare oplysninger (PII), og endda skabe helt nye personas.
De fleste agenturer er ikke udstyret til at håndtere disse forbrydelser. De bør investere i nye systemer og træne deres betjente i moderne cyberkriminalitet; ellers vil de have problemer med at fange disse skurke.
Fremtiden for AI-regulering
I betragtning af AI's hurtige natur er det usandsynligt for et enkelt styrende organ at kontrollere det. Ja, teknologiske ledere vil have mere magt end forbrugere, men forskellige enheder skal samarbejde for at håndtere AI-risici uden at hindre fremskridt. Det er bedst at sætte kontrolforanstaltninger nu, mens kunstig generel intelligens (AGI) stadig er et fjernt mål.
Når det er sagt, er AI-regulering lige så fjern som AGI. I mellemtiden skal brugerne overholde sikkerhedspraksis for at bekæmpe AI-drevne trusler. Gode vaner som at begrænse de mennesker, du forbinder med online og sikre din digitale PII, går allerede langt.