Alene i løbet af de sidste par år er AI-kapaciteterne udviklet sig drastisk. I dag kan vi bruge kunstig intelligens til at skabe kunst, skrive historier, lære om verden og meget mere. Men sker det hele lidt for tidligt? Udvikler kunstig intelligens sig for hurtigt, og hvilke tegn er der, der tyder på dette?

Hvorfor er folk bekymrede over AI?

I slutningen af ​​marts 2023 blev et dokument udgivet online af Future of Life Institute med titlen "Pause Giant AI Experiments: An Open Letter". Dokumentet indeholdt argumenter imod udviklingen af ​​kunstig intelligens forbi det sofistikerede i GPT-4, OpenAIs seneste iteration af en AI-drevet chatbot.

I brevet blev det skrevet, at "AI-systemer med menneskelig konkurrencedygtig intelligens kan udgøre dybe risici for samfundet og menneskeheden," og at "kraftfulde AI-systemer bør kun udvikles, når vi er sikre på, at deres virkninger vil være positive, og deres risici vil være overskuelig."

En række fremtrædende skikkelser i teknologiområdet, herunder Steve Wozniak og

Elon Musk har underskrevet brevet og ønsker at sætte AI-udviklingen på pause. Denne bøn om et stop for AI-udvikling har sat spørgsmålstegn ved, hvor farlig AI er ved at blive, og de risici, det udgør for menneskeliv.

Så hvilke tegn indikerer, at AI bevæger sig for hurtigt?

1. Konkurrence med mennesker

Vi har allerede set teknologi erstatte menneskelige arbejdere i utallige scenarier. Når du går ind på en fastfoodrestaurant, kan du nu bestille via en computerskærm, og når du vil købe dagligvarer, kan du gå til kassen med et automatiseret system. Dette kan være en hurtig og bekvem mulighed, men efterhånden som automatisering bliver mere fremtrædende på tværs af forskellige brancher, er behovet for menneskelige arbejdere faldende.

Det er her problemet begynder. Selvfølgelig skal folk arbejde for at forsørge sig selv, men fremkomsten af ​​automatisering gør det meget sværere. Dette er især tilfældet for mindstelønsarbejdere, såsom dem i fødevareservice-, produktions- og detailbranchen. Grundlæggende opgaver, såsom udtjekning af ordrer, afhentning af læs og rengøring, kan alle udføres af maskiner. Integrationen af ​​AI betyder, at vi måske snart ikke længere har brug for operatører til denne teknologi.

Det blev rapporteret af FormStack at 76 % af virksomhederne bruger automatisering til at standardisere eller automatisere daglige arbejdsgange. Og med Zapier rapporterer, at 94 % af arbejderne har erklæret, at deres job involverer gentagne og tidskrævende opgaver, AI-drevet automatisering kan meget nemt blive en majoritetsdel af den globale arbejdsstyrke på tværs af alle industrier.

2. Tilskyndelse til menneskelig dovenskab

En af de vigtigste fordele ved AI er, at det kan forenkle så mange opgaver. Men denne bekvemmelighed kan meget let vige for dovenskab. Og i nogle tilfælde har den allerede gjort det.

Tag ChatGPT, for eksempel. Du kan bruge ChatGPT til at gøre en række ting som at skrive essays, undersøge emner, lave vittigheder, oversætte tekst og meget mere. At have en service, der hurtigt kan udføre opgaver for dig, er fantastisk, men fører os også hen imod selvtilfredshed. At hæmme indsats og kreativitet på denne måde kan helt sikkert have en negativ effekt på menneskeheden som helhed, hvilket er en nøgleårsag til, at så mange mennesker er bekymrede for AI.

Vi er så vant til AI-drevne tjenester i vores moderne tid, at vi naturligvis har sat meget tillid til dem. For eksempel bruger Microsofts virtuelle assistent, Cortana, machine learning og AI til at udføre brugernes kommandoer. Mange andre virtuelle assistenter, inklusive Apples Siri, bruger også AI til at fungere.

At stole på denne teknologi kan være sikkert, men der er virkelig ingen viden, især i betragtning af at AI stadig er i et meget udviklingsstadium.

3. Spredningen af ​​falsk information

Billedkredit: Deep Homage/Flickr

I almindelige verdener har AI opnået meget berømthed gennem sin evne til at skabe kunst, billeder og videoer. Ikke kun kan AI-drevne tjenester bruges til at skabe kunst, men de kan også skabe en særlig kontroversiel form for medier kendt som deepfakes. Deepfakes er videoer, der viser en persons ansigt overlejret på en anden persons krop.

Dette lyder ret sjovt, men kan meget nemt misbruges.

Der er allerede tusindvis af videoer derude af berømtheder og politiske personer, der ser ud til at sige utroligt utuktige og upassende ting via deepfakes. Mens nogle deepfakes er meget nemme at identificere, er nogle så sofistikerede, at det er svært at skelne, om de er ægte eller ej. Når dette sker, kan folk antage, at en offentlig person har sagt noget, som i virkeligheden aldrig blev sagt af dem overhovedet.

Ud fra dette vil folk komme med meninger om disse videoer, og dermed bidrage til spredningen af ​​misinformation online.

Hvad mere er, AI-drevne chatbots kan også give brugere falsk information. Chatbots såsom ChatGPT, Boost. AI og Drift kan give brugerne en masse information, men disse oplysninger er ikke altid nøjagtige. Som diskuteret af The Guardian, AI-chatbots er på ingen måde forpligtet til at give dig sandfærdig information, hvilket betyder, at falske nyheder meget nemt kan glide igennem sprækkerne og finde vej til dig.

4. Oprettelse af malware

I begyndelsen af ​​2023 begyndte en nyhed at cirkulere om ondsindede aktører, der skaber malware ved hjælp af ChatGPT. I dette tilfælde fandt cyberanalytikerfirmaet Check Point Research, at enkeltpersoner diskuterede fordelene ved at bruge ChatGPT til at skabe malware på et hackingforum. Forfatteren af ​​forumindlægget delte en infostealer, som de havde skrevet i Python ved hjælp af ChatGPT, og opmuntrede andre ondsindede aktører til at skabe malware ved hjælp af chatbot.

Malware-programmer skal kodes, hvilket kan være tidskrævende, især hvis skaberen ikke bruger en skabelon fra et allerede eksisterende program.

Ved at bruge ChatGPT kan ondsindede aktører ikke kun strømline processen med at skabe malware, men mindre teknologisk kyndige individer kan skabe malware. Efterhånden som AI-raffinement fortsætter med at udvikle sig, kan det være muligt at skabe utrolig sofistikeret malware, der kan omgå antivirusdetektion, autentificering, firewalls og andre beskyttelsesforanstaltninger.

5. Manglen på regulering

Et almindeligt problem i tech-industrien er manglen på regulering for nyere tjenester, såsom blockchain-baserede platforme og AI-produkter. Mangel på regulering kan af nogle betragtes som en god ting, men kan også vige for ulovlig praksis.

Ikke alene kan en mangel på regulering føre til en stigning i AI-drevet svindel og cyberkriminalitet, men den måde, hvorpå forskere udvikler AI-teknologier, kan også begynde at krydse nogle alvorlige grænser. Der er etiske overvejelser, der skal tages, når man beskæftiger sig med AI. Kan et system blive for bevidst? Hvilken slags effekter vil AI have på menneskers liv? Skal vi udnytte AI på denne måde? Listen med spørgsmål bliver ved og ved.

Uden regulering kan nogle virksomheder begynde at træde moralske grænser, hvilket igen kan være meget dårlige nyheder for den bredere offentlighed.

AI bevæger sig i et hurtigt tempo og udgør bestemt risici

Der er ingen tvivl om, at potentialet i AI er enormt, men dette bør udnyttes korrekt for at reducere chancen for, at tingene kommer ud af kontrol. Vi har allerede set AI blive brugt ondsindet, så man ved ikke, hvordan dette problem kan udvikle sig, efterhånden som tingene udvikler sig yderligere. Tiden vil vise, om AI bliver en velsignelse eller en forbandelse i vores verden, og måden, hvorpå det håndteres nu, vil helt sikkert spille en rolle i dette resultat.