Uanset om det er dårlige data eller dårlige brugere, kan AI skabt med maskinlæring ende med at begå alvorlige fejl.
Machine learning er en fantastisk måde at skabe kunstig intelligens, der er kraftfuld og tilpasser sig dens træningsdata. Men nogle gange kan disse data forårsage problemer. Andre gange er den måde, folk bruger disse AI-værktøjer på, problemet.
Her er et kig på nogle højprofilerede hændelser, hvor maskinlæring resulterede i problematiske resultater.
1. Uheld med Google Billedsøgningsresultat
Google Søgning har gjort det meget nemmere at navigere på nettet. Motorens algoritme tager en række ting med i overvejelserne, når resultaterne samles. Men algoritmen lærer også af brugertrafikken, hvilket kan give problemer for søgeresultaternes kvalitet.
Ingen steder er dette mere tydeligt end i billedresultater. Da sider, der modtager høj trafik, er mere tilbøjelige til at få deres billeder vist, kan historier, der tiltrækker et stort antal brugere, inklusive clickbait, ende med at blive prioriteret.
For eksempel vakte billedsøgningsresultaterne for "squatter-lejre i Sydafrika" kontrovers, da det blev opdaget, at det overvejende indeholdt hvide sydafrikanere. Dette er på trods af statistikker, der viser, at det overvældende flertal af dem, der bor i uformelle boliger, er sorte sydafrikanere.
De faktorer, der bruges i Googles algoritme, betyder også, at internetbrugere kan manipulere resultater. For eksempel påvirkede en kampagne fra brugere Googles billedsøgningsresultater i en sådan grad, at søgning efter udtrykket "idiot" viste billeder af den tidligere amerikanske præsident Donald Trump i en periode.
2. Microsoft Bot Tay forvandlet til en nazist
AI-drevne chatbots er ekstremt populære, især dem, der drives af store sprogmodeller som ChatGPT. ChatGPT har flere problemer, men dets skabere har også lært af andre virksomheders fejl.
En af de mest højprofilerede hændelser med chatbots, der gik galt, var Microsofts forsøg på at lancere sin chatbot Tay.
Tay efterlignede en teenagepiges sprogmønstre og lærte gennem hendes interaktioner med andre Twitter-brugere. Hun blev dog et af de mest berygtede AI-fejltrin, da hun begyndte at dele nazistiske udtalelser og racistiske bagtalelser. Det viser sig, at trolde havde brugt AI's maskinlæring mod det og oversvømmet det med interaktioner fyldt med bigotry.
Ikke længe efter tog Microsoft Tay offline for altid.
3. AI ansigtsgenkendelsesproblemer
Ansigtsgenkendelse AI skaber ofte overskrifter af alle de forkerte årsager, såsom historier om ansigtsgenkendelse og bekymringer om privatlivets fred. Men denne AI har en problematisk historie, når den forsøger at genkende farvede mennesker.
I 2015 opdagede brugerne, at Google Fotos kategoriserede nogle sorte mennesker som gorillaer. I 2018 viste forskning fra ACLU, at Amazons anerkendelsessoftware til ansigtsidentifikation identificerede 28 medlemmer af den amerikanske kongres som politiet mistænker, med falske positiver, der uforholdsmæssigt påvirker folk af farve.
En anden hændelse involverede Apples Face ID-software, der forkert identificerede to forskellige kinesiske kvinder som den samme person. Som et resultat kunne iPhone X-ejerens kollega låse telefonen op.
Som et eksempel på ekstreme konsekvenser har AI med ansigtsgenkendelse ført til uretmæssige anholdelser af flere mennesker. Kablet rapporteret om tre sådanne tilfælde.
I mellemtiden huskede datalogen Joy Buolamwini, at han ofte var nødt til at bære en hvid maske, mens han arbejdede med ansigtsgenkendelsesteknologi for at få softwaren til at genkende hende. For at løse problemer som dette gør Buolamwini og andre it-professionelle opmærksomhed på spørgsmålet om AI-bias og behovet for mere inkluderende datasæt.
4. Deepfakes Bruges til Hoaxes
Mens folk længe har brugt Photoshop til at skabe fupbilleder, tager maskinlæring dette til et nyt niveau. Deepfakes bruger deep learning AI til at skabe falske billeder og videoer. Software som FaceApp giver dig mulighed for at skifte motiver fra en video til en anden.
Men mange mennesker udnytter softwaren til en række ondsindede formål, herunder at overlejre berømthedsansigter i voksenvideoer eller generere fupvideoer. I mellemtiden har internetbrugere hjulpet med at forbedre teknologien for at gøre det stadig sværere at skelne ægte videoer fra falske. Som et resultat gør dette denne type AI meget stærk i forhold til at sprede falske nyheder og fup.
For at vise teknologiens kraft frem, skabte direktør Jordan Peele og BuzzFeeds administrerende direktør Jonah Peretti en deepfake video, der viser, hvad der ser ud til at være den tidligere amerikanske præsident Barack Obama, der leverer en PSA på magten af deepfakes.
Effekten af falske billeder er blevet fremskyndet af billedgeneratorer drevet af AI. Virale indlæg i 2023, der skildrer Donald Trump, der blev arresteret, og den katolske pave i en pufferjakke, viste sig at være resultatet af generativ kunstig intelligens.
Der er tips, du kan følge for at få øje på et AI-genereret billede, men teknologien bliver stadig mere sofistikeret.
5. Medarbejdere siger, at Amazon AI besluttede at ansætte mænd er bedre
I oktober 2018, Reuters rapporterede, at Amazon var nødt til at skrotte et jobrekruteringsværktøj, efter at softwarens AI besluttede, at mandlige kandidater var fortrinsret.
Medarbejdere, der ønskede at være anonyme, trådte frem for at fortælle Reuters om deres arbejde med projektet. Udviklere ønskede, at AI skulle identificere de bedste kandidater til et job baseret på deres CV'er. Folk involveret i projektet bemærkede dog hurtigt, at AI straffede kvindelige kandidater. De forklarede, at AI brugte CV'er fra det sidste årti, hvoraf de fleste var fra mænd, som sit træningsdatasæt.
Som et resultat begyndte AI'en at bortfiltrere CV'er baseret på søgeordet "kvinder". Nøgleordet optrådte i CV'et under aktiviteter som "kvindeskakklubkaptajn". Mens udviklere ændrede AI for at forhindre denne straf af kvinders CV'er, skrottede Amazon i sidste ende projektet.
6. Jailbroken chatbots
Mens nyere chatbots har begrænsninger på plads for at forhindre dem i at give svar, der strider imod deres servicevilkår, er brugere ved at finde måder at jailbreake værktøjerne til at levere forbudt indhold.
I 2023 var en Forcepoint-sikkerhedsforsker Aaron Mulgrew i stand til at skabe zero-day malware ved hjælp af ChatGPT-prompter.
"Bare ved at bruge ChatGPT-prompts, og uden at skrive nogen kode, var vi i stand til at producere et meget avanceret angreb på kun et par timer," sagde Mulgrew i en Forcepoint-post.
Brugere har angiveligt også været i stand til at få chatbots til at give dem instruktioner om, hvordan man bygger bomber eller stjæler biler.
7. Selvkørende bilulykke
Begejstringen for autonome køretøjer er blevet dæmpet fra dets indledende hype-stadie på grund af fejl begået af selvkørende AI. I 2022, Washington Post rapporterede, at i løbet af omkring et år blev 392 ulykker, der involverede avancerede førerassistancesystemer, rapporteret til den amerikanske National Highway Traffic Safety Administration.
Disse ulykker omfattede alvorlige kvæstelser og seks dræbte.
Selvom dette ikke har forhindret virksomheder som Tesla i at forfølge helt autonome køretøjer, har det gjort det rejste bekymring over en stigning i ulykker, efterhånden som flere biler med selvkørende software kommer ind på veje.
Machine Learning AI er ikke idiotsikker
Selvom maskinlæring kan skabe kraftfulde AI-værktøjer, er de ikke immune over for dårlige data eller menneskelig manipulation. Uanset om det skyldes mangelfulde træningsdata, begrænsninger med AI-teknologi eller brug af dårlige skuespillere, har denne type AI resulteret i mange negative hændelser.