Microsofts Tay AI gik fra en lovende AI til en total katastrofe på mindre end et døgn. Her er, hvad virksomheden lærte.

AI-chatbots som ChatGPT bliver i stigende grad en mere integreret del af moderne teknologi, men ukendt for mange var generativ AI ikke altid så god, som den er i dag. Faktisk viste Microsoft-fremstillede chatbot Tay os i 2016, hvor hurtigt AI kan give bagslag.

Lad os undersøge, hvad Microsofts AI-chatbot Tay var, hvorfor den fejlede, dens kontroverser og de erfaringer, virksomheden lærte efter dens katastrofale fiasko.

Hvad var Microsofts Tay?

Tay var en AI-chatbot udviklet af Microsoft og gjort tilgængelig via Twitter den 23. marts 2016. Chatbotten blev udviklet til 18- til 24-årige i USA til "underholdningsformål" og for at "eksperimentere med og udføre forskning i samtaleforståelse."

Det var ikke meningen, at Tay skulle være en sofistikeret chatbot som ChatGPT, men en venlig AI-bot på Twitter, som du kunne have samtaler med - ligesom Min AI på Snapchat, men for socialt samvær.

instagram viewer

Hvorfor lukkede Microsoft Tay ned?

Microsoft fjernede Tay inden for 24 timer efter at have gået live – med god grund. Næsten umiddelbart efter, at Tay blev introduceret, begyndte Twitter-brugere at misbruge tjenesten ved at fodre chatbotten misinformation, lære det nedsættende udtryk og få det til at blive mere og mere stødende bare for at se, hvor langt det ville gå.

Og det gik faktisk langt. Inden for få timer efter lanceringen tweetede Tay nogle af de mest offensive racebeklager, spredte hadefulde ytringer, promoverede nazisme og inspirerede endda til en "racekrig". Yikes! Det er klart, at Microsoft havde det forfærdeligt, og det kunne ikke have ladet tjenesten fortsætte.

I en indlæg på den officielle Microsoft-blog, gentog Microsofts Corporate Vice President Peter Lee det samme:

Vi er dybt kede af de utilsigtede stødende og sårende tweets fra Tay, som ikke repræsenterer, hvem vi er, eller hvad vi står for, eller hvordan vi har designet Tay. Tay er nu offline, og vi vil først prøve at bringe Tay tilbage, når vi er sikre på, at vi bedre kan forudse ondsindede hensigter, der er i konflikt med vores principper og værdier.

Tay-debaklet er blot et af de mange farerne ved kunstig intelligens og en stærk påmindelse om, hvorfor dens udvikling bør ske med den største forsigtighed og overblik.

6 lektioner Microsoft lærte efter Tay

Tay var en komplet katastrofe, men den lærte også Microsoft nogle afgørende lektioner, når det kom til udviklingen af ​​AI-værktøjer. Og for hvad det er værd, er det sandsynligvis til det bedre, at Microsoft lærte sine lektioner før snarere end senere, hvilket gjorde det muligt for det at få et forspring over Google og udvikle det nye AI-drevet Bing-browser.

Her er nogle af disse lektioner:

1. Internettet er fyldt med trolde

Internettet er fyldt med trolde, og det er ikke ligefrem en nyhed, vel? Tilsyneladende var det sådan for Microsoft tilbage i 2016. Vi siger ikke, at det at bygge en chatbot til "underholdningsformål" rettet mod 18- til 24-årige havde noget at gøre med den hastighed, hvormed tjenesten blev misbrugt. Alligevel var det bestemt heller ikke den smarteste idé.

Folk ønsker naturligvis at teste grænserne for nye teknologier, og det er i sidste ende udviklerens opgave at redegøre for disse ondsindede angreb. På en måde fungerer interne trolde som en feedbackmekanisme til kvalitetssikring, men dermed ikke sagt, at en chatbot skal slippes løs uden ordentlige sikkerhedsforanstaltninger på plads før lancering.

2. AI kan ikke intuitivt skelne mellem godt og dårligt

Begrebet godt og ondt er noget AI ikke intuitivt forstår. Det skal programmeres til at simulere viden om, hvad der er rigtigt og forkert, hvad der er moralsk og umoralsk, og hvad der er normalt og ejendommeligt.

Disse kvaliteter kommer mere eller mindre naturligt for mennesker som sociale væsner, men AI kan ikke danne selvstændige domme, føle empati eller opleve smerte. Dette er grunden til, at når Twitter-brugere fodrede Tay med alle former for propaganda, fulgte botten simpelthen med - uvidende om etikken i den information, den indsamlede.

3. Træn ikke AI-modeller ved hjælp af folks samtaler

Tay blev skabt ved at "mine relevante offentlige data og bruge kunstig intelligens og redaktionel udviklet af en stab, herunder improvisationskomikere." At træne en AI-model ved at bruge folks samtaler på internettet er forfærdeligt ide.

Og før du bebrejder dette på Twitter, skal du vide, at resultatet sandsynligvis ville have været det samme uanset platformen. Hvorfor? Fordi folk simpelthen ikke er deres bedste jeg på internettet. De bliver følelsesladede, bruger slangord og bruger deres anonymitet til at være slem.

4. AI mangler sund fornuft og får ikke sarkasme

AI i dag virker mere intuitiv (eller, for at sige det mere præcist, er bedre til at simulere intuition), men kæmper stadig nogle gange med at genkende sarkasme og talemåder. Dette gjaldt endnu mere tilbage i 2016. Hvad der er indlysende for mennesker, er ikke indlysende for AI; det mangler med andre ord sund fornuft.

AI'er som Tay forstår ikke, hvorfor mennesker er, som vi er, handler, som vi gør, og hver enkelt persons excentriker. Det kan opføre sig og lyde menneskeligt i overraskende grad, men god programmering kan kun gå så vidt.

5. AI skal programmeres til at afvise ugyldige anmodninger

AI er meget påvirkelig og skal programmeres til at afvise anmodninger, der fremmer skade. Selv i dag, efter alle vores fremskridt inden for naturlig sprogbehandling, finder folk stadig sproglige smuthuller til få AI-chatbots som ChatGPT til at "hallucinere" og levere resultater, der var beregnet til at blive begrænset.

Pointen her er, at kunstig intelligens er perfekt lydig, hvilket måske er dens største styrke og svaghed. Alt, hvad du ikke vil have en chatbot til at gøre, skal manuelt programmeres ind i den.

6. AI Chatbots bør aldrig efterlades uden opsyn

Indtil AI kan regulere sig selv, kan den ikke efterlades uden opsyn. Du kan tænke på nutidens AI som et vidunderbarn; det er genialt på nogle måder, men det er stadig et barn ikke desto mindre. Hvis de efterlades uden opsyn, vil folk udnytte dens svagheder - og Tay var et glimrende eksempel på dette.

AI er et værktøj, ligesom internettet, men hastigheden og omfanget, hvormed tingene kan give bagslag med AI, er langt større end, hvad vi oplevede i de tidlige dage af internettet.

AI har brug for konstant overvågning og regulering

Tay er ikke den eneste chatbot, der blev slyngelagtig - der har været mange andre tilfælde, ligesom det. Men det, der fik den til at skille sig ud, er den store hastighed, hvormed den gjorde - og det faktum, at den blev lavet af en teknologigigant som Microsoft.

Eksempler som dette viser, hvor forsigtige vi skal være, når vi udvikler AI-værktøjer, især når de er beregnet til at blive brugt af almindelige mennesker.