Diskussioner omkring AI-sans er ikke noget nyt, men nyheder om Googles AI LaMDA har sat gang i flammerne. Efter at en ingeniør hævdede, at botten var bevidst, selv havde en sjæl, er nogle velkendte spørgsmål rejst igen.
Kan AI som LaMDA faktisk være sansende eller selvbevidst, og hvis ja, hvordan kan du vide det? Betyder det noget?
Hvad er LaMDA?
LaMDA, en forkortelse for Language Model for Dialogue Applications, dukkede første gang op i 2021 på Googles udviklerkonference. Det avancerede AI-system skal hjælpe med at bygge andre, mindre chatbots. Da Google først introducerede det, annoncerede det planer om at integrere det i alt, hvilket hjælper tjenester som Google Assistant og Search til at føles mere menneskeligt, eller i det mindste naturligt.
Da Google-ingeniøren Blake Lemoine talte med LaMDA for at se, om den brugte hadefuld tale, kom han med et andet indtryk. Lemoine hævdede, at LaMDA var sansende, og hvis han ikke vidste, at det var en bot, ville han tro, at det var et otte-årigt barn.
Efter sine samtaler med LaMDA forsøgte Lemoine at bevise, at den var bevidst og forsvare, hvad han mente var dens juridiske rettigheder. Som svar på dette satte Google Lemoine på betalt administrativ orlov for at bryde fortrolighedsaftaler.
Er LaMDA faktisk følende?
Så er LaMDA faktisk sansende? De fleste eksperter, der har vejet ind i spørgsmålet, er skeptiske. LaMDA er en meget avanceret AI-chatplatform, der analyserer billioner af ord fra internettet, så den er dygtig til at lyde som en rigtig person.
Det er ikke første gang, en af Googles AI'er har narret folk til at tro, at det er menneskeligt. I 2018 demonstrerede Google sin Duplex AI ved at ringe til en restaurant for at reservere bord. På intet tidspunkt syntes medarbejderen i den anden ende at tvivle på, at de talte med en person.
Følelse er vanskelig at definere, selvom de fleste mennesker tvivler på, at AI har nået det punkt endnu. Men det vigtige spørgsmål er måske ikke, om LaMDA faktisk er sansende, men hvilken forskel det gør, hvis det kan narre folk til at tro, det er det.
Mulige juridiske konsekvenser af LaMDA
LaMDA-situationen rejser en masse juridiske og etiske spørgsmål. For det første kan nogle mennesker stille spørgsmålstegn ved, om Google havde ret i at give Lemoine orlov for at tale om det.
Ifølge paragraf 740 i New Yorks arbejdslov beskytter whistleblower-beskyttelse medarbejdere mod sådanne konsekvenser, hvis de mener, at deres arbejdsgivers praksis bryder loven eller udgør en væsentlig risiko for offentligheden sikkerhed. LaMDA's formodede sansning opfylder ikke helt det lovkrav, men burde det?
At give AI-rettigheder er et vanskeligt emne. Mens AI kan skabe ting og virke menneskelige, kan du løbe ind i nogle komplicerede situationer, hvis disse maskiner har juridisk beskyttelse. Juridiske rettigheder handler om belønninger og straffe, der ikke påvirker AI, hvilket komplicerer retfærdigheden.
Hvis en selvkørende bil rammer en fodgænger, er AI'en så skyldig, hvis loven behandler den som et menneske? Og hvis det er tilfældet, giver det strengt taget ikke offeret retfærdighed, da du teknisk set ikke kan straffe AI på samme måde, som du ville gøre et menneske.
Et andet spørgsmål, der opstår med LaMDA og lignende AI-chatbots, er deres sikkerhed. Hvis disse bots virker overbevisende ægte, kan folk stole mere på dem og være villige til at give dem mere følsomme oplysninger. Det åbner døren til en række bekymringer om privatliv og sikkerhed, hvis denne teknologi falder i de forkerte hænder.
AI introducerer komplicerede etiske spørgsmål
AI'er som LaMDA bliver ved med at blive mere sofistikerede og naturtro. Efterhånden som denne tendens vokser, bør virksomheder og lovgivere revurdere, hvordan de behandler kunstig intelligens, og hvordan disse beslutninger kan påvirke retfærdighed og sikkerhed.
Som det står, er Googles LaMDA AI måske ikke sansende, men det er godt nok til at narre folk til at tro, det er, hvilket burde vække nogle alarmer.