Til mange menneskers vantro opdager nulevende kunstnere, at deres kunst er blevet brugt til at træne AI-modeller uden deres samtykke. Ved at bruge et webværktøj kaldet "Har jeg blevet trænet?", kan du i løbet af få minutter vide, om dine billeder blev ført til Midjourney, NightCafe og andre populære AI-billedgeneratorer.
Hvis du finder dit billede i et af de datasæt, der bruges til at træne disse AI-systemer, så fortvivl ikke. Nogle organisationer har udviklet måder at fravælge denne praksis, så dine billeder ikke bliver skrottet fra internettet og videregivet til AI-virksomheder.
Hvordan AI-billedgeneratorer trænes i første omgang
Når du beder et AI-system som DALL-E om at generere et billede af en "hund iført fødselsdagshat", skal det først vide, hvordan en hund ser ud, og hvordan en fødselsdagshat også ser ud. Den får disse oplysninger fra enorme datasæt, der samler milliarder af links til billeder på tværs af internettet.
Som vi alle ved, indeholder internettet stort set alle slags billeder, du kan forestille dig, inklusive, efter al sandsynlighed, tonsvis af billeder af en "hund iført fødselsdagshat". Med nok data som denne kan en AI-model finde ud af, hvordan man gengiver et billede i lighed med dem, den er blevet trænet på.
Men hvad hvis disse billeder oprindeligt var ophavsretligt beskyttet? Og hvad hvis disse billeder tilhørte kunstnere, fotografer eller almindelige mennesker, der ikke var klar over, at deres billeder fodrede et AI-system?
Problemet for kunstnere
Mange AI-billedgeneratorer har et betalt niveau, hvor brugere kan købe kreditter for at skabe flere billeder, hvilket giver dem en fortjeneste. Men den fortjeneste er tjent på ryggen af ukrediterede mennesker, hvis billeder blev brugt til at træne AI-systemet i første omgang.
Efterhånden som flere kunstnere finder ud af, at deres billeder blev brugt til at udvikle AI-systemer, er det tydeligt, at ikke alle er okay med det. De ønsker i det mindste, at AI-virksomheder skal indhente samtykke, før de bruger deres billeder.
Især hvis du er en populær, velkendt kunstner, kan det at have billeder genereret i din stil overfylde dit marked, med fans eller potentielle lånere, uden at vide om kunsten er skabt af dig eller kopieret i din lighed med AI. Hvad der er endnu værre, kan folk skabe kunst i din stil for at understøtte værdier, du ikke tror på.
Dette er ikke et nyt problem, deepfakes har eksisteret i årevis og er potentielt ved at blive værre med fremkomsten af AI. I dag er det hurtigt, billigt og nemt at gengive "falske" kunst. Der er kun få måder at identificere et AI-genereret billede på, hvilket gør det svært at få øje på den originale kunst fra dens AI-genererede modstykke.
Datasæt: Find og indekser dine billeder
Som vi nævnte tidligere, bruges billeddatasæt af AI-virksomheder til at træne deres modeller. Disse datasæt ligner et kæmpe Excel-regneark med en kolonne, der indeholder et link til et billede på internettet, mens en anden har billedteksten.
Ikke alle AI-virksomheder vil afsløre det datasæt, det bruger, DALL-E er et eksempel. Dette gør det svært at vide, hvad der refereres til, når det genererer et billede og tilføjer til den generelle mystik i AI-systemer.
På den anden side har Stable Diffusion, en model udviklet af Stability AI, gjort det klart, at den blev bygget på LAION-5B datasæt, som byder på kolossale 5,85 milliarder CLIP-filtrerede billed-tekst-par. Da dette datasæt er open source, kan enhver frit se de billeder, det indekserer, og på grund af dette har det påtaget sig stor kritik.
I begyndelsen af 2023, Getty Images sagsøgte Stability AI for at slette billeder fra sin hjemmeside for at træne sin AI-billedgenerator, Stable Diffusion. Hvis du undrer dig over, hvem der til gengæld bruger Stable Diffusion, ville det være NightCafe, Midjourney og DreamStudio, nogle af de største spillere på området.
Sådan ved du, om dine billeder blev brugt til at træne en AI-model
Indrettet af en gruppe kunstnere, Gydning er et kollektiv, hvis formål er at hjælpe folk med at finde ud af, om deres billeder er på datasæt som LAION-5B, der bruges til at træne AI-modeller. Deres websøgemaskine kaldte Er jeg blevet trænet? lader dig nemt søge efter nøgleord såsom dit kunstnernavn.
Er jeg blevet trænet?
Have I Been Trained fungerer meget som en Google-billedsøgning, bortset fra at din søgning matches med resultaterne i LAION-5B-datasættet. Du har mulighed for at søge enten på nøgleord eller på billede, sidstnævnte er nyttigt, hvis du vil se, om der er brugt et eksakt billede.
Vi brugte navnet på kunstneren Frida Kahlo (1907-1954) til at teste det og fandt en blanding af historiske fotografier og hvad der ligner fan art i form af kruseduller, malerier, korssting, hækling og illustrationer.
Hvis du er en af disse skabere, er du en af de mange ukrediterede mennesker, hvis kreativitet gjorde det muligt for AI-billedgeneratorer at eksistere. Og med den kraft kan alle nu skabe Frida-billeder som dette bizarre portræt af "Frida Kahlo spiser is".
Prøv at skrive dit eget kunstnernavn i søgefeltet for at se, om dit arbejde er blevet brugt til at træne en AI-model.
Sådan fravælger du AI-træningsdatasæt
Det samme team bag hjemmesiden Have I Been Trained har lavet et værktøj, hvor folk kan tilmelde sig eller fravælge AI-kunstsystemer. Det er en måde for kunstnere at bevare kontrol og tilladelser over, hvem der bruger deres kunst og til hvilket formål.
Andre kunstplatforme begynder at følge trop, og i øjeblikket tilbyder DeviantArt en mulighed for at udelukke deres billeder fra at blive søgt i billeddatasæt.
Udover at kunne søge efter dit billede, kan du også vælge billeder for at fravælge LAION-5B træningsdata ved at bruge siden Have I Been Trained.
Du skal først oprette en konto, og efter dette skal du højreklikke på et billede og vælge at Fravælg dette billede.
Hvis du vælger denne mulighed, føjes det billede til din fravalgsliste, som du kan få adgang til ved at klikke på dit kontosymbol i øverste højre hjørne af siden og derefter vælge Mine lister. For at fjerne det fra din liste skal du højreklikke på billedet og vælge Fjern fra opt-out liste.
Hvis du er en produktiv kunstner, er denne metode kedelig og ikke tilstrækkelig til at fravælge alle dine billeder effektivt. Desværre er der ikke et bedre alternativ i skrivende stund, men det er sandsynligt, at der vil blive foretaget forbedringer til dette system i fremtiden.
Disse fravalgslister videregives derefter til virksomheden bag LAION-5B, som har accepteret at fjerne disse billeder fra sit datasæt.
DeviantArt Opt-Out præference
DeviantArt har indtil videre ført an for kunst hosting platforme ved at give brugerne mulighed for at fravælge deres kunst. I første omgang skulle du finde præferencen og markere afkrydsningsfeltet fravælg. Men efter stærk feedback fra DeviantArt-fællesskabet er denne mulighed nu slået til som standard.
Det betyder, at intet billede, der sendes til DeviantArt, gøres tilgængeligt for billeddatasæt, medmindre brugerne har tilmeldt sig. Selvom det ikke er helt idiotsikkert, involverer den mekanisme, den bruger, markering af et billede med et "noai" HTML-tag. Dette fortæller AI-datasæt, at billedet ikke må bruges, og hvis det er, vil virksomheden krænke DeviantArts servicevilkår.
Du kan finde fravalgspræferencen ved at holde musen over dit personlige kontoikon og klikke Bruger indstillinger. Klik derefter Generel fra menuen til venstre, og rul ned, indtil du ser overskriften Fortæl AI-datasæt, at de ikke kan bruge dit indhold.
Respekt for kunstnernes arbejde
At finde et godt kompromis mellem AI-systemer og kunstnere, hvis arbejde hjælper med at træne dem, vil tage tid. Hvis du er en skaber, skal du ikke føle dig magtesløs. Med stærke svar fra de samfund, der bruger kunstplatforme som DeviantArt, kan du have kontrol over, hvem der bruger din kunst.
Det er heller ikke alle, der ønsker at fravælge dem, nogle mennesker har ikke et problem med deres billeder, der træner AI-modeller. Men det vigtigste er, at AI-virksomheder opnår samtykke og udarbejder et retfærdigt og respektfuldt rum, hvor AI-modeller og kunstnere kan eksistere sammen.