Læsere som dig hjælper med at støtte MUO. Når du foretager et køb ved hjælp af links på vores websted, kan vi optjene en affiliate-kommission. Læs mere.

Selvom det er sjovt at efterligne værker af forsvunde kunstnere som Van Gogh eller Frida Kahlo med en AI-generator, gælder det samme ikke for nulevende kunstnere. At tillade næsten enhver at skabe et billede "i stil med" en kunstner kan få deres marked til at blive oversvømmet med knockoffs; tilføjer forvirring omkring autenticitet og et potentielt tab af indkomst.

Som svar søger folk efter en måde at beskytte deres billeder mod AI-kunstgeneratorer. Svarene er måske ikke perfekte eller idiotsikre, men der er måder, du kan forsvare dine billeder mod at blive brugt af AI-kunstgeneratorer.

Hvordan AI-generatorer får dine billeder

AI-kunstgeneratorer gennemgår en periode med "træning" for at lære, hvordan man producerer et billede, når de får en tekstprompt. Som en del af læringsprocessen skal den studere hundredvis af millioner af billed-tekst-par til til sidst generere et nøjagtigt billede af objekter, farver og scener fra den virkelige verden – sammen med kunstteknikker og stil.

instagram viewer

Som det sker, skal AI-modeller lære af menneskers kreativitet. For eksempel er Midjourney og Stability Diffusion to AI-kunstgeneratorer, der er trænet på open source-datasættet LAION-5B, der indeholder milliarder af billeder fra hele internettet.

Ved at bruge webcrawlere til at "skrabe" websteder for data, skaber disse datasæt lister over billed-URL'er plus deres billedtekst i noget, der kan ligne et massivt Excel-regneark. Hvis du har lagt din kunst online før, er den muligvis i et billeddatasæt og derfor bruges til at træne AI, uanset om du har givet samtykke eller ej.

1. Fravælg AI-træningsdatasæt

Spawning er en gruppe af kunstnere, hvis populære hjemmeside, Er jeg blevet trænet?, kan bruges til at se, om dine billeder er i LAION-5B-datasættet. Ved at tage det på sig, tilføjede de senere funktionen til at fravælge datasættet. I henhold til en aftale vil Spawning videregive brugeropt-out-lister til LAION, som har sagt, at det vil respektere anmodningen og fjerne disse billeder fra sin samling.

Opt-out-værktøjet fra Spawning kræver stadig en vis udvikling, da du i skrivende stund ikke kan tilføje flere billeder på én gang. Der er heller ikke fravalgsaftaler med noget andet datasæt, der kan bruges til at træne AI-modeller.

Da mange AI-virksomheder ikke afslører de finere detaljer om, hvordan deres AI-modeller er bygget, er det nogle gange ikke klart, hvilket datasæt de bruger. DALL-E er en populær AI-kunstgenerator, der ikke deler denne information.

Alternativt, hvis du bruger DeviantArt til at dele dit kunstværk, er dine billeder nu som standard beskyttet mod at blive brugt til AI-træningsdatasæt. Det virker ved at tagge dit billede med "noai", hvilket betyder, at hvis en AI-model viser sig at have brugt dit billede til træning, vil det være i strid med DeviantArts Servicevilkår.

Disse fravalgsforanstaltninger håndhæves naturligvis ikke, så de kan ignoreres af tredjeparter, hvis de vælger det. Selvom dette ikke er den mest effektive løsning, er det førende for flere regler og bestemmelser for at beskytte kunstneres arbejde.

I en ideel verden ville folk få mulighed for at tilmelde sig, i modsætning til at skulle fravælge. Vi håber at se dette ske i fremtiden. For flere detaljer om, hvordan du fjerner dine billeder fra datasæt, se vores guide vedr hvordan du fravælger dine billeder fra AI-træning.

2. Copyright dit arbejde

Hvorvidt praksis med at skrabe billeder fra internettet er lovlig, er blevet gjort opmærksom på domstolene. Og at hjælpe kunstnere med at fremlægge beviser på deres side er den billedophavsret, de ejer.

I starten af ​​2023, den kendte tegneseriekunstner, Sarah Andersen, var en del af en gruppe kunstnere, der anlagde en retssag mod AI-virksomhederne Stability AI og Midjourney, samt kunstdelingswebsted DeviantArt, for at skrabe værket af deres kunst uden samtykke - inklusive kunsten fra utallige millioner af andre kunstnere.

Et andet eksempel er stock image-webstedet, Getty Images, som anlagde en retssag mod Stability AI for at skrabe sine billeder uden licens. Den måde, den opdagede, at dens copyright-billeder blev brugt, var, da AI-genererede billeder begyndte at dukke op med Getty Images-vandmærket - en ret indlysende giveaway.

Selvom lovligheden vil blive afgjort med tiden, er ophavsret en af ​​de få ting, der kan bruges til at kæmpe for rettighederne til kunstneres arbejde, som det ses i de sager, vi nævnte. Det er muligvis ikke opdateret med AI-teknologi, men det kan bidrage til dit forsvar fremadrettet.

Det er en praksis, der alligevel er værd at lære om, så du kan beskytte dit arbejde mod at blive stjålet, uanset om AI er involveret eller ej. Følg vores guide på hvordan du ophavsretligt beskytter dine billeder for et dybdegående kig på, hvordan det hele fungerer.

3. Bloker webstedscrawlere med Robots.txt

Billeddatasæt er kun i stand til at indeksere et stort antal billeder, fordi de bruger noget, der kaldes webcrawlere. Som navnet måske antyder, gennemsøger de på tværs af websteder på jagt efter bestemte oplysninger.

Nogle crawlere er nyttige og hjælper søgemaskiner som Google med at finde og indeksere de mest relevante oplysninger, der skal vises på deres søgeresultatside. Andre bruges til at skrabe websteder for billeder, der skal inkluderes i AI-træningsdatasæt.

Det er her, Robots.txt kommer ind. Robots.txt er en tekstfil, der kan placeres i backend-koden på et websted for at fortælle webcrawlere, hvad de kan og ikke kan scanne. Du kan bruge det til at forhindre en crawler i at se på bestemte sider eller filer, hvilket er nyttigt, hvis du ikke ønsker, at dine billeder skal bruges af AI.

Hvis du vil vide mere, så læs vores guide på hvad en webcrawler er, og hvordan den virker. For dem, der har et websted, skal du bede din webudvikler om at indlejre en Robots.txt i din webstedskode for at forhindre, at dine billeder bliver skrottet af AI-træningsdatasæt.

Hvad kan man forvente i fremtiden

Det er frustrerende at skulle konkurrere med AI-modeller, men flere løsninger er på vej.

På den ene side er retssager i gang med at finde ud af, hvad der er lovligt, og hvordan ophavsret fungerer med generering af AI-billeder. Resultatet af disse offentlige debatter vil sætte juridiske standarder og muligvis hurtige regler, som AI-virksomheder skal følge.

På den anden side tænker udviklere på, hvordan man løser problemet ved hjælp af ny teknologi. I en lovende undersøgelse viser forskning, at du kan bruge AI til at bekæmpe sig selv ved at gøre et billede "ulærelig" for AI-træningsdatasæt.

Som Dr. Sarah Monazam Erfani på University of Melbourne forklarer: "Vi har udtænkt en maskinlæringsbaseret teknik, der identificerer og ændrer lige nok pixels i et billede til at forvirre AI og gøre det til et 'ulærligt' billede. Ændringen er meget lille og umærkelig for menneskelige øjne, men den introducerer nok 'støj' i et billede til at gøre det ubrugeligt til træning af AI."

Hvis du er en person, der er påvirket af AI-billedgeneratorer, er det værd at gøre din stemme hørt, så disse virksomheder bliver presset til at ændre deres praksis. Det var kun på grund af stærk feedback fra DeviantArt-fællesskabet, at en ny fravalgspræference blev oprettet, så sørg for at give feedback til kunstdelingsplatformene og AI-virksomheder.

Forsvar dine billeder fra AI

Du kan beskytte dine billeder mod AI-kunstgeneratorer ved at fravælge AI-træningsdatasæt, beskytte dine billeder med copyright og bruge Robots.txt-standarden. Selvom det ikke garanterer, at dine billeder forbliver ude af AI-systemer, vil brug af alle tre metoder give dig det bedste forsvar, indtil flere løsninger er udviklet.

Nye værktøjer er på vej, herunder måder at umærkeligt justere dit billede, så AI ikke kan lære af det, hvilket gør det ubrugeligt til træning af AI-kunstgeneratorer. I mellemtiden, giv ikke op. Der er stadig måder at beskytte dine billeder mod AI-kunstgeneratorer.