Den 6. juni 2022 sluttede Chris Umé og Thomas Graham, grundlæggerne af Metaphysic, sig på America's Got Talent-scenen med Daniel Emmet. Ved hjælp af den teknologi, Metaphysic udviklede, udførte Daniel Emmet "You're the Inspiration" ved at bruge AGT-dommer Simon Cowells lighed live på scenen.
Denne præstation forbløffede dommerne og fangede publikum, hvilket resulterede i fire ja. Gruppen går videre til næste runde af AGT – men hvad betyder deres brug af deepfake-teknologi for underholdningens fremtid?
Hvad skete der på AGT-scenen?
De vigtigste deltagere til showet var Chris og Thomas. Da de præsenterede sig selv, sagde de:
"Vi bruger kunstig intelligens til at skabe hyper-ægte indhold."
De bragte derefter Daniel Emmet på scenen. Da Simon spurgte, hvordan han kom ind i duoen, sagde han:
"Jeg er fans af det, de laver online, og de er fans af AGT. Og da de bad mig om at være en del af denne vidunderlige, unikke, originale ting, de vil gøre, kunne jeg ikke sige nej.”
Så med al mysteriet omkring trioen, ønskede Cowell dem held og lykke, og de startede showet.
Mens Emmet forberedte sig på at synge, gik et kamera ind på scenen for at optage ham i profil, hvilket blokerede publikums (og dommerens udsyn). Da musikken startede, gik kameraets feed live på scenens skærm, hvor vi så Simons hyperægte avatar overlejret på David og synge live på scenen.
Publikum blev vilde, da de så det, men Simon var først forvirret. Efterhånden som forestillingen fortsatte, gik Cowell fra forvirret til flov til underholdt. I sidste ende gav han (og resten af publikum) akten et stående bifald, og gruppen fik et "ja" fra alle fire dommere.
Hvordan Deepfakes påvirker underholdning
Selvom deepfakes kan virke som en ny udvikling for de fleste mennesker, er dette ikke tilfældet, især i Hollywood. Indrømmet, at dette formentlig er første gang, deepfake-teknologi har vist sig i en live-indstilling, men film har brugt denne teknologi i årevis nu.
Et populært eksempel er Furious 7-filmen fra 2015, hvor en af hovedpersonerne, Paul Walker, døde i en bilulykke midtvejs i optagelserne. I stedet for at dræbe hans karakter i filmen, besluttede producenterne at filme ham ved at bruge sine brødre som stand-ins og derefter bruge CGI til at sætte Pauls ansigt på dem.
Denne teknik optrådte også i Rogue One: A Star Wars Story i 2016 og blev anvendt på Grand Moff Tarkin og prinsesse Leia. Desværre døde skuespilleren, der spillede karakteren, Peter Cushing, i 1994. Og mens Carrie Fisher stadig var i live under optagelserne, havde hendes udseende ændret sig betydeligt siden 1977.
Til denne film brugte produktionen stand-ins og teknologi svarende til deepfakes til at genskabe de originale karakterer digitalt.
Og selvom du måske tror, at dette er en nylig udvikling, kan du blive overrasket over at vide, at 2000's Gladiator også brugte lignende teknologi. Da en af de primære birolleskuespillere, Oliver Reed, pludselig døde under optagelserne, valgte produktionen at genskabe ham digitalt, mens han brugte en body double til selve optagelserne.
Denne teknologi går dog ud over at genoplive og vende berømtheder. De brugte det endda i Captain America: The First Avenger til at udskifte Chris Evans store krop med Leander Deenys mindre stel. Selvom de også brugte forskellige andre teknikker til at gøre hans lille optræden før Howard Starks eksperiment, var deepfake-teknologi et af deres værktøjer.
Hvordan Deepfakes kan revolutionere underholdningsindustrien
En ting alle ovenstående eksempler har til fælles er, at de skulle bruge måneder og millioner af dollars for at få den effekt, de ønskede at opnå. Men på AGT Stage viste Metaphysic, at de kunne genskabe endnu en berømthed i høj kvalitet i realtid.
Selvom deres output på AGT-scenen ikke er 100 % realistisk, er det tæt nok på den ægte vare, hvis du ikke ser nøje efter. Og en stor ting er, at de gør det i realtid. Med den måde, teknologien udvikler sig på, vil vi snart finde en deepfake-applikation i realtid, der øjeblikkeligt kan producere en realistisk video.
Udviklingen kan reducere studiernes afhængighed af avancerede sporingssæt og omfattende efterbehandling, hvilket yderligere strømliner deres post-produktions workflow. Og mens skabe problemfri deepfake-videoer er ikke så let, som det lyder, behøver du ikke længere være et produktionsselskab på flere millioner dollar for at have råd til det.
Teknologiens mainstream-introduktion ville give mindre studier og endda indie-filmskabere råd til og bruge den til deres kreationer. Faktisk kan alle med en smartphone prøv denne teknologi gennem apps til ansigtsbytte, selvom de ikke er så gode som på AGT-scenen.
Fremtiden for Deepfakes i film og tv
Efterhånden som deepfake-teknologien udvikler sig, kan vi snart finde et tidspunkt, hvor studierne nemt kan bruge ligheden med berømtheder i fortiden til at bringe liv til deres nyeste film. Disse vil hjælpe med at bevare kontinuiteten, især da produktioner (og biografgængere) foretrækker langvarige franchises, hvor de står over for problemer med aldring eller endda døende berømtheder.
Denne udvikling har dog også en anden facet - den kan bruges til at genskabe en persons lighed uden deres samtykke. Desuden kan den samme video bruges til at så frygt, spænding og forvirring blandt mennesker, især hvis den er fra en politisk figur, og den dybe falske ikke er genkendelig som sådan.
Så meget som vi er glade for denne teknologi inden for underholdning, bør vi også være varsomme med, at den bruges etisk og aldrig til at så kaos.