Home / Featured  / George Carlins dødsbo inngår forlik i søksmålet om komikerens AI-dobbeltgjenger

George Carlins dødsbo inngår forlik i søksmålet om komikerens AI-dobbeltgjenger

Boet etter komikeren George Carlin inngikk tirsdag forlik i et søksmål mot eierne av en komediepodcast som hevdet at de brukte kunstig intelligens til å etterligne den avdøde standup-komikerens stemme. Søksmålet var et av de første i USA som fokuserte på lovligheten av deepfakes som etterligner en kjendis’ stemme.

 

Dudesy-podcasten og skaperne av den – den tidligere Mad TV-komikeren Will Sasso og forfatteren Chad Kultgen – gikk med på å fjerne alle versjoner av podcasten fra Internett og permanent avstå fra å bruke Carlins stemme, utseende eller bilde i noe som helst innhold. Danielle Del, talsperson for Sasso, ønsker ikke å kommentere saken.

 

Både Carlins familie og en advokat for boet hans roste forliket. Ingen av partene offentliggjorde vilkårene i forliket.

 

“Jeg er glad for at denne saken ble løst raskt og i minnelighet, og jeg er takknemlig for at de tiltalte opptrådte ansvarlig ved raskt å fjerne videoen de lagde”, sier Kelly Carlin, komikerens datter, i en uttalelse.

 

Carlins dødsbo gikk til søksmål i januar etter at podcasten Dudesy, som hevder at den bruker kunstig intelligens i komedien, la ut en times spesial på YouTube med tittelen George Carlin: I’m Glad I’m Dead. I boets søksmål ble det hevdet at podcasten både krenket Carlins publisitets- og opphavsrettigheter, og den ble kalt “et tilfeldig tyveri av en stor amerikansk kunstners verk”.

 

Spesialen ble introdusert av podkastens AI-karakter “Dudesy”, som hevdet at den hadde sett på Carlins verk og deretter laget et standup-sett i samme stil som komikeren. I etterkant av søksmålet sa imidlertid Sassos talsperson Del til New York Times at den fiktive Dudesy-karakteren ikke var AI-generert, og at Kultgen skrev hele den falske Carlin-spesialen i stedet for at den ble trent på tidligere arbeider. Ettersom saken ikke nådde oppdagelsesfasen, er det uklart nøyaktig hvilke deler av det falske Carlin-settet som er AI-generert.

 

“Selv om det er synd at dette i det hele tatt skjedde, håper jeg at denne saken kan tjene som en advarsel om farene ved AI-teknologi og behovet for passende sikkerhetstiltak, ikke bare for kunstnere og kreative, men for alle mennesker på jorden”, sier Kelly Carlin.

 

Selv om podcasten ikke brukte Carlins komedie til å trene opp en kunstig intelligens, sa en advokat for boet at det å bruke teknologien til å skape en imitasjon av ham fortsatt var et brudd på Carlins rettigheter, og at ansvarsfraskrivelsen før spesialen var utilstrekkelig. Klipp fra spesialfilmen kunne ha blitt fjernet fra konteksten og spredt på internett under påskudd av å være fra Carlin, som døde i 2008.

 

“Denne typen falske videoer skaper et reelt skadepotensial fordi noen for eksempel bare kan ta et segment av den og sende det rundt eller legge det ut på Twitter”, sier Josh Schiller, partner i Boies, Schiller, Flexner og advokat for Carlins dødsbo. “Noen kan tro at de lytter til den ekte George Carlin, fordi de aldri har hørt ham før og ikke vet at han er død.”

 

Forliket kommer på et sensitivt tidspunkt for underholdningsbransjens forhold til kunstig intelligens. Det siste halvannet året har generative AI-verktøy blitt allment tilgjengelige, noe som har økt opphavsmenns bekymring for uautoriserte imitasjoner av både levende og døde artister. Den siste tidens deepfakes av kjendiser som Taylor Swift har i tillegg lagt press på lovgivere og AI-selskaper for å begrense ondsinnet eller ikke-samtykkebasert bruk av teknologien. 200 musikere signerte tidligere denne uken et åpent brev der de oppfordret utviklere og teknologiselskaper til å slutte å produsere AI-verktøy som kan erstatte eller undergrave rettighetene deres og stjele bildene deres. I mellomtiden har en rekke delstater vedtatt lovgivning om bruken av deepfake-teknologi – blant annet innførte Tennessee i forrige måned en lov som forbyr kopiering av artisters stemmer uten deres samtykke.

 

Selv om saken ble avgjort raskt, understreker den potensialet for fremtidige rettstvister om hvorvidt AI-genererte imitasjoner kan betraktes som parodier som er tillatt i henhold til “fair use”. Show som Saturday Night Live har lenge hatt lov til å imitere offentlige personer på dette grunnlaget, men det har ennå ikke vært noen større juridiske tester av generative AI-verktøy som skaper lignende imitasjoner – en situasjon som ifølge Schiller er fundamentalt forskjellig fra når et menneske gjør det.

 

“Det er stor forskjell på å bruke et AI-verktøy til å utgi seg for å være en person og få det til å se ut som om det er autentisk, og det å ta på seg en grå parykk og en svart skinnjakke”, sier Schiller. “Du vet at den personen ikke er George Carlin.”