At producere kunst og tekst ved hjælp af computere er ikke nyt. Det er sket siden 1970’erne. Det nye er, at computere agerer selvstændigt – uden at programmørerne giver noget input; det er computerprogrammet, der genererer værket, mens programmørerne blot har indstillet parametrene.
Ikke alene handler computerne mere selvstændigt, men kvaliteten af det indhold, der genereres, er også steget. Hvordan dette indhold bruges, har også ændret sig, og det er måske ikke altid skabt med de bedste motiver. Dette er den nye omfattende emne, kunstig intelligens eller AI.
Det er på tide, at nyhedsorganisationer slår tilbage mod Big Techs fortsatte forsøg på at tjene penge på andres arbejde.
John Byrne, administrerende direktør og grundlægger, Raw Story
Coursera, en udbyder af åbne onlinekurser, skriver:
“Kunstig intelligens er teorien om og udviklingen af computersystemer, der er i stand til at udføre opgaver, som historisk set krævede menneskelig intelligens, eksempelvis at genkende tale, træffe beslutninger og identificere mønstre. AI er et paraplybegreb, der omfatter forskellige teknologier, herunder maskinlæring, dyb læring og behandling af naturligt sprog.”
Rapporten “Generative Artificial Intelligence and Copyright Law” fra Congressional Research Service giver et mere specifikt perspektiv:
“Såkaldte ‘generative AI’-computerprogrammer – såsom OpenAI’s DALL-E- og ChatGPT-programmer, Stability AI’s Stable Diffusion-programmer og Midjourneys selvbetitlede program – kan generere nye billeder, tekster og andet indhold (‘outputs’) som svar på en brugers tekstuelle anvisninger (‘inputs’).”
Disse AI-programmer genereres ved at udsætte dem for svimlende store mængder af eksisterende tekster, fotos, malerier og andre kunstværker. For eksempel er generative foruddannede transformatorer (GPT’er) en type stor sprogmodel (LLM), der bruger massive datasæt bestående af artikler, bøger og essays, der er tilgængelige på internettet, til at generere enhver form for tekst. (Paul McDonagh-Smith, lektor i informationsteknologi ved MIT Sloan School of Management, foreslog en mindre teknisk betydning af akronymet: Teknologi til generelle formål).
Programmører skaber generative AI-platforme ved at søge efter mønstre og relationer i disse enorme arkiver af billeder og tekst. Derefter skaber den samme proces, som bruges i autoudfyldninger, regler og foretager vurderinger og forudsigelser, når de reagerer på en forespørgsel eller et input.
Men hvem har ret til resultaterne eller outputtet? Gælder ophavsret, patent eller varemærke for AI-kreationer? Hvem ejer det indhold, som AI-platforme producerer for en virksomhed eller dens kunder?
Er brug af LLM’er og scraping af internettet for tekster og billeder – det udtryk, der anvendes til at høste indhold online – fair brug, som AI-virksomhederne hævder, eller skal disse virksomheder have tilladelse og skylde royalties til indholdsejerne?
Sagt på en anden måde, ville det give mere mening at give ophavsret til en penneproducent til en bog i stedet for til den forfatter, der brugte pennen til at skrive den? I digitale termer er det tydeligt, at Microsoft Word ikke kan påberåbe sig ophavsret til tekster, der er skabt ved hjælp af programmet. Hvorfor skulle AI være anderledes? Det viser sig, at svaret på dette spørgsmål ikke er ligetil.
En usikker juridisk situation
Domstolene har endnu ikke taget stilling til, hvordan standarderne for fair brug gælder for AI-værktøjer.
– Der er ikke et klart svar på, om det i USA er en krænkelse af ophavsretten, eller om det er fair brug, siger Ryan Abbott, advokat hos Brown Neri Smith & Khan.
I et interview med New York Times sagde han:
– I mellemtiden har vi masser af retssager, der bevæger sig fremad med potentielt milliarder af dollars på spil.
Fordi de retssager, der rejser disse spørgsmål, er i de tidlige stadier af retssagerne, kan der gå år, før en føderal distriktsdomstol træffer afgørelse i sagen, eller disse sager kommer for Højesteret. Myndighederne har endnu ikke truffet endelige afgørelser om rettigheder og ansvar for AI-virksomheder, der bruger originalt indhold, eller om skaberne af dette indhold.
Hvad siger USA’s ophavsretslov?
Copyright Office har vedtaget en officiel politik, der erklærer, at det vil “registrere et originalt forfatterskab, forudsat at værket blev skabt af et menneske.” Det fører til spørgsmålet om, hvorvidt AI-genereret indhold kan anses for at være skabt af et menneske eller ej. I en vis forstand er det, men programmet genererer som regel indhold, som intet menneske er ansvarlig for, hvilket efterlader spørgsmålet stort set ubesvaret.
For at besvare dette spørgsmål må vi se på begrebet forfatterskab. Artikel I, afsnit 8 i den amerikanske forfatning bemyndiger Kongressen til at “[sikre] forfattere[…] eneretten til deres[…] skrifter i en begrænset periode.” Det betyder, at Copyright Act giver ophavsretlig beskyttelse til “originale forfatterskaber”. Hvad udgør et forfatterskab? Både forfatningen og ophavsretsloven er tavse om det spørgsmål.
Rapporten fra september 2023 udgivet af Congressional Research Service foreslog, at Copyright Office sandsynligvis ikke ville finde det nødvendige menneskelige forfatterskab, når et AI-program genererer værker som svar på tekstmeddelelser.
Vi skal dog tage højde for den menneskelige kreativitet, der kræves for at designe AI-software. Programmører kan træffe kreative valg i forbindelse med kodning og træning af AI-softwaren, hvilket giver dem et stærkere krav på en form for ophavsret. Ville programmørernes bidrag berettige til ophavsretlig beskyttelse? Eller ville AI – eller snarere den virksomhed, der ejer AI-programmet, som Microsoft eller OpenAI – fortjene beskyttelsen?
U.S. Copyright Office anerkender, at fremkomsten af AI giver hidtil usete vanskeligheder, som Kongressen må tage stilling til. “[V]i har konkluderet, at der er behov for en ny lov”, hedder det i en rapport fra juli 2024 fra U.S. Copyright Office med titlen “Ophavsret og Kunstig Intelligens.” “Hastigheden, præcisionen og omfanget af AI-skabte digitale replikaer [kræver] hurtig føderal handling. Uden et robust landsdækkende middel truer deres uautoriserede offentliggørelse og distribution med betydelig skade[…] i underholdnings- og politiske arenaer.”
Rapporten foreslår, at der vedtages en ny føderal lov, som beskytter alle personer, ikke kun berømtheder eller offentlige personer, mod at skabe og distribuere deres digitale afbildninger uden samtykke. Den opfordrer onlinetjenesteudbydere til at “fjerne uautoriserede digitale kopier”, når de modtager en “effektiv meddelelse”. Rapporten giver også enkeltpersoner ret til at “licensere og tjene penge” på deres rettigheder til digitale kopier. Agenturet anerkender, at der skal tages højde for First Amendment i enhver ny lov. De foreslåede reformer vil også beskytte “mod AI-output, der bevidst efterligner en kunstners stil”, men enhver ny lov vil ikke definere, hvad denne stil udgør.
Hvordan andre lande beskytter indhold
Sager i andre lande giver kun få værdifulde erfaringer. I marts 2012 fandt en domstol i en australsk sag Acohs Pty Ltd v. Ucorp Pty Ltd) for eksempel, at et værk genereret af en computer ikke kunne beskyttes af ophavsretsloven, fordi det ikke var et menneske, der havde produceret det.
I 2009 erklærede EU-Domstolen i Infopaq-afgørelsen, “at ophavsret kun gælder for originale værker, og at originalitet skal afspejle ›ophavsmandens egen intellektuelle skabelse‹”, skriver WIPO’s magasin.
Domstole i andre lande – Indien, Irland, New Zealand og Hong Kong – er mere positive over for programmøren som “ophavsmand”. Ophavsretsloven i Storbritannien ser ud til at sikre sine indsatser: “I tilfælde af et litterært, dramatisk, musikalsk eller kunstnerisk værk, som er computergenereret, skal ophavsmanden anses for at være den person, som har truffet de nødvendige foranstaltninger til at skabe værket”, tilføjes det i artiklen.
Manglende klarhed over, hvad der udgør en krænkelse
Den generative proces med at lave store sprogmodeller, billedproducerende programmer som DALL-E, musikkomposition og stemmegenkendelse kræver træning. AI kan kun generere noget med denne træning, som altid indebærer at lave digitale kopier af eksisterende værker.
Ifølge U.S. Patent and Trademark Office vil denne proces “næsten per definition involvere reproduktion af hele værker eller væsentlige dele af dem.” For eksempel accepterer OpenAI, at deres programmer er trænet på “store, offentligt tilgængelige datasæt, der omfatter ophavsretligt beskyttede værker.”
Ifølge Cornell Law School afhænger det af fire lovbestemte faktorer i henhold til 17 U.S.C. paragraf 107, om kopiering udgør fair brug eller ej:
1. “Formålet med og karakteren af brugen, herunder om en sådan brug er af kommerciel karakter eller er til nonprofit-uddannelsesformål;
2. Arten af det ophavsretligt beskyttede værk;
3. Mængden og væsentligheden af den anvendte del i forhold til det ophavsretligt beskyttede værk som helhed;
4. Effekten af brugen på det potentielle marked for eller værdien af det ophavsretligt beskyttede værk.
Afhængigt af jurisdiktionen kan forskellige føderale domstole reagere med forskellige fortolkninger af doktrinen om fair brug, som tillader, at ophavsretligt beskyttede værker bruges uden ejerens tilladelse “til formål som kritik (herunder satire), kommentarer, nyhedsrapportering, undervisning (herunder flere kopier til brug i klasseværelset), stipendium eller forskning”, ifølge non-profitpublikationen Lawfare. Dette kaldes transformativ brug i henhold til doktrinen og lader en person “udnytte” ophavsretligt beskyttet materiale på en måde, som det ikke oprindeligt var tiltænkt.
I et indlæg til House of Lords Communications and Digital Select Committee-undersøgelsen i december 2023 sagde OpenAI, at de kun kunne træne store sprogmodeller, som eksempelvis deres GPT-4-model, ved at få adgang til ophavsretligt beskyttet arbejde. “Fordi ophavsret i dag dækker stort set alle former for menneskelige udtryk – inklusive blogindlæg, fotografier, forumindlæg, stumper af softwarekode og regeringsdokumenter – ville det være umuligt at træne nutidens førende AI-modeller uden at bruge ophavsretligt beskyttet materiale.”
Ifølge kongresrapporten “argumenterer OpenAI for, at dets formål er ‘transformativt’ i modsætning til ‘ekspressivt’, fordi træningsprocessen skaber ‘et nyttigt generativt AI-system'” og hævder desuden, at fair brug er gældende, fordi det indhold, det bruger, udelukkende er beregnet til at træne dets programmer og ikke deles med offentligheden. Hvis et værk betragtes som “transformativt” ud fra OpenAI’s fortolkning, skal det være væsentligt ændret i forhold til originalen, så det ikke betragtes som en efterligning.
I mellemtiden har OpenAI, som har skabt værktøjer som sin banebrydende chatbot, ChatGPT, udtalt, at det ville være umuligt uden adgang til ophavsretligt beskyttet materiale. Virksomheden insisterer dog på, at den har taget skridt til at undgå muligheden for krænkelse og hævder for eksempel, at dens visuelle kunstprogram DALL-E 3 “er designet til at afvise anmodninger, der beder om et billede i stil med en levende kunstner.”
AI-virksomheden fastholder også, at den er nødt til at bruge ophavsretligt beskyttet materiale for at producere et relevant system: “At begrænse træningsdata til offentligt tilgængelige bøger og tegninger, der blev skabt for mere end et århundrede siden, kan give et interessant eksperiment, men vil ikke give AI-systemer, der opfylder behovene hos nutidens borgere”, stod der i en artikel i The Guardian i januar 2024.
Som juridisk præcedens citerer virksomheden Authors Guild, Inc. v. Google, Inc.:
“Hvor den amerikanske appeldomstol for Second Circuit fastslog, at Googles kopiering af hele bøger for at skabe en søgbar database, der viste uddrag af disse bøger, udgjorde fair brug”, hedder det i kongresrapporten.
Ikke overraskende er OpenAI’s holdning blevet mødt med betydelig kritik. “Vi bliver ikke styrtende rige, hvis I ikke lader os stjæle, så lad være med at gøre det til en forbrydelse at stjæle”, skrev AI-skeptikeren Gary Marcus på det sociale medie X (tidligere kendt som Twitter). “Ja, Netflix betaler måske milliarder om året i licensafgifter, men ‘vi’ (OpenAI) burde ikke være nødt til det!”
Hvornår er et stykke arbejde for ens?
Ophavsretsejere skal overholde høje standarder for at påvise, at produktionen af et AI-program har krænket deres rettigheder; hvis en maler for eksempel hævder, at et DALL-E-billede har en uhyggelig lighed med deres værk, vil det føre til krænkelse af ophavsretten, “hvis AI-programmet både 1) havde adgang til deres værker og 2) skabte ‘væsentligt lignende output”, hedder det i rapporten.
“Domstolene har på forskellig vis beskrevet testen som et krav om, at værkerne har ‘et væsentligt lignende samlet koncept og følelse‘ eller ‘overordnet udseende og følelse‘, eller at ‘den almindelige fornuftige person ikke ville kunne skelne mellem de to værker'”, tilføjede rapporten.
Fremstående sager har også påpeget, at et sådant fradrag bør overveje “den kvalitative og kvantitative betydning af den kopierede del i forhold til sagsøgerens værk som helhed.” Men maleren kan måske bevise, at et billede blev hentet fra internettet for at “træne” programmet, hvilket resulterede i et billede, der lignede den oprindelige skabelse i de fleste, hvis ikke alle, henseender.
Artiklen fortsætter…
Med OpenAI’s ord ville enhver påstand om krænkelse fra en ophavsretsindehaver dog være “et usandsynligt tilfældigt resultat“.
Domstolene er blevet bedt om at præcisere, hvad et “afledt værk” er i henhold til lovgivningen om intellektuel ejendomsret. Alternativt kan nogle AI-programmer bruges til at skabe værker, der involverer eksisterende fiktive karakterer, som nogle gange nyder ophavsretlig beskyttelse i sig selv. Et AI-program kan også blive bedt om at skabe kunstneriske eller litterære værker “i stil med” en bestemt kunstner eller forfatter. Efterligning af en kunstners eller forfatters stil er dog ikke i strid med ophavsretsloven.
Disse sager rejser også muligheden for, at brugere af de billeder og tekster, der genereres af AI-virksomheder, og som krænker ophavsretten til eksisterende værker, også kan være ansvarlige, ud over de AI-virksomheder, der har produceret dem. (Brugere, der downloadede musik ulovligt fra det nu nedlagte Napster, blev pålagt juridiske sanktioner).
AI-virksomheden kan potentielt stå til ansvar i henhold til doktrinen om “stedfortrædende krænkelse“, som vedrører sagsøgte, der har “retten og evnen til at kontrollere de krænkende aktiviteter” og “en direkte økonomisk interesse i sådanne aktiviteter.” Brugere kan selvfølgelig være uskyldige i enhver forseelse, hvis de ikke har bedt om programmet med nogen bevidsthed om, hvad de ville få. Hvordan kan ejeren af et ophavsretligt beskyttet værk så bevise, at der er tale om en krænkelse?
For eksempel lader OpenAI’s brugsbetingelser til at lade virksomheden slippe af krogen ved at give brugeren skylden for ophavsretlige problemer: “Vi overdrager hermed til dig alle vores rettigheder, titler og interesser, hvis der er nogen, i og til Output.” Andres Guadamuz, professor i intellektuel ejendomsret ved University of Sussex, skrev i juli 2022, at OpenAI ser ud til at “omgå de fleste spørgsmål om ophavsret på en smart måde gennem en kontrakt.”
I september 2023 erklærede en amerikansk distriktsdomstol, at det ville være nødvendigt med en nævningesag for at afgøre, om det var fair brug for en AI-virksomhed at kopiere sagsresuméer fra Westlaw – en juridisk forskningsplatform ejet af Thomson Reuters – for at træne et AI-program i at citere relevante passager fra juridiske udtalelser som svar på brugernes spørgsmål.
“Ved at nægte AI-byggeren og -brugeren en summarisk dom for krænkelse af ophavsretten åbner beslutningen døren for den slags langvarige, dyre og usikre retssager, der kan afholde AI-byggere og -brugere fra at bruge ophavsretligt beskyttede værker som træningsdata”, siger Moses Singer, et advokatfirma med base i New York.
Fritager paragraf 230 AI-virksomheder for ansvar?
I henhold til paragraf 230 i Communications Decency Act – som beskytter virksomheder mod at være vært for potentielt retsstridigt indhold, der er lagt ud af andre, og sociale medievirksomheder som X og Meta (moderselskabet til Facebook), der bringer indhold, herunder annoncer med AI-genererede skuespillere – “kan kræve immunitet“. Siden den blev indført i 1996, er paragraf 230 blevet påberåbt for at retfærdiggøre, hvorfor teknologivirksomheder har betydelig juridisk beskyttelse mod ansvar som tredjepartsudgivere.
Chamber of Progress, en koalition af teknologibranchen, hvis medlemmer omfatter Amazon, Apple og Meta, argumenterede for, at paragraf 230 skulle udvides til at beskytte AI-virksomheder mod visse krænkelseskrav. Det rejser spørgsmålet om, hvorvidt paragraf 230’s undtagelse også kan dække reklame og omtale af intellektuelle ejendomsrettigheder.
AI-virksomheder tilbyder deres begrundelser
Teknologivirksomheder med AI-produkter har fremført argumenter, der retfærdiggør deres metoder, herunder brug af ophavsretligt beskyttet materiale til at “træne” deres programmer. Meta hævder, at “den første licensordning af sin art nu” vil føre til kaos og sende udviklere på jagt efter mange millioner rettighedshavere “til meget lille fordel, da enhver rimelig royalty, der skal betales, vil være utrolig lille i lyset af det enkelte værks ubetydelighed i et AI-træningssæt.”
Google påpeger, at der ikke ville være nogen spørgsmål om ophavsret, hvis træning kunne finde sted uden at skabe kopier. De erklærer desuden, at “videnshøstning” – som at læse en bog og lære information fra den – ikke er blevet betragtet som en krænkelse af domstolene. I den forstand gør Google ikke noget anderledes, når de udbreder AI-output og gør dem tilgængelige for brugerne.
Microsoft hævder, at hvis virksomheden skulle indhente samtykke til, at tilgængelige værker blev brugt til træning, ville AI-innovation blive kvalt. Det ville ikke være muligt at opnå det “omfang af data, der er nødvendigt for at udvikle ansvarlige AI-modeller, selv når identiteten af et værk og dets ejer er kendt.” Licensordninger kan også forhindre startups og virksomheder i mindre lande i at træne deres egne AI-modeller.
Anthropic, en AI-virksomhed, gentager Microsofts argument og hævder, at “passende grænser for ophavsret” er nødvendige “for at støtte kreativitet, innovation og andre værdier.”
Andreessen Horowitz, et venturekapitalfirma med mange tech-investeringer, siger, at det har arbejdet ud fra den forudsætning, at den nuværende ophavsretslov tillader enhver form for kopiering, der er nødvendig for at uddrage statistiske fakta til udvikling af AI-teknologier. “Disse forventninger har været en kritisk faktor i den enorme investering af privat kapital i USA-baserede AI-virksomheder, som igen har gjort USA til en global leder inden for AI.”
Hvis disse forventninger kompromitteres, hævder Andreessen Horowitz, kan det bringe fremtidige investeringer i AI i fare og sætte USA’s økonomiske udsigter og nationale sikkerhed på spil.
Hugging Face, en AI-virksomhed, hævder, at brugen af et givet værk til at træne sine modeller “har et bredt fordelagtigt formål” – nemlig en AI-model, “der kan skabe en lang række forskellige slags output, som ikke har noget at gøre med det underliggende, ophavsretligt beskyttede udtryk.” Ligesom OpenAI og andre teknologivirksomheder er Hugging Face afhængig af fair brug-doktrinen, når de indsamler indhold til at bygge deres modeller.
Kunst, fotos og AI
Mange virksomheder med ophavsretligt beskyttet indhold argumenterer imod teknologivirksomhedernes begrundelse for at bruge deres materiale under “fair brug”. I februar 2023 lagde Getty, en billedlicensservice, sag an mod skaberne af AI-kunstgeneratoren Stable Diffusion med påstand om “uforskammet krænkelse af Getty Images’ intellektuelle ejendomsret i et svimlende omfang”. Getty Images erklærede, at Stability AI, som ejer Stable Diffusion, havde kopieret 12 millioner billeder uden tilladelse og dermed krænket ophavsretten og varemærkerettighederne.
Getty afviste også ethvert forsvar, der byggede på fair brug, og argumenterede for, at Stable Diffusion producerede kommercielle produkter, der kunne bringe Gettys billedmarkedsføring i fare.
Getty hævdede, at de billeder, der blev produceret af AI-virksomhedens system, var lignende eller afledte nok til at udgøre en krænkelse. I en anden sag, der blev indgivet i slutningen af 2022, Andersen et. al. v. Stability AI et. al., indgav tre kunstnere et gruppesøgsmål mod flere generative AI-platforme og hævdede, at Stability AI havde brugt deres “originale værker uden licens til at træne AI i deres stilarter”, hedder det i en artikel i Harvard Business Review. Softwaren kunne generere billeder, der reagerede på brugernes anmodninger, som ikke var tilstrækkeligt “transformerende[…] og som derfor ville være uautoriserede afledte værker.” I juridiske termer hævdede kunstnerne, at Stability AI var skyldig i “stedfortrædende krænkelse.”
Stability AI meddelte i 2022, at kunstnere kunne fravælge den næste generation af billedgeneratoren, som blev frigivet til nogle udviklere til forhåndsvisning i april 2024. Det er ikke kun “for lidt og for sent”, men lægger også byrden for beskyttelse af intellektuel ejendomsret på kunstnerne og ikke på virksomheden, da Stability AI kun vil gøre en undtagelse for værker, der er skabt af kunstnere, som har fravalgt det.
Praksis med at bruge originale værker er udbredt. Dette faktum blev yderligere fremhævet i december 2023, da en database over kunstnere, hvis værker blev brugt til at træne Midjourney – et generativt AI-program – blev lækket online. Databasen indeholdt 16.000 kunstnere, herunder Keith Haring, Salvador Dalí, David Hockney og Yayoi Kusama.
Kunstnere protesterede på forskellige måder og skrev “Nej til AI-genererede billeder” på de sociale medier, indførte et værktøj, der “forgiftede” billedgenererende software, og anlagde flere retssager, hvor de anklagede AI-virksomheder for at krænke intellektuelle ejendomsrettigheder.
Et af disse værktøjer hedder Nightshade, og på dets hjemmeside står der, at det er designet til at adressere “magtasymmetrien” mellem billedejere og AI ved at omdanne “billeder til ‘giftige’ prøver, så modeller, der træner på dem uden samtykke, vil se deres modeller lære uforudsigelig adfærd, der afviger fra forventede normer”, står der på softwarehjemmesiden.
“Generativ AI skader kunstnere overalt ved ikke kun at stjæle fra vores allerede eksisterende arbejde for at opbygge sine biblioteker uden samtykke, men også vores job, og den gør det ikke engang autentisk eller godt,” sagde kunstneren Brooke Peachley ifølge en artikel fra januar 2024 i Hyperallergic.
Det er dog ikke alle kunstnere, der er imod brugen af AI i den kreative proces. I september 2022 registrerede kunstneren Kris Kashtanova en ophavsret til en grafisk roman, hvis billeder blev genereret af Midjourney. I februar 2023 tilbagekaldte Copyright Office registreringen med den begrundelse, at Kashtanova ikke havde afsløret, at en AI-model havde skabt billederne til hendes roman.
Copyright Office fastslog, at Midjourney, og ikke Kashtanova, var ansvarlig for det “visuelle materiale”. En måned senere blev der udgivet en vejledning, der fastslog, at når AI “bestemmer de udtryksfulde elementer i sit output, er det genererede materiale ikke et produkt af menneskeligt forfatterskab.”
En af kunstnerens advokater var uenig og sagde, at ophavsretsloven ikke har brug for en sådan kreativ kontrol, og at original kunst kan indeholde “en vis grad af tilfældighed“. Hans holdning er i modstrid med en juraprofessors, som sagde, at en menneskelig bruger, “som indtaster en tekst i et AI-program, ‘ikke har bidraget med andet end en idé’ til det færdige værk”, hedder det i rapporten fra Congressional Research Service. Som følge heraf kan det arbejde, der er produceret af denne idé, ikke ophavsretligt beskyttes.
I en anden sag, der involverede en opfinder ved navn Stephen Thaler, bekræftede en føderal dommer i Washington D.C. den politik, som Copyright Office havde vedtaget. I denne sag havde Thaler “angivet sit computersystem som skaberen af kunstværket” og ønskede, at der blev udstedt en ophavsret til ham som maskinens ejer. Da Copyright Office afviste hans anmodning, sagsøgte han agenturets direktør. I mellemtiden besluttede dommeren, at et AI-genereret kunstværk ikke var underlagt ophavsretlig beskyttelse, fordi det mangler “menneskelig involvering“.
Copyright Office afviste også et kunstværk med titlen “Théâtre D’opéra Spatial” af kunstneren Jason Michael Allen, hvis værk vandt førstepræmien på Colorado State Fair i 2022. Ifølge en artikel i Wired fra september 2023 lovede Allen: “Jeg vil kæmpe imod som bare fanden” og erklærede, at han ville lægge sag an mod den føderale regering for at nægte ham ophavsretlig beskyttelse, selv om han brugte Midjourney til at skabe sit værk.
Copyright Office erklærede, at Allen var berettiget til at ansøge om ophavsret udelukkende til de dele af værket, han havde ændret ved hjælp af Adobe Photoshop-software. “Det underliggende AI-genererede værk udgør blot råmateriale, som hr. Allen har transformeret gennem sine kunstneriske bidrag,” skrev Allen. Copyright Office var ikke overbevist.
På trods af Copyright Office’s holdning og kunstnernes voldsomme modstand har nogle auktionshuse og museer taget AI til sig. Flere kunstnere er glade for at udstille eller sælge deres værker på disse institutioner. Den tyske kunstner Mario Klingemann, som har specialiseret sig i AI-værker, skabte en serie portrætter under titlen Memories of Passersby I, som blev udstillet i 2019 hos Sotheby’s, et førende auktionshus.
Til sit værk brugte Klingemann en type AI-program, der kaldes et generativt kontradiktorisk netværk (GAN), som består af to moduler; de resulterende billeder bliver sendt frem og tilbage mellem modulerne. I dette tilfælde blev programmet trænet med eksponering for en stor samling portrætter fra det 17., 18. og 19. århundrede, som Klingemann havde udvalgt. Hans var et af flere AI-genererede kunstværker, der blev sat til salg hos Sotheby’s.
Museum of Modern Art (MoMA) i New York har også udstillet AI-genererede værker og var i 2022 vært for AI-installationen “Unsupervised“. Værket, der er sammensat af kunstneren Refik Anadol, overvejer, hvad en maskine kunne drømme om efter at have set mere end 200 års kunst i MoMA’s samling. I Haag udstillede Mauritshuis en AI-version af Johannes Vermeers “Pige med perleørering“, mens originalen var udlånt.
Forfattere konfronterer AI
Ligesom kunstnere har forfattere været skeptiske over for AI, da de er bekymrede for, at softwarens evne – især ChatGPT – til at komponere og udarbejde essays, romaner og andre former for skrivning som svar på brugernes anmodninger kan gøre dem arbejdsløse. Publishers Weekly, som dækker forlagsbranchen, minder læserne om, at AI har eksisteret i mange år og allerede er integreret i en stor del af branchens software.
Authors Guild samt forfatterne Paul Tremblay, Ta-Nehisi Coates, Michael Chabon og komikeren og forfatteren Sarah Silverman har anlagt flere retssager mod OpenAI og Meta og hævder, at træningsprocessen for AI-programmer krænker deres ophavsret til skriftlige og visuelle værker. I februar 2024 afviste en føderal distriktsdomstol imidlertid de fleste af argumenterne i de retssager om krænkelse af ophavsretten, som disse forfattere havde anlagt mod OpenAI, idet den fastslog, at sagsøgerne ikke havde vist eksempler på, at AI-genereret output “i det væsentlige – eller overhovedet – lignede deres bøger.”
Artiklen fortsætter…
Læs også
Afgørelsen, som efterlod forfatternes centrale argument om, at OpenAI-systemet “kopierede og indtog” deres ophavsretligt beskyttede arbejde uden tilladelse eller kompensation, svarede til en tidligere afgørelse i en retssag anlagt af forfattere mod Metas generative AI-system, Llama. “Når jeg spørger Llama, beder jeg ikke om en kopi af Sarah Silvermans bog,” skrev dommeren i den sag, “jeg beder ikke engang om et uddrag.”
E-bøger, som sandsynligvis er produceret af AI (med lille eller ingen menneskelig forfatterinddragelse), er begyndt at dukke op i Amazons online boghandel. AI-forsker Melanie Mitchell var bekymret over, at en bog med samme titel som hendes – Artificial Intelligence: A Guide for Thinking Humans, udgivet i 2019 – var dukket op på Amazon, men kun var 45 sider lang, dårligt skrevet (selvom den indeholdt nogle af Mitchells originale ideer) og tilskrevet en “Shumaila Majid.” På trods af at der ikke var nogen forfatterbiografi eller internettilstedeværelse, gav en søgning flere andre titler af “Majid”.
En undersøgelse foretaget af magasinet Wired ved hjælp af software for detektion af overbevisende falsk indhold afslørede, at Mitchells mistanke var korrekt. Softwaren fandt ud af, at kopien med 99 procent sandsynlighed var AI-genereret. Amazon fjernede Majid-versionen med den begrundelse: “Selv om vi tillader AI-genereret indhold, tillader vi ikke AI-genereret indhold, der overtræder vores retningslinjer for Kindle Direct Publishing-indhold, herunder indhold, der skaber en skuffende kundeoplevelse.”
AI-genererede resuméer af bøger, der markedsføres som e-bøger, er et andet udbredt fænomen, der har skræmt forfattere. Datalog Fei-Fei Li, forfatter til The Worlds I See: Curiosity, Exploration, and Discovery at the Dawn of AI, fandt mere end et dusin forskellige resuméer af sit arbejde på Amazon, som hun ikke havde noget at gøre med.
Disse e-bøger, som er resuméer af originale værker, er “steget dramatisk i antal”, siger Jane Friedman, en forlagsekspert, som selv blev offer for en anden “AI-genereret bogordning“. “Det er almindeligt lige nu, at en faglitterær forfatter fejrer lanceringen af sin bog og så inden for et par dage opdager, at et af disse resuméer er til salg”, skrev Kate Knibbs, seniorskribent på Wired, i januar 2024.
Men forfatterne af disse resuméer er måske ikke ansvarlige for krænkelser. Nogle eksperter med speciale i intellektuel ejendomsret mener, at resuméer er lovlige, fordi de ikke kopierer “ord for ord” fra den bog, de resumerer. Andre IP-eksperter er mere skeptiske. “Det er sværere at forsvare et simpelt resumé af en bog”, siger James Grimmelmann, der er professor i internetret ved Cornell University. “Der er stadig en betydelig lighed i udvælgelsen og placeringen af emner og sandsynligvis en vis lighed i sproget.”
“Det er foruroligende for mig, og på flere moralske niveauer virker det forkert at trække hjertet og følsomheden ud af historierne”, siger forfatteren Sarah Stankorb ifølge Wired-rapporten. “Og sproget – det virkede, som om de bare havde kørt det igennem et eller andet ordlisteprogram, og det kom til at se virkelig bizart ud.”
Hun har mistanke om, at hendes bog Disobedient Women: How a Small Group of Faithful Women Exposed Abuse, Brought Down Powerful Pastors, and Ignited an Evangelical Reckoning blev sammenfattet og lagt ud på Amazon før udgivelsen, baseret på et forhåndseksemplar af bogen, der kun blev uddelt til anmeldere. Hun fandt efterligningen åbenlys, da hun sammenlignede de to tekster. “I mine første dage som journalist kunne jeg finde på at lave et interview med en mor-entreprenør og derefter bruge eftermiddagen på at kigge på Pew Research Centers statistik over amerikanere, der ikke er religiøse.”
Dét er åbningsreplikken i Stankorbs bog. En sammenfattende version af den linje lød “I de første år af deres rapportering kunne de gennemføre et mor-entreprenør-interview efterfulgt af en dag, hvor de dykkede ned i Pew Research Center-statistikker om amerikanere, der havde forladt deres religiøse tilhørsforhold.” Den samme software, som Wired brugte til at fastslå, at Majids e-bog var genereret af kunstig intelligens, afslørede, at Stankorbs resumé også var det.
Ifølge Dave Karpf, der er lektor i medier ved George Washington University, er AI måske ikke så farlig, som folk forudsiger. “Jeg formoder[…] at 2024 bliver året, hvor vi bliver mindet om Napsters spøgelse – og andre mislykkede digitale fremtider”, skrev han i magasinet Foreign Policy i december 2023. “Den historie, jeg ofte hører fra AI-evangelister, er, at teknologier som ChatGPT er her, og at de er uundgåelige.”
“Hvis forældede love om ophavsret er i strid med store sprogmodellers skrabende adfærd, vil loven om ophavsret helt sikkert skulle bøjes som følge heraf,” skrev Karpf. Men han mener, at AI kan blive “endnu et Amazon”, eller det kan blive mere som WeWork, “en virksomhed, der oppustede sine egne indtægtsprognoser så meget, at den ikke kunne klare sig på dagens udlejningsmarked.”
“Ophavsretten bøjer sig ikke for at imødekomme din vision af den digitale fremtid – den digitale fremtid bøjer sig for at imødekomme ophavsretten,” tilføjede Karpf.
AI-genereret sang går viralt
Kontroversen omkring den AI-genererede sang “Heart on My Sleeve”, der bruger AI-versioner af stemmerne fra rapstjernen Drake og sangeren The Weeknd, rejser nogle af de hidtil usete spørgsmål, som AI stiller. Selv om “Heart” fik stor opmærksomhed, er det kun én af en række AI-genererede sange med tilhørende videoer. En AI-genereret version af Johnny Cash, der synger en Taylor Swift-sang, gik viralt online i 2023.
Efter udgivelsen i april 2023 blev “Heart on My Sleeve” krediteret Ghostwriter og hørt millioner af gange på streamingtjenester. Selv om Universal Music Group, som repræsenterer begge kunstnere, hævdede, at AI-virksomheder krænker ophavsretten ved at bruge disse kunstneres sange i træningsdata, siger juridiske observatører, at sangen var original, selv om den var imiteret. De hævder også, at Ghostwriter ikke krænkede noget eksisterende værk, hvis rettigheder tilhørte Drake, The Weeknd og Universal. Da Universal sendte beskeder om nedtagning, havde tredjeparter kopieret og uploadet sangen.
Copyright beskytter ikke en kunstners stemme, stil eller flow. Der kan dog være tale om en krænkelse, hvis en sang ligner et tidligere værk tilstrækkeligt meget i stil og “fornemmelse”, en tvetydig bestemmelse, som domstolene ofte skal tage stilling til.
Jered Chavez har også løbende lavet AI-genererede musikklip og produceret acappella-versioner af sange, der er trænet til at lyde som de mest genkendelige musikere i verden. Disse klip har vist sig at være bemærkelsesværdigt populære på TikTok og er billige og enkle at lave.
Sting og andre musikkunstnere har fordømt produktionen af AI-sange, der bruger berømte kunstneres vokaler. I et interview med BBC News i maj 2023 kritiserede Sting brugen af AI i musikken og sagde, at det ville kræve, at musikere forsvarede deres “menneskelige kapital mod AI” og erklærede: “Musikkens byggesten tilhører os, mennesker.”
“Det er nemt at bruge ophavsretten som en kæp i hjulet i den slags situationer for at komme efter nyt kreativt indhold, som man føler går over stregen, selv om man ikke har et stærkt juridisk grundlag for det, fordi ophavsretssystemet er så stærkt”, siger Nick Garcia, politisk rådgiver hos Public Knowledge, til The Verge.
En anden bekymring er, at man krænker kunstnernes rettigheder ved at bruge deres stemmer til at træne AI-programmer. Men skabere og udgivere er bevæbnet med relevante love til at kæmpe imod. Retten til offentlighed (også kaldet “retten til privatliv”) kan påberåbes af en sanger, hvis stemme er blevet klonet. Alligevel er denne ret kun registreret i visse stater – især New York og Californien, hvor mange store underholdningsvirksomheder er placeret. Rigtige Drake og The Weeknd kunne sagsøge Ghostwriter ved hjælp af den samme lov, som Wheel of Fortunes mangeårige medvært Vanna White påberåbte sig for at sagsøge en metallisk android-lookalike, der blev brugt i en Samsung-reklame i 1992, påpeges det i Verge-artiklen.
Disse offentlighedslove beskytter mod uautoriseret kommerciel brug af en persons navn, lighed og persona, samtidig med at de beskytter individers eksklusive rettigheder til at tjene penge på deres identitet.
“Hvis du ikke kan slå dem, så slut dig til dem“
Sangerinden Grimes har valgt en anden tilgang til AI ved at give sine fans mulighed for at skabe og distribuere sange med en AI-produceret version af kunstnerens stemme uden juridisk straf.
Hun opgiver dog ikke alle rettigheder, da invitationen kræver, at fans bruger et tilpasset “GrimesAI voiceprint” ved hjælp af et softwareprogram kaldet Elf.Tech. Selv om de kan bruge programmet til at producere originale sange, skal de stadig kreditere sangerinden som hoved- eller medvirkende kunstner.
Enhver, der bruger hendes stemmeaftryk, skal også dele royalties med hende på 50/50-basis, og Grimes skal godkende “samarbejdet”. Grimes fastslår desuden, at hun “ikke gør krav på noget ejerskab af lydoptagelsen eller den underliggende komposition”, medmindre kompositionen stammer fra Grimes. Fans skal være velkomne til at bruge hendes stemme”uden straf“, og hun tilføjede, at hun godt kunne lide tanken om, at “open-source al kunst og dræbe ophavsret”.
New York Times og andre publikationer sagsøger
I december 2023 sagsøgte New York Times teknologivirksomhederne OpenAI og Microsoft for krænkelse af ophavsretten. Det var den første udfordring af denne art fra en større amerikansk nyhedsorganisation. Times hævder, at OpenAI’s ChatGPT og Microsofts Copilot kan producere indhold, der er næsten identisk med Times’ artikler, hvilket giver dem en “gratis tur på dens massive investering i journalistik til at bygge erstatningsprodukter uden tilladelse eller betaling.” NYT hævder, at Microsofts søgemaskine Copilot, som bruger OpenAI’s ChatGPT, gav resultater, der i det væsentlige kopierede “ordret” fra avisens Wirecutter-indhold.
OpenAI bestred disse påstande: “Vi støtter journalistik, samarbejder med nyhedsorganisationer og mener, at New York Times’ søgsmål er ubegrundet.” NYT indrømmede i sit søgsmål, at de havde været i dialog med Microsoft og OpenAI om vilkårene for at løse tvisten, “men det lykkedes ikke at nå frem til en løsning”, ifølge en artikel i The Verge fra december 2023.
I april 2024 fulgte otte dagblade (herunder New York Daily News, Chicago Tribune og Denver Post), der ejes af Alden Global Capital, Times’ eksempel. De sagsøgte OpenAI og Microsoft og hævdede, at teknologivirksomhederne brugte millioner af ophavsretligt beskyttede artikler uden tilladelse til at træne deres generative AI-produkter.
Aldens søgsmål nævner også fejl begået af OpenAI’s ChatGPT som svar på brugeranmodninger og beskylder dem for “skade på omdømmet”. I et OpenAI-svar stod der, at Chicago Tribune havde anbefalet en liggestol til spædbørn, hvilket ikke var tilfældet. Desuden var produktet blevet tilbagekaldt, fordi det var forbundet med dødsfald blandt nyfødte. I et andet eksempel sagde AI’ens “opdigtede svar” fejlagtigt, at “forskning” offentliggjort i Denver Post sagde, at rygning kunne “helbrede” astma, ifølge det nye website Axios. En talskvinde for OpenAI hævdede, at virksomheden “ikke tidligere var klar over Aldens bekymringer.”
Søgsmålet kommer, efter at andre store medievirksomheder som Associated Press og Axel Springer, den tyske ejer af medier som Politico og Business Insider, har indgået datalicensaftaler med OpenAI.
OpenAI har også ført drøftelser med News/Media Alliance, en journalistgruppe, der repræsenterer mere end 2.200 medier verden over, “for at udforske muligheder, diskutere deres bekymringer og komme med løsninger.” Derudover har AI-virksomheden også været i dialog med Gannett, CNN og IAC, en internetmedievirksomhed.
Nogle virksomheder har indset, at det er bedre at samarbejde med AI-virksomheder end at bekæmpe dem. I maj 2024 annoncerede News Corp og OpenAI en flerårig aftale om at bringe nyhedsmediernes indhold til OpenAI. Det giver softwarevirksomheden adgang til “aktuelt og arkiveret indhold” fra Wall Street Journal, Barron’s, MarketWatch, New York Post, Times and the Sunday Times og Sun (UK) samt australske aviser som Daily Telegraph, Courier Mail, Advertiser og Herald Sun.
I maj 2024 indgik Atlantic Magazine og Vox Media (som omfatter Vox, the Verge, Eater, the Cut og Vulture) en aftale med OpenAI, som giver softwarevirksomheden mulighed for at bruge deres arkiverede indhold til at træne deres AI-modeller. “Begge aftaler giver også OpenAI mulighed for at udnytte de respektive udgiveres aktuelle indhold til at give svar på brugerforespørgsler i OpenAI-produkter, herunder ChatGPT,” skrev Axios’ seniormediereporter Sara Fischer.
Ikke alle involverede var tilfredse med denne aftale. I The Atlantic kaldte skribenten Damon Beres den flerårige aftale for en “Devil’s Bargain” og påpegede, at teknologien “ikke ligefrem har føltes som en ven af nyhedsindustrien”. Beres indrømmede dog, at “generativ AI kan vise sig at være fint”, men at det ville tage tid at finde ud af det.
Forudsigeligt nok er kompensation et afgørende spørgsmål. OpenAI har efter sigende tilbudt mellem 1 og 5millioner dollars årligt for at licensere ophavsretligt beskyttede artikler, men for nogle topudgivere er det beløb, OpenAI har foreslået, for lavt.
Marc Benioff, administrerende direktør for Salesforce Inc. og ejer af Time Magazine, hævdede, at AI-virksomheder har stjålet “intellektuel ejendom for at opbygge deres teknologi”. “Alle træningsdata er blevet stjålet”, sagde han på World Economic Forum i Davos i januar 2024.
Benioff sagde, at “ingen ved helt præcist”, hvad en rimelig kompensation for deres data ville være, men foreslog, at “AI-virksomheder bør standardisere betalinger for at behandle indholdsskabere retfærdigt.” På trods af sine bekymringer er Benioffs Time blandt de publikationer, der forhandler med OpenAI om licenser til deres arbejde.
I februar 2024 sagsøgte tre onlinemedievirksomheder– Raw Story, Alternet og The Intercept – OpenAI og hævdede, at virksomheden havde trænet sin chatbot ved hjælp af ophavsretligt beskyttede værker uden korrekt tilskrivning. De tre virksomheder krævede 2.500 dollars per overtrædelse og bad OpenAI om at fjerne alle ophavsretligt beskyttede artikler i sine datatræningssæt. The Intercept sagsøgte også Microsoft, en OpenAI-partner, som skabte sin egen chatbot ved hjælp af de samme artikler.
“Det er på tide, at nyhedsorganisationer slår tilbage mod Big Techs fortsatte forsøg på at tjene penge på andres arbejde,” sagde John Byrne, administrerende direktør og grundlægger af Raw Story, som ejer Alternet, ifølge en artikel i New York Times. “Big Tech har decimeret journalistikken. Det er på tide, at udgiverne tager stilling.”
SAG/AFTRA-strejken: Hvorfor AI betyder noget for film-, tv- og streamingskuespillere
Brugen af AI var et af de største stridspunkter for fagforeningen Screen Actors Guild-American Federation of Television and Radio Actors (SAG-AFTRA), som strejkede fra juli til november 2023. Skuespillernes strejke overlappede i flere måneder med manuskriptforfatternes arbejdsnedlæggelse. For Writers Guild of America (WGA), som manuskriptforfatternes fagforening hedder, var AI også et af de udestående spørgsmål i forhandlingerne om en ny kontrakt med filmstudierne.
SAG-AFTRA’s erklæring fra marts 2023 efterlod ingen plads til tvetydighed: “Menneskelige skabere er grundlaget for de kreative industrier, og vi skal sikre, at de bliver respekteret og betalt for deres arbejde. Regeringer bør ikke skabe nye undtagelser for ophavsret eller anden intellektuel ejendomsret, der giver AI-udviklere mulighed for at udnytte kreative værker eller professionelle stemmer og billeder uden tilladelse eller kompensation. Troværdighed og gennemsigtighed er afgørende for AI’s succes.”
SAG-AFTRA’s administrerende direktør Duncan Crabtree-Ireland “påpegede den ‘dobbelte standard’ i forholdet mellem skuespillere og virksomheder, når det drejer sig om krænkelse af ophavsretten”, skrev Katyannah Quach i en artikel i Register i oktober 2023. Hvorfor er det tilladt for virksomheder at bruge AI til at generere materiale, som de ønsker, spurgte han, men hvis en person bruger en virksomheds intellektuelle ejendom, bliver det et problem?
“Hvis en person besluttede sig for at krænke en af disse virksomheders ophavsretligt beskyttede indhold og distribuere det uden at betale for licensrettighederne, ville denne person stå over for en masse økonomiske og juridiske konsekvenser”, sagde Crabtree-Ireland på en konference med titlen ‘Kreativ Økonomi og Generativ AI’. “Så hvorfor er det omvendte ikke tilfældet? Burde de personer, hvis intellektuelle ejendom blev brugt til at træne AI-algoritmen, ikke være mindst lige så beskyttede?”
Skuespillere frygtede, at virksomheder konsekvent kunne udnytte deres billeder gratis, når skuespillerne var blevet scannet. Tom Hanks har allerede fordømt brugen af hans billede til kommercielle formål: “Der er en video derude, som reklamerer for en tandlægeordning med en AI-version af mig. Jeg har ikke noget med det at gøre.” Datteren til skuespilleren Robin Williams har udsendt en erklæring, hvor hun finder det “foruroligende”, at hendes fars stemme bliver kopieret i AI-tests.
Skuespillerinden Scarlett Johansson fandt også ud af, at hendes stemme og billede blev brugt i en 22 sekunders online-reklame på X. Hendes advokat lagde sag an. Taylor Swifts ansigt og stemme blev brugt i reklamer for Le Creuset køkkengrej. I reklamerne tiltalte sangerindens klon sine fans som “Swifties” og sagde, at hun var “begejstret for at uddele gratis kogegrejssæt”, fremgår det af en artikel i New York Times. Selv om Swift efter sigende godt kan lide Le Creusets produkter, har hun aldrig optrådt i en af deres reklamer.
Johansson var i nyhederne igen i maj 2024, da hun hævdede, at OpenAI brugte hendes stemme til sin samtale-ChatGPT kaldet Sky. (Sky var en af fem stemmeassistenter, som OpenAI introducerede.) Sam Altman, OpenAI’s direktør, hævdede, at stemmen ikke var Johanssons, men en anden skuespillerindes, hvis identitet han ikke ville afsløre. Han havde dog oprindeligt henvendt sig til Johansson på baggrund af hans udtrykte beundring for filmen “Her” fra 2013, hvor “hun lagde stemme til et AI-system.”
Som svar på Johanssons klage meddelte Altman, at han suspenderede brugen af Skys stemme. “Af respekt for fru Johansson har vi sat brugen af Skys stemme i vores produkter på pause,” sagde Altman i en udtalelse til NPR. “Vi beklager over for fru Johansson, at vi ikke kommunikerede bedre.” Skuespillerinden var ikke tilfreds. “Da jeg hørte udgivelsesdemoen, blev jeg chokeret, vred og overrasket over, at Altman ville bruge en stemme, der lød så uhyggeligt meget som min, at mine nærmeste venner og nyhedsmedier ikke kunne høre forskel,” sagde hun.
Der er dukket mange andre AI-berømthedsreklamer op, eksempelvis en AI-klon af countrysangeren Luke Combs, der reklamerer for vægttabsgummier. AI-versioner af journalisten Gayle King og YouTube-influenceren Jimmy Donaldson (“MrBeast“) har også optrådt i reklamer uden deres tilladelse.
I november 2023 underskrev SAG en aftale, der gjorde det muligt at bruge den digitale gengivelse af medlemmernes stemmer til videospil og andre former for underholdning, hvis virksomhederne sikrede sig samtykke og garanterede minimumsbetalinger. Aftalen vil være en “stor fordel for talenter og en stor fordel for studierne”, sagde Shreyas Nivas, medstifter og administrerende direktør for Replica, et firma, der arbejder med AI-teknologi, og tilføjede, at den ville “[give] en ramme for brug af AI i produktionen af videospil”, ifølge Business Standard.
Skuespillere i videospil strejker
Videospilskuespillere nedlagde arbejdet i juli 2024, efter at kontraktforhandlingerne mellem fagforeningen og underholdningsindustrien var brudt sammen. Forhandlingerne med spilfirmaer, herunder afdelinger af Activision, Warner Brothers, Electronic Arts, Insomniac Games og Walt Disney Co. om en ny interaktiv medieaftale havde stået på i to år. Branchen står for mere end 100 milliarder dollars i overskud årligt ifølge spilmarkedsprognosen Newzoo. Selvom fagforeningen er en del af SAG-AFTRA, har den en anden kontrakt end den, der dækker tv- og filmskuespillere.
Ligesom i tilfældet med SAG-strejken stod AI i spidsen for konflikten. Fagforeningen mener, at dens medlemmer lider skade, hvis deres billeder bruges til at træne AI til at gengive en skuespillers stemme eller skabe en digital kopi uden samtykke eller rimelig kompensation. “Branchen har direkte fortalt os, at de ikke nødvendigvis betragter alle, der udfører en bevægelsespræstation, som en kunstner, der er dækket af den kollektive overenskomst”, siger Ray Rodriguez, Chief Contracts Officer for SAG-AFTRA.
I mellemtiden har branchens forhandlere ikke været i stand til at finde fælles fodslag med fagforeningens holdning. “Vi har allerede fundet fælles fodslag om 24 ud af 25 forslag, herunder historiske lønstigninger og yderligere sikkerhedsbestemmelser”, siger Audrey Cooling, der er talsmand for videospilvirksomhederne i forhandlingerne. “Vores tilbud er en direkte reaktion på SAG-AFTRA’s bekymringer og udvider den meningsfulde AI-beskyttelse, som omfatter krav om samtykke og rimelig kompensation til alle kunstnere, der arbejder under IMA [Interactive Media Agreement]. Disse vilkår er blandt de stærkeste i underholdningsindustrien.”
WGA-strejke: Hvorfor manuskriptforfattere frygter AI
Da manuskriptforfatterne – som arbejder med filmmanuskripter og tv-programmer (herunder aftenshows) – strejkede i begyndelsen af 2023, krævede de også, at deres værks rettigheder blev beskyttet mod at blive brugt til at træne AI-software og skrive eller omskrive manuskripter. Brug af AI til disse formål kan teoretisk set spare studierne for en masse penge – og potentielt gøre mange forfattere arbejdsløse.
I deres udtalelse erklærede Writers Guild of America, at “GAI (generativ kunstig intelligens) ikke kan være en ‘forfatter’ eller ‘professionel forfatter’ som defineret i MBA [minimum basic agreement], fordi det ikke er en person, og derfor bør materiale produceret af GAI ikke betragtes som litterært materiale under nogen MBA.”
WGA mente, at AI er tilladt i nogle tilfælde, for eksempel når arbejdsgiveren afslører, at AI har skrevet materialet, eller når forfatteren bruger AI til at forberede sit manuskript eller tv-manuskript med virksomhedens samtykke.
Da kontrakten blev indgået, og strejken sluttede i september 2023, fik lauget meget af det, det ønskede med hensyn til lønstigninger og AI.
Studierne blev enige om, at AI-genereret indhold ikke kunne bruges til at generere kildemateriale, hvilket betyder, at en studieleder ikke kunne bede forfattere om at skabe en historie ved hjælp af ChatGPT og derefter bede dem om at omdanne den til et manuskript (med lederens krav på rettigheder til den oprindelige historie). WGA “forbeholder sig også ret til at hævde, at udnyttelse af forfatteres materiale til at træne AI er forbudt i henhold til MBA eller anden lov.”
Filminstruktører accepterer AI
I modsætning til SAG-AFTRA og WGA, som gik i strejke i 2023 for at sikre bedre vilkår i deres kontrakter, gik Directors Guild of America (DGA) hurtigt med til en ny kontrakt. Film- og tv-instruktører er dog i samme situation som forfattere og skuespillere. De ansættes for hvert værk, de instruerer.
I henhold til amerikansk lov om ophavsret betragtes de som arbejdsgivere. Samtidig er producenterne ejere af enhver ophavsret (instruktører har flere rettigheder i andre lande, herunder Storbritannien, Frankrig og Italien). Rettighederne tildeles som følge af fagforeningskontrakter med studierne. Men fraværet af love, der anerkender skabernes rettigheder til deres værker, er alarmerende på grund af fremkomsten af generative AI-værktøjer, som studierne kan udnytte.
I en erklæring advarede DGA: “Disse tredjeparter, som ikke er bundet af vores kollektive overenskomster, kan indtage og genbruge ophavsretligt beskyttede film og tv-serier i AI-systemer uden ophavsretsindehaverens deltagelse eller behov for at acceptere vilkårene i vores nye aftale.”
Hvis domstolene ikke er i stand til at behandle dette spørgsmål, har DGA og WGA opfordret til “etablering af moralske rettigheder“, der ville anerkende instruktører (og forfattere) som de oprindelige ophavsmænd til deres arbejde, “[hvilket] giver dem større økonomisk og kreativ kontrol over udnyttelsen af deres materiale, selv når de ikke ejer ophavsrettighederne”, udtalte Hollywood Reporter.
Hvorfor filmstudierne forsvarer AI
Movie Picture Association (MPA), AI-virksomheder som OpenAI og Meta og teknologiske interessegrupper ser muligheder, hvor fagforeningerne ser en trussel. MPA og softwarevirksomhederne er uenige om, “hvorvidt der er behov for ny lovgivning for at håndtere uautoriseret brug af ophavsretligt beskyttet materiale til at træne AI-systemer og massegenerering af potentielt krænkende værker baseret på eksisterende indhold”, ifølge artiklen i Hollywood Reporter.
I mellemtiden erklærede MPA også, at spørgsmålet om fair brug skal afgøres “fra sag til sag“. “For eksempel vil finjustering af en AI-model, specifikt ved hjælp af biblioteket med James Bond-film med det formål at lave en konkurrerende film, der appellerer til det samme publikum, sandsynligvis veje imod fair brug.”
På trods af undtagelser som den hypotetiske nye Bond-film argumenterede MPA for “løsere retningslinjer”, når det gælder ophavsret til værker skabt af AI. De hævdede, at Copyright Office er “for stift” ved kun at give intellektuelle ejendomsrettigheder til værker, der er skabt af mennesker, fordi “det ikke tager højde for den menneskelige kreativitet, der ligger i at skabe et værk med AI som værktøj.”
Den juridiske fremtid for AI
I 2023 blev der fremsat to lovforslag i Kongressen for at imødegå svindel med kunstig intelligens – DEEPFAKES Accountability Act i Repræsentanternes Hus og No Fakes Act i Senatet. Begge lovforslag kræver beskyttelsesforanstaltninger som eksempelvis indholdsmærkning eller tilladelse til at bruge en persons stemme eller billede.
Kongressen skal gøre meget mere for at opdatere ophavsretsbeskyttelsen i forbindelse med AI. I midten af 2024 havde Kongressen endnu ikke gjort betydelige fremskridt med at vedtage lovgivning om dette emne. Ifølge nonprofit-organisationen Brennan Center for Justice fokuserede flere lovforslag i den 118. kongres (2023-2024) på højrisiko-AI, krævede, at leverandører af disse systemer skulle vurdere teknologien, indførte krav om gennemsigtighed, oprettede en ny reguleringsmyndighed til at føre tilsyn med AI eller tildelte rollen til et eksisterende agentur og tilbød forbrugerne en vis beskyttelse ved at træffe ansvarsforanstaltninger. På trods af den skarpe polarisering mellem demokrater og republikanere er der tværpolitisk enighed om, at der er behov for regulering af AI.
Den 10. januar 2024 blev republikanske og demokratiske lovgivere ved en senatshøring om AI’s indvirkning på journalistikken enige om, at OpenAI og andre AI-virksomheder bør betale medieorganisationer for at bruge deres indhold i AI-projekter. “Det er ikke kun moralsk rigtigt,” sagde demokraten Richard Blumenthal, som er formand for retsvæsenets underudvalg for privatlivets fred, teknologi og lovgivning. “Det er lovpligtigt,” stod der i en Wired-artikel fra november 2023.
Josh Hawley, en republikaner, var enig. “Det bør ikke være sådan, at bare fordi de største virksomheder i verden ønsker at opsluge dine data, så skal de kunne gøre det,” sagde han.
Mediebranchens ledere har fordømt AI’s ukompenserede brug af deres indhold. Kun én stemme – en professor i journalistik – protesterede ved kongressens høring om emnet og insisterede på, at data indhentet uden betaling til træningsformål var fair brug. “Jeg må sige, at jeg er fornærmet over at se udgivere lobbye for protektionistisk lovgivning og handle med den politiske kapital, der er optjent gennem journalistik”, sagde Jeff Jarvis, professor ved Craig Newmark Graduate School of Journalism.
Men eksperter i kunstig intelligens, som ikke var til stede ved høringen, er endnu ikke nået til enighed om spørgsmålet om kompensation. “Hvordan ville det overhovedet se ud?”, spurgte Sarah Kreps, som leder Tech Policy Institute ved Cornell University. “At kræve licensdata vil være upraktisk, favorisere de store firmaer som OpenAI og Microsoft, der har ressourcerne til at betale for disse licenser, og skabe enorme omkostninger for nystartede AI-firmaer, der kunne diversificere markedet og beskytte mod hegemonisk dominans og potentiel antitrust-adfærd fra de store firmaer.”
Der er en vis uenighed, selv blandt dem, der går ind for en form for licens til AI-træningsdata. Nick Diakopoulos, professor i computerjournalistik ved Northwestern, understregede tvetydigheden: “Som en opdateret informationskilde af høj kvalitet er nyhedsmedier en værdifuld datakilde for AI-virksomheder. Jeg mener, at de bør betale for at få en licens, og at det er i deres interesse at gøre det. Men jeg tror ikke, at en obligatorisk licensordning er holdbar.”
Hvis Kongressen ikke griber ind, bliver det op til domstolene at afgøre, om det er lovligt at bruge ophavsretligt beskyttede værker i træningsdatasæt til AI-virksomheder. Er det fair brug, hvis det producerede indhold betragtes som “transformativt”, da det adskiller sig væsentligt fra de originale bøger eller billeder, der bruges til at træne softwaresystemet?
Det faktum, at AI-virksomheder træner deres systemer for at tjene penge, kan få Højesteret til at gå i en anden retning. Skal AI-virksomheder betale for de træningsdata, der driver deres generative AI-systemer? Flere retssager mod Meta, Alphabet og OpenAI kan give et svar på, om træning i ophavsretligt beskyttet materiale udgør en krænkelse.
“Det ser ud til, at alle mener, at AI skal reguleres”, sagde kunstneren Stephanie Dinkins, som arbejder med AI, under et interview med LG Electronics Associate Curator på Guggenheim Museum, Noam Segal. “Jeg tror, vi er nødt til at tænke på idéen om kontekst og vide, hvad vi ser på, i stedet for bare at se en materialisering af noget, som ingen forstår og tror eksisterer, men som måske ikke gør det. Jeg synes, at vi er så langt bagud med at tænke på det her på en rigtig måde[…] Det føles stadig, som om der finder møder sted, men vi trækker fødderne efter os. Og det føles, som om vi på regeringsniveau ikke helt forstår, hvad vi har med at gøre endnu.”
Som et ekko af Dinkins’ synspunkt sagde Kevin Roose, tech-korrespondent for New York Times, i en Times-podcast, at nye ophavsretslove for AI var unødvendige. “Men[…] det føles bizart, at når vi taler om disse AI-modeller, så citerer vi retspraksis fra 30, 40, 50 år siden. [Det] føles bare lidt, som om vi ikke helt har de juridiske og ophavsretlige rammer, vi har brug for, fordi det, der sker under motorhjelmen på disse AI-modeller, faktisk er ret forskelligt fra andre former for teknologier.”
Truende fare eller dybtgående revolution – eller begge dele?
Glem alt om “doomscrolling” (at bruge for meget tid online på at scrolle gennem nyheder eller andet indhold, der gør en ked af det, ængstelig eller vred, red.). Det er ikke halvt så sjovt, som de dystopiske opture. AI har inspireret til alle mulige katastrofescenarier, som i værste fald kan betyde enden på civilisationen, som vi kender den.
Nu kender vi alle historierne – deepfakes, herunder pornografiske billeder af Taylor Swift, som blev set af mange, før de blev taget ned, eller mere foruroligende, nøgenbillederne af gymnasiepiger produceret af AI, eller for den sags skyld de syntetiske robocalls fra AI, der efterlignede præsident Joe Bidens stemme lige før primærvalgene i New Hampshire i 2024.
Og vi kender godt hallucinationerne – de tilsyneladende autentiske, endda orakelagtige, udtalelser fra AI, som ikke har noget grundlag.
Og så er der alle de jobs, som måske snart bliver overflødige på grund af AI – revisorer, journalister, dataprogrammerere, detailhandlere, advokatsekretærer – I Hulu-serien “A Murder at the End of the World” fra 2023 viser skurken (spoiler alert!) sig at være AI, hvilket minder om handlingen i Robert Harris’ roman The Fear Index fra 2011, som blev udgivet længe før AI’s indtog, og hvor et uhyggeligt computerprogram manipulerer de finansielle markeder.
Men mens maskineriet, der driver den ondsindede software, kan ødelægges i Hulu-streameren, kan den ondskabsfulde kraft i Harris’ roman ikke kobles fra eller sprænges i luften, fordi den altid kan lave endeløse kopier af sig selv.
Folk frygter AI-netværk, fordi de ikke kan forudsige, hvad teknologien kan gøre. Vi kan fodre den med billeder, musik og data i massevis, men vi – både brugere og programmører – ved ikke, hvad resultatet bliver.
AI kan vise sig at være lige så gennemgribende og revolutionerende som telefonen, radioen, fjernsynet, stationære computere og smartphones. Men ligesom med disse opfindelser, som vi har en tendens til at tage for givet, kan AI også blive indarbejdet i vores liv i en sådan grad, at dens virkning afblæses af dens fortrolighed.
Amerikanerne har en tendens til at forelske sig i “den næste store ting”. Eller, i tilfældet med AI, den “nuværende store ting”. Men der vil altid dukke endnu en “næste store ting” op. Måske bliver det neurale proteser – implantater indsat i hjernen, som vil øge vores intelligens, forbedre vores motoriske færdigheder, forbedre vores hukommelse og give os mulighed for at læse andres tanker.
Sådanne teknologiske fremskridt kunne give AI en helt ny betydning. Så vil alarmisterne, som det er tilfældet nu, advare os om de truende farer og forestående katastrofer ved disse nye opfindelser. Kongreshøringer vil helt sikkert følge. Ideer til værn vil blive overvejet og afvist eller ignoreret – selv hvis de bliver vedtaget.
Kun tiden vil vise, om kunstig intelligens vil forbedre vores livskvalitet eller true vores levebrød og eksistens.
Kilde: Independent Media Institute
Kreditering: Denne artikel er produceret af Earth | Food | Life, et projekt under Independent Media Institute.
Forfatterens biografi: Leslie Alan Horvitz er forfatter og journalist med speciale i videnskab og bidrager til The Observatory. Hans faglitterære bøger omfatter Eureka: Scientific Breakthroughs That Changed the World, Understanding Depression with Dr. Raymond DePaulo of Johns Hopkins University og The Essential Book of Weather Lore. Hans artikler er blevet udgivet af blandt andet Travel and Leisure, Scholastic, Washington Times og Insight on the News. Horvitz har siddet i bestyrelsen for Art Omi og er medlem af PEN America. Han bor i New York City. Find ham online på lesliehorvitz.com
Oversættelse: Kris Rønne
Det koster penge at lave progressiv journalistik. Kun med din støtte kan Arbejderen fortsat udgive frit tilgængeligt journalistisk indhold af høj kvalitet.