Generatieve AI en auteursrecht: wat de eerste Europese uitspraken betekenen voor startups en scale-ups

Generatieve AI en auteursrecht: wat de eerste Europese uitspraken betekenen voor startups en scale-ups
Voor techbedrijven die generatieve AI ontwikkelen of integreren, is intellectuele eigendom allang geen zijvraag meer. De discussie gaat niet alleen over trainingsdata, maar ook over wat een model onthoudt, wat het teruggeeft aan gebruikers en wie daar juridisch voor aan de lat staat.
Precies daarom zijn de eerste Europese uitspraken over generatieve AI en intellectuele eigendom zo relevant. In de Duitse zaak tussen GEMA en OpenAI kreeg de rechter voorgelegd of een model inbreuk maakt wanneer beschermde songteksten zonder toestemming in het systeem belanden en via output weer naar buiten komen. In de Britse zaak tussen Getty Images en Stability AI draaide het deels om een andere vraag: wanneer is een AI-model zelf een inbreukmakende kopie, en wat gebeurt er als output watermerken bevat die sterk lijken op beschermde merken?
Samen geven die uitspraken geen volledig afgerond juridisch eindbeeld. Ze maken wel duidelijk waar de echte risico’s voor AI-bedrijven liggen, en waarom startups en scale-ups hun productkeuzes, trainingsdata en outputcontrole niet langer los kunnen zien van IE-recht.
Waarom deze uitspraken ertoe doen voor de AI-praktijk
De discussie over generatieve AI en auteursrecht wordt vaak abstract gevoerd. Mag een model trainen op beschermd materiaal? Is output een nieuwe creatie of een afgeleide van bestaand werk? En waar ligt de verantwoordelijkheid als een gebruiker met een simpele prompt iets terugkrijgt dat wel erg veel op een beschermd werk lijkt?
Voor jonge techbedrijven zijn dat geen theoretische vragen. Wie een foundation model bouwt, een AI-feature in bestaande software integreert of klanten toegang geeft tot generatieve output, maakt keuzes over data, architectuur, promptingen moderatie. Die keuzes kunnen juridisch zwaar wegen.
De Duitse uitspraak is juist daarom zo opvallend. De rechter keek niet alleen naar het trainingsproces als zodanig, maar ook naar het feit dat het model met eenvoudige prompts volledige of grotendeels herkenbare songteksten kon teruggeven. Dat werd gezien als sterk bewijs dat die beschermde werken in het model reproduceerbaar waren opgeslagen. De kern van het oordeel is dus niet alleen dat met beschermde werken is gewerkt, maar dat het systeem die werken kennelijk zó had onthouden dat ze weer konden verschijnen.
Voor startups is dat een belangrijk signaal. De juridische discussie verschuift daarmee van een algemene vraag over AI-training naar een concretere vraag: wat kan jouw model feitelijk reproduceren?
De kern van GEMA/OpenAI: wanneer memorisatie een juridisch probleem wordt
In de zaak tussen GEMA en OpenAI draaide het om songteksten van bij GEMA aangesloten auteurs. Met relatief eenvoudige prompts kon ChatGPT volgens de rechter volledige of grotendeels volledige teksten van bekende liedjes genereren. Daarmee kreeg GEMA het vermoeden dat generatieve AI op beschermde werken is getraind omgezet in iets veel concreters.
Als het eruit komt, is dat juridisch relevant
OpenAI voerde aan dat het model geen trainingsdata als zodanig opslaat, maar patronen en structuren leert. Dat is een bekend verweer in AI-zaken: het model zou niet werken als een database met kopieën, maar als een statistisch systeem dat nieuwe content genereert.
De Duitse rechter ging daar in dit geval niet in mee. Ook als er geen direct herkenbare kopie in klassieke zin in het model zit, kan er volgens de rechter nog steeds sprake zijn van een reproduceerbaar opgeslagen werk. Het feit dat met eenvoudige prompts precieze songteksten terugkwamen, wees volgens de rechter op memorisatie van trainingsdata. En die memorisatie werd aangemerkt als een reproductie.
Dat is juridisch relevant omdat het reproductierecht in Europa ruim is opgezet. Niet alleen een zichtbare één-op-één kopie kan daaronder vallen, maar ook een indirecte of anders vormgegeven reproductie. Voor AI-bedrijven betekent dat dat de technische stelling “wij slaan geen bronbestanden op” niet per se genoeg is als de uitkomst laat zien dat beschermde werken alsnog reproduceerbaar aanwezig zijn.
Niet alleen training, maar ook de werking van het model telt
De uitspraak laat ook zien dat rechters niet uitsluitend naar de inputzijde kijken. Het gaat niet alleen om de vraag welke data het systeem heeft gezien, maar ook om wat het systeem vervolgens kan teruggeven. Dat maakt producttesting, red teaming en outputanalyse juridisch relevanter dan veel bedrijven tot nu toe behandelden.
Voor een startup die AI bouwt, is dat een ongemakkelijke maar heldere boodschap. Een model dat bij normaal gebruik beschermde teksten of andere herkenbare werken terugspuugt, roept niet alleen technische kwaliteitsvragen op, maar ook directe IE-risico’s op.
Waarom het beroep op tekst- en datamining hier niet opging
Een belangrijk onderdeel van de Duitse zaak was het beroep op de uitzondering voor tekst- en datamining. In Europa wordt die uitzondering vaak gezien als een mogelijke juridische basis voor AI-training. De Duitse rechter sloot ook niet uit dat het trainen van generatieve AI in beginsel onder tekst- en datamining kan vallen.
Toch hielp dat OpenAI in deze zaak niet.
De reden is veelzeggend. Volgens de rechter gebeurde hier meer dan alleen het analyseren van data om patronen en verbanden af te leiden. De trainingsdata werd niet alleen ontleed, maar ook zelf gereproduceerd. En zodra dat gebeurt, kantelt de beoordeling. De uitzondering is bedoeld om technologische innovatie mogelijk te maken, maar niet wanneer de belangen van rechthebbenden daardoor te zwaar worden geraakt.
Daarmee geeft de uitspraak een belangrijke nuance die voor startups essentieel is. Je kunt niet volstaan met de aanname dat AI-training automatisch onder een tekst- en datamining-exceptie valt. Zelfs als die route in theorie openstaat, moet nog steeds worden gekeken naar wat het model feitelijk doet, welke werken zijn gebruikt en of de belangen van rechthebbenden onevenredig worden geschaad.
Daar kwam in deze zaak nog iets bij. De rechter wees erop dat de songteksten niet rechtmatig toegankelijk waren en dat er een rechtenvoorbehoud voor tekst- en datamining was gemaakt. Ook dat zijn factoren die de ruimte voor een beroep op de uitzondering kunnen beperken. Voor AI-ondernemingen is dat een waarschuwing tegen al te simpele aannames over “open beschikbaar” materiaal. Beschikbaar is niet automatisch vrij inzetbaar.
Ook de output zelf kan inbreuk opleveren
De Duitse uitspraak gaat nog een stap verder dan het trainingsvraagstuk. Niet alleen het opslaan of memoriseren van beschermde werken werd problematisch gevonden, ook de output zelf werd juridisch relevant geacht.
Wanneer ChatGPT volledige of deels herkenbare songteksten genereerde, kwalificeerde de rechter die output als onrechtmatige reproductie. Bij vijf liedjes was de overeenkomst bijna volledig. Bij andere voorbeelden ging het om herkenbare delen, zoals refreinen of coupletten, aangevuld met nieuw bedachte tekst. Ook dan kon volgens de rechter nog steeds sprake zijn van overname van auteursrechtelijk beschermde trekken.
Daar bleef het niet bij. Het presenteren van zulke output aan gebruikers werd daarnaast gezien als een vorm van openbaarmaking, een zelfstandige exploitatiehandeling waarvoor toestemming nodig is. Met andere woorden: wie de beschermde content niet alleen intern in een systeem heeft zitten, maar die ook aan gebruikers toont, begeeft zich op nog een extra juridisch risicovlak.
Voor startups en scale-ups is dat misschien wel het meest praktische deel van de uitspraak. De discussie stopt niet bij data ingestion. Ook de manier waarop output beschikbaar wordt gemaakt, is juridisch van belang.
De aanbieder kan zelf aansprakelijk zijn
Een klassieke reflex in platformland is om naar de gebruiker te wijzen. Die voert immers de prompt in. Die vraagt om de output. Dus ligt het risico daar, toch?
De Duitse rechter maakte daar in deze zaak korte metten mee. Niet de gebruiker, maar OpenAI werd verantwoordelijk gehouden. De reden: OpenAI bepaalt de architectuur van het model, de opslag van trainingsgegevens en heeft daarmee in belangrijke mate invloed op wat het systeem teruggeeft. Onder die omstandigheden werd OpenAI niet gezien als louter tussenpersoon.
Dat is voor AI-startups een cruciale les. Zodra je als aanbieder substantiële invloed hebt op de werking van het systeem, wordt het lastig om alle verantwoordelijkheid bij eindgebruikers neer te leggen. Hoe jouw model is gebouwd, welke guardrails je inricht, welke beperkingen je toepast en hoe je output beheert, zijn geen louter technische ontwerpkeuzes. Ze spelen direct mee in de juridische risicoverdeling.
Voor SaaS-bedrijven die generatieve AI als feature toevoegen, is dat net zo relevant als voor modelbouwers. Ook wie “slechts” een AI-laag bovenop een product legt, moet zich afvragen hoeveel invloed het bedrijf zelf heeft op de concrete uitkomsten die klanten te zien krijgen.
Getty v Stability AI: waarom het auteursrecht daar niet doorbrak
De Britse zaak tussen Getty Images en Stability AI laat zien dat de uitkomst sterk afhangt van de precieze feiten en van de juridische route die uiteindelijk overblijft.
Getty bracht verschillende auteursrechtelijke claims naar voren, maar twee daarvan vielen weg. De claim over het zonder toestemming trainen van Stable Diffusion met Getty-content werd ingetrokken omdat onvoldoende bewezen kon worden dat de training en ontwikkeling van het model in het Verenigd Koninkrijk had plaatsgevonden. Daardoor kwam de bevoegdheidsvraag op scherp te staan. Ook de claim over inbreukmakende output werd ingetrokken, omdat de betreffende prompts inmiddels door Stability werden geblokkeerd.
Wat overbleef, was de stelling dat Stable Diffusion zelf als model een inbreukmakende kopie van beschermde werken zou zijn. Daar ging de Britse rechter niet in mee. Dat bij het trainingsproces gebruik is gemaakt van beschermde werken, betekende volgens die rechter nog niet dat de modelparameters zelf als kopie van die werken moeten worden gezien. De parameters werden juist gezien als het resultaat van geleerde patronen en structuren.
Voor startups is dit geen vrijbrief, maar wel een belangrijke nuancering. Niet elke rechter zal automatisch aannemen dat een model zelf een auteursrechtelijk relevante kopie is. Juist de precieze technische werking van het model en de manier waarop die juridisch wordt gewaardeerd, kunnen tot een andere uitkomst leiden.
Dat maakt deze zaak vooral waardevol als contrast met de Duitse uitspraak. Waar de Duitse rechter memorisatie en reproduceerbaarheid centraal zette, keek de Britse rechter bij de overgebleven auteursrechtelijke vraag anders naar de aard van modelparameters.
Merkenrecht kan onverwacht toch in beeld komen
Hoewel Getty het auteursrechtelijk niet redde op de overgebleven grondslag, kreeg het bedrijf wel deels gelijk op merkenrecht.
De zaak draaide daar om de karakteristieke watermerken van Getty en iStock. Volgens Getty kon Stable Diffusion output genereren waarin tekens verschenen die identiek of vergelijkbaar waren aan die merken. De rechter ging daarin beperkt mee, voor drie specifieke afbeeldingen die door oudere versies van Stable Diffusion waren gegenereerd.
De redenering was dat zulke output ten onrechte een economische band tussen Getty en Stability kon suggereren en tot verwarringsgevaar leidde. Tegelijkertijd kreeg Getty niet op alle punten gelijk. Schade aan reputatie of onderscheidend vermogen was onvoldoende aangetoond, en ook ongerechtvaardigd voordeel uit de bekendheid van de merken achtte de rechter niet aannemelijk, onder meer omdat die merkachtige output onbedoeld en ongewenst was.
Voor AI-bedrijven is dit een punt dat gemakkelijk wordt onderschat. De risico’s rond generatieve AI zitten niet alleen in auteursrecht. Ook merkgebruik, watermerken, herkomstaanduidingen en andere herkenbare tekens kunnen een rol gaan spelen, zeker wanneer output visuele elementen bevat die een band met een bestaand merk suggereren.
Voor image generation startups en tools met creatieve output is dat een extra reden om niet alleen op contentovername te letten, maar ook op merkachtige vervuiling in output.
Wat dit concreet betekent voor startups en scale-ups
Bij Startup-Recht zien we dat veel AI-bedrijven vooral focussen op snelheid, functionaliteit en product-market fit. Begrijpelijk, maar deze uitspraken laten zien dat IE-risico’s diep in het product kunnen zitten.
De eerste vraag is daarom niet alleen of een model goed presteert, maar ook of het beschermde content reproduceerbaar lijkt te hebben onthouden. Hoe makkelijker een systeem herkenbare teksten, beelden of merkuitingen teruggeeft, hoe lastiger het wordt om het risico weg te redeneren als louter statistisch leren.
Daarnaast wordt duidelijk dat outputgovernance geen luxe is. Het blokkeren van prompts, het beperken van ongewenste reproductie en het monitoren van bekende risicopatronen kunnen een groot verschil maken. Niet omdat daarmee elk juridisch probleem verdwijnt, maar wel omdat de concrete werking van het systeem zwaar meeweegt.
Ook contractueel is dit relevant. Startups die AI van derden inkopen, white-label inzetten of integreren in hun eigen stack, doen er verstandig aan scherp te kijken naar afspraken over trainingsdata, aansprakelijkheid, vrijwaringen en beperkingen in gebruik. Zeker wanneer een leverancier brede commerciële claims doet over “veilig” of “rechtenvrij” gebruik van output, is enige scepsis gezond.
Ten slotte laten deze uitspraken zien dat de juridische analyse niet in één vakje past. Auteursrecht, openbaarmaking, merkinbreuk en bevoegdheidsvragen kunnen door elkaar lopen. Voor scale-ups die internationaal opereren, wordt dat nog complexer. Waar het model wordt getraind, welke markt wordt bediend en welke output concreet wordt gegenereerd, kan doorslaggevend zijn.
De belangrijkste takeaway
De eerste Europese uitspraken over generatieve AI en intellectuele eigendom geven nog geen definitieve rust. Daarvoor staan er te veel vragen open, lopen er hoger beroepen en is het laatste woord in Europa nog niet gezegd.
Toch is de richting duidelijk. Wie generatieve AI bouwt of aanbiedt, kan niet volstaan met het idee dat een model alleen patronen leert en dat eventuele problemen bij de gebruiker liggen. Zodra beschermde werken reproduceerbaar in het systeem lijken te zitten en als output terugkeren, wordt het juridische risico concreet.
Voor startups en scale-ups is dat de echte boodschap. Generatieve AI is niet alleen een productvraagstuk, maar ook een IE-vraagstuk. En hoe eerder die twee in hetzelfde ontwerpgesprek terechtkomen, hoe kleiner de kans dat juridische frictie pas zichtbaar wordt als het model al live staat.



















