Generatieve AI en auteursrecht: wat de eerste Europese uitspraken betekenen voor startups en scale-ups

Generatieve AI schuift razendsnel op van experimenteel speeltje naar serieuze bedrijfsinfrastructuur. Daarmee wordt ook de vraag urgenter waar de juridische grens ligt tussen leren van bestaande content en het ongeoorloofd overnemen daarvan. Twee recente Europese uitspraken laten zien dat juist voor startups en scale-ups die grens ineens een stuk tastbaarder wordt.
IT-recht
Intellectueel Eigendomsrecht
Insights
Caylun J. Scholtens
09.05.2026

Generatieve AI en auteursrecht: wat de eerste Europese uitspraken betekenen voor startups en scale-ups

Voor techbedrijven die generatieve AI ontwikkelen of integreren, is intellectuele eigendom allang geen zijvraag meer. De discussie gaat niet alleen over trainingsdata, maar ook over wat een model onthoudt, wat het teruggeeft aan gebruikers en wie daar juridisch voor aan de lat staat.

Precies daarom zijn de eerste Europese uitspraken over generatieve AI en intellectuele eigendom zo relevant. In de Duitse zaak tussen GEMA en OpenAI kreeg de rechter voorgelegd of een model inbreuk maakt wanneer beschermde songteksten zonder toestemming in het systeem belanden en via output weer naar buiten komen. In de Britse zaak tussen Getty Images en Stability AI draaide het deels om een andere vraag: wanneer is een AI-model zelf een inbreukmakende kopie, en wat gebeurt er als output watermerken bevat die sterk lijken op beschermde merken?

Samen geven die uitspraken geen volledig afgerond juridisch eindbeeld. Ze maken wel duidelijk waar de echte risico’s voor AI-bedrijven liggen, en waarom startups en scale-ups hun productkeuzes, trainingsdata en outputcontrole niet langer los kunnen zien van IE-recht.

Waarom deze uitspraken ertoe doen voor de AI-praktijk

De discussie over generatieve AI en auteursrecht wordt vaak abstract gevoerd. Mag een model trainen op beschermd materiaal? Is output een nieuwe creatie of een afgeleide van bestaand werk? En waar ligt de verantwoordelijkheid als een gebruiker met een simpele prompt iets terugkrijgt dat wel erg veel op een beschermd werk lijkt?

Voor jonge techbedrijven zijn dat geen theoretische vragen. Wie een foundation model bouwt, een AI-feature in bestaande software integreert of klanten toegang geeft tot generatieve output, maakt keuzes over data, architectuur, promptingen moderatie. Die keuzes kunnen juridisch zwaar wegen.

De Duitse uitspraak is juist daarom zo opvallend. De rechter keek niet alleen naar het trainingsproces als zodanig, maar ook naar het feit dat het model met eenvoudige prompts volledige of grotendeels herkenbare songteksten kon teruggeven. Dat werd gezien als sterk bewijs dat die beschermde werken in het model reproduceerbaar waren opgeslagen. De kern van het oordeel is dus niet alleen dat met beschermde werken is gewerkt, maar dat het systeem die werken kennelijk zó had onthouden dat ze weer konden verschijnen.

Voor startups is dat een belangrijk signaal. De juridische discussie verschuift daarmee van een algemene vraag over AI-training naar een concretere vraag: wat kan jouw model feitelijk reproduceren?

De kern van GEMA/OpenAI: wanneer memorisatie een juridisch probleem wordt

In de zaak tussen GEMA en OpenAI draaide het om songteksten van bij GEMA aangesloten auteurs. Met relatief eenvoudige prompts kon ChatGPT volgens de rechter volledige of grotendeels volledige teksten van bekende liedjes genereren. Daarmee kreeg GEMA het vermoeden dat generatieve AI op beschermde werken is getraind omgezet in iets veel concreters.

Als het eruit komt, is dat juridisch relevant

OpenAI voerde aan dat het model geen trainingsdata als zodanig opslaat, maar patronen en structuren leert. Dat is een bekend verweer in AI-zaken: het model zou niet werken als een database met kopieën, maar als een statistisch systeem dat nieuwe content genereert.

De Duitse rechter ging daar in dit geval niet in mee. Ook als er geen direct herkenbare kopie in klassieke zin in het model zit, kan er volgens de rechter nog steeds sprake zijn van een reproduceerbaar opgeslagen werk. Het feit dat met eenvoudige prompts precieze songteksten terugkwamen, wees volgens de rechter op memorisatie van trainingsdata. En die memorisatie werd aangemerkt als een reproductie.

Dat is juridisch relevant omdat het reproductierecht in Europa ruim is opgezet. Niet alleen een zichtbare één-op-één kopie kan daaronder vallen, maar ook een indirecte of anders vormgegeven reproductie. Voor AI-bedrijven betekent dat dat de technische stelling “wij slaan geen bronbestanden op” niet per se genoeg is als de uitkomst laat zien dat beschermde werken alsnog reproduceerbaar aanwezig zijn.

Niet alleen training, maar ook de werking van het model telt

De uitspraak laat ook zien dat rechters niet uitsluitend naar de inputzijde kijken. Het gaat niet alleen om de vraag welke data het systeem heeft gezien, maar ook om wat het systeem vervolgens kan teruggeven. Dat maakt producttesting, red teaming en outputanalyse juridisch relevanter dan veel bedrijven tot nu toe behandelden.

Voor een startup die AI bouwt, is dat een ongemakkelijke maar heldere boodschap. Een model dat bij normaal gebruik beschermde teksten of andere herkenbare werken terugspuugt, roept niet alleen technische kwaliteitsvragen op, maar ook directe IE-risico’s op.

Waarom het beroep op tekst- en datamining hier niet opging

Een belangrijk onderdeel van de Duitse zaak was het beroep op de uitzondering voor tekst- en datamining. In Europa wordt die uitzondering vaak gezien als een mogelijke juridische basis voor AI-training. De Duitse rechter sloot ook niet uit dat het trainen van generatieve AI in beginsel onder tekst- en datamining kan vallen.

Toch hielp dat OpenAI in deze zaak niet.

De reden is veelzeggend. Volgens de rechter gebeurde hier meer dan alleen het analyseren van data om patronen en verbanden af te leiden. De trainingsdata werd niet alleen ontleed, maar ook zelf gereproduceerd. En zodra dat gebeurt, kantelt de beoordeling. De uitzondering is bedoeld om technologische innovatie mogelijk te maken, maar niet wanneer de belangen van rechthebbenden daardoor te zwaar worden geraakt.

Daarmee geeft de uitspraak een belangrijke nuance die voor startups essentieel is. Je kunt niet volstaan met de aanname dat AI-training automatisch onder een tekst- en datamining-exceptie valt. Zelfs als die route in theorie openstaat, moet nog steeds worden gekeken naar wat het model feitelijk doet, welke werken zijn gebruikt en of de belangen van rechthebbenden onevenredig worden geschaad.

Daar kwam in deze zaak nog iets bij. De rechter wees erop dat de songteksten niet rechtmatig toegankelijk waren en dat er een rechtenvoorbehoud voor tekst- en datamining was gemaakt. Ook dat zijn factoren die de ruimte voor een beroep op de uitzondering kunnen beperken. Voor AI-ondernemingen is dat een waarschuwing tegen al te simpele aannames over “open beschikbaar” materiaal. Beschikbaar is niet automatisch vrij inzetbaar.

Ook de output zelf kan inbreuk opleveren

De Duitse uitspraak gaat nog een stap verder dan het trainingsvraagstuk. Niet alleen het opslaan of memoriseren van beschermde werken werd problematisch gevonden, ook de output zelf werd juridisch relevant geacht.

Wanneer ChatGPT volledige of deels herkenbare songteksten genereerde, kwalificeerde de rechter die output als onrechtmatige reproductie. Bij vijf liedjes was de overeenkomst bijna volledig. Bij andere voorbeelden ging het om herkenbare delen, zoals refreinen of coupletten, aangevuld met nieuw bedachte tekst. Ook dan kon volgens de rechter nog steeds sprake zijn van overname van auteursrechtelijk beschermde trekken.

Daar bleef het niet bij. Het presenteren van zulke output aan gebruikers werd daarnaast gezien als een vorm van openbaarmaking, een zelfstandige exploitatiehandeling waarvoor toestemming nodig is. Met andere woorden: wie de beschermde content niet alleen intern in een systeem heeft zitten, maar die ook aan gebruikers toont, begeeft zich op nog een extra juridisch risicovlak.

Voor startups en scale-ups is dat misschien wel het meest praktische deel van de uitspraak. De discussie stopt niet bij data ingestion. Ook de manier waarop output beschikbaar wordt gemaakt, is juridisch van belang.

De aanbieder kan zelf aansprakelijk zijn

Een klassieke reflex in platformland is om naar de gebruiker te wijzen. Die voert immers de prompt in. Die vraagt om de output. Dus ligt het risico daar, toch?

De Duitse rechter maakte daar in deze zaak korte metten mee. Niet de gebruiker, maar OpenAI werd verantwoordelijk gehouden. De reden: OpenAI bepaalt de architectuur van het model, de opslag van trainingsgegevens en heeft daarmee in belangrijke mate invloed op wat het systeem teruggeeft. Onder die omstandigheden werd OpenAI niet gezien als louter tussenpersoon.

Dat is voor AI-startups een cruciale les. Zodra je als aanbieder substantiële invloed hebt op de werking van het systeem, wordt het lastig om alle verantwoordelijkheid bij eindgebruikers neer te leggen. Hoe jouw model is gebouwd, welke guardrails je inricht, welke beperkingen je toepast en hoe je output beheert, zijn geen louter technische ontwerpkeuzes. Ze spelen direct mee in de juridische risicoverdeling.

Voor SaaS-bedrijven die generatieve AI als feature toevoegen, is dat net zo relevant als voor modelbouwers. Ook wie “slechts” een AI-laag bovenop een product legt, moet zich afvragen hoeveel invloed het bedrijf zelf heeft op de concrete uitkomsten die klanten te zien krijgen.

Getty v Stability AI: waarom het auteursrecht daar niet doorbrak

De Britse zaak tussen Getty Images en Stability AI laat zien dat de uitkomst sterk afhangt van de precieze feiten en van de juridische route die uiteindelijk overblijft.

Getty bracht verschillende auteursrechtelijke claims naar voren, maar twee daarvan vielen weg. De claim over het zonder toestemming trainen van Stable Diffusion met Getty-content werd ingetrokken omdat onvoldoende bewezen kon worden dat de training en ontwikkeling van het model in het Verenigd Koninkrijk had plaatsgevonden. Daardoor kwam de bevoegdheidsvraag op scherp te staan. Ook de claim over inbreukmakende output werd ingetrokken, omdat de betreffende prompts inmiddels door Stability werden geblokkeerd.

Wat overbleef, was de stelling dat Stable Diffusion zelf als model een inbreukmakende kopie van beschermde werken zou zijn. Daar ging de Britse rechter niet in mee. Dat bij het trainingsproces gebruik is gemaakt van beschermde werken, betekende volgens die rechter nog niet dat de modelparameters zelf als kopie van die werken moeten worden gezien. De parameters werden juist gezien als het resultaat van geleerde patronen en structuren.

Voor startups is dit geen vrijbrief, maar wel een belangrijke nuancering. Niet elke rechter zal automatisch aannemen dat een model zelf een auteursrechtelijk relevante kopie is. Juist de precieze technische werking van het model en de manier waarop die juridisch wordt gewaardeerd, kunnen tot een andere uitkomst leiden.

Dat maakt deze zaak vooral waardevol als contrast met de Duitse uitspraak. Waar de Duitse rechter memorisatie en reproduceerbaarheid centraal zette, keek de Britse rechter bij de overgebleven auteursrechtelijke vraag anders naar de aard van modelparameters.

Merkenrecht kan onverwacht toch in beeld komen

Hoewel Getty het auteursrechtelijk niet redde op de overgebleven grondslag, kreeg het bedrijf wel deels gelijk op merkenrecht.

De zaak draaide daar om de karakteristieke watermerken van Getty en iStock. Volgens Getty kon Stable Diffusion output genereren waarin tekens verschenen die identiek of vergelijkbaar waren aan die merken. De rechter ging daarin beperkt mee, voor drie specifieke afbeeldingen die door oudere versies van Stable Diffusion waren gegenereerd.

De redenering was dat zulke output ten onrechte een economische band tussen Getty en Stability kon suggereren en tot verwarringsgevaar leidde. Tegelijkertijd kreeg Getty niet op alle punten gelijk. Schade aan reputatie of onderscheidend vermogen was onvoldoende aangetoond, en ook ongerechtvaardigd voordeel uit de bekendheid van de merken achtte de rechter niet aannemelijk, onder meer omdat die merkachtige output onbedoeld en ongewenst was.

Voor AI-bedrijven is dit een punt dat gemakkelijk wordt onderschat. De risico’s rond generatieve AI zitten niet alleen in auteursrecht. Ook merkgebruik, watermerken, herkomstaanduidingen en andere herkenbare tekens kunnen een rol gaan spelen, zeker wanneer output visuele elementen bevat die een band met een bestaand merk suggereren.

Voor image generation startups en tools met creatieve output is dat een extra reden om niet alleen op contentovername te letten, maar ook op merkachtige vervuiling in output.

Wat dit concreet betekent voor startups en scale-ups

Bij Startup-Recht zien we dat veel AI-bedrijven vooral focussen op snelheid, functionaliteit en product-market fit. Begrijpelijk, maar deze uitspraken laten zien dat IE-risico’s diep in het product kunnen zitten.

De eerste vraag is daarom niet alleen of een model goed presteert, maar ook of het beschermde content reproduceerbaar lijkt te hebben onthouden. Hoe makkelijker een systeem herkenbare teksten, beelden of merkuitingen teruggeeft, hoe lastiger het wordt om het risico weg te redeneren als louter statistisch leren.

Daarnaast wordt duidelijk dat outputgovernance geen luxe is. Het blokkeren van prompts, het beperken van ongewenste reproductie en het monitoren van bekende risicopatronen kunnen een groot verschil maken. Niet omdat daarmee elk juridisch probleem verdwijnt, maar wel omdat de concrete werking van het systeem zwaar meeweegt.

Ook contractueel is dit relevant. Startups die AI van derden inkopen, white-label inzetten of integreren in hun eigen stack, doen er verstandig aan scherp te kijken naar afspraken over trainingsdata, aansprakelijkheid, vrijwaringen en beperkingen in gebruik. Zeker wanneer een leverancier brede commerciële claims doet over “veilig” of “rechtenvrij” gebruik van output, is enige scepsis gezond.

Ten slotte laten deze uitspraken zien dat de juridische analyse niet in één vakje past. Auteursrecht, openbaarmaking, merkinbreuk en bevoegdheidsvragen kunnen door elkaar lopen. Voor scale-ups die internationaal opereren, wordt dat nog complexer. Waar het model wordt getraind, welke markt wordt bediend en welke output concreet wordt gegenereerd, kan doorslaggevend zijn.

De belangrijkste takeaway

De eerste Europese uitspraken over generatieve AI en intellectuele eigendom geven nog geen definitieve rust. Daarvoor staan er te veel vragen open, lopen er hoger beroepen en is het laatste woord in Europa nog niet gezegd.

Toch is de richting duidelijk. Wie generatieve AI bouwt of aanbiedt, kan niet volstaan met het idee dat een model alleen patronen leert en dat eventuele problemen bij de gebruiker liggen. Zodra beschermde werken reproduceerbaar in het systeem lijken te zitten en als output terugkeren, wordt het juridische risico concreet.

Voor startups en scale-ups is dat de echte boodschap. Generatieve AI is niet alleen een productvraagstuk, maar ook een IE-vraagstuk. En hoe eerder die twee in hetzelfde ontwerpgesprek terechtkomen, hoe kleiner de kans dat juridische frictie pas zichtbaar wordt als het model al live staat.

Testimonials

Wat onze klanten zeggen

Startups en scale-ups werken graag met ons samen. Lees hoe ondernemers onze betrokkenheid en expertise ervaren.

Top ervaring met de mannen van Startup Recht. Ze handelen snel zonder in te leveren op kwaliteit. Iets wat start-ups goed kunnen gebruiken!
Daan Witte
Gradient Data Science B.V.
legal expertise for fast moving startups in regulated industries. Startup-Recht provides the legal foundation for us to innovate at Pabel AI.
Stan Haaijer
Co-founder Pabel B.V.
Goede, energieke juristen met duidelijke inhoudelijke expertise. Er wordt snel geschakeld en proactief meegedacht, waarbij oplossingen worden gevonden voor innovatieve en soms complexe vraagstukken binnen onze sector: Open Source Consulting. De stukken werden op tijd geleverd en communicatie daarover was helder en tijdig. We hebben de documenten ook laten reviewen door meerdere juristen, die onder de indruk waren van de kwaliteit. Op inhoudelijke feedback is sterk en zorgvuldig ingespeeld. Dit geeft ons vertrouwen in onze nieuwe juridische fundering. Dank voor de prettige samenwerking, tot snel.
Niels Verhage
Co-founder Rogue IT Consulting B.V.
Maarten en Caylun van Startup-Recht, ondersteunen mij bij het opzetten van mijn onderneming. Dat doen ze op een zéér prettige en professionele manier. Het is voor mij als ondernemer heel fijn om gebruik te kunnen maken van hun expertise met startups. Ik kan vragen stellen wanneer ik ze heb en krijg altijd snel een reactie. Daarnaast nemen ze mij al het juridische werk uit handen en helpen bij het opstellen van de juiste documenten. Kortom, ik ben heel erg blij met deze samenwerking en kan ze van harte aanbevelen.
Erik Maessen
Founder CoachChecker B.V.
Erg fijne samenwerking gehad. Ze dachten goed mee, leefden zich sterk in in onze visie en hebben ons op een prettige en professionele manier geholpen. Het contact was persoonlijk en duidelijk. Zeker een aanrader.
Luc de Graag
Co-founder Tikt.ai
We had an excellent experience working with Startup-Recht. Their team combines professionalism with a genuine understanding of startups’ needs, guiding us through every step with clarity and efficiency. They didn’t just answer our questions, but also anticipated challenges and offered practical solutions that gave us real peace of mind. Highly recommended for any young company looking for reliable legal support.
Luis Martinez
Co-founder UpTo
Logo staallokaal
Bij Startup-Recht is de combinatie van jong ondernemerschap en goed advies goud waard. Als ondernemer weet je dat je iets met voorwaarden moet doen, maar het komt er vaak niet van — tot Startup-Recht aanschuift. In een helder tempo nemen ze je mee in wat echt belangrijk is en zorgen ze voor voorwaarden die bij je bedrijf passen. Een perfecte balans tussen klantgericht en veilig ondernemen. Twijfel je? Drink een kop koffie met de heren en je bent overtuigd.
Sybrandus Pietersma
Mede-eigenaar Staallokaal B.V.
Zeer tevreden over Startup-Recht. Ze hebben ons geholpen met meerdere contracten en algemene voorwaarden, en wisten onze dienstverlening en werkwijze perfect te vertalen naar krachtige juridische documenten. Alles werd helder uitgelegd en ze namen ook punten mee waar wij zelf niet aan gedacht hadden. Snel schakelen, duidelijke communicatie en een topresultaat.
Daniël Coenen
Mede-oprichter Digiswift B.V.
Wij hebben Startup-Recht ingeschakeld voor het opstellen van onze algemene voorwaarden en opdrachtovereenkomst. Het resultaat was snel, van hoge kwaliteit en volledig afgestemd op onze wensen dankzij de revisierondes. Daarnaast dacht Startup-Recht goed mee in de context van ons bedrijf. Professioneel, betrouwbaar en prettig om mee samen te werken.
Paul Brandsma
Mede-oprichter AcuityAi

Startup-Recht heeft mij op deskundige en zorgvuldige wijze bijgestaan. De dienstverlening werd gekenmerkt door voortvarendheid, transparantie en een correcte afwikkeling, en dit alles tegen een alleszins redelijke prijsstelling. Ik acht de samenwerking betrouwbaar en aanbevelenswaardig.

Michael de Jong
Webdeveloper & Founder
Maarten en Caylun hebben ons uitstekend geholpen bij het opstellen van stevige voorwaarden en het voldoen aan de juiste juridische eisen. We hadden hier zelf weinig kennis van, maar zij namen de tijd om alles goed uit te leggen en advies te geven voor de toekomst. Al met al zijn we erg goed geholpen door de jongens van Startup-Recht en bevelen hen zeker aan.
Robin Jonckers
Co-founder Copywise Ai
Caylun en Maarten van Startup-Recht

Ontmoet jouw moderne juridische partner. Werken wordt eenvoudiger, sneller en zekerder.

Maak een afspraak