General-purpose AI onder de AI-verordening: wat startups moeten weten over modellen, systemen en systeemrisico’s

Generatieve AI wordt vaak als één categorie besproken, maar juridisch ligt dat een stuk genuanceerder. Voor startups en scale-ups die bouwen met taalmodellen, AI-assistenten of agents maakt dat onderscheid direct uit voor hun compliancepositie. Juist daarom is het belangrijk om te begrijpen hoe de AI-verordening general-purpose AI benadert, en waar de grootste grijze gebieden zitten.
IT-recht
Insights
Caylun J. Scholtens
18.04.2026

Waarom general-purpose AI (GPAI) meer is dan een juridisch label voor startups en scale-ups

General-purpose AI, vaak afgekort tot GPAI, heeft in de AI-verordening een eigen plek gekregen. Dat is niet vreemd. Modellen die voor veel verschillende taken kunnen worden ingezet passen namelijk slecht in een klassiek juridisch kader dat vooral is gebouwd rond specifieke toepassingen met een duidelijk doel.

Voor startups en scale-ups is dat meer dan een theoretisch punt. Veel techbedrijven bouwen vandaag niet meer vanaf nul, maar op of rond breed inzetbare modellen. Denk aan AI-assistenten, agents, zoekfunctionaliteiten, contenttools of interne workflowsoftware met generatieve functies. Dan is het verschil tussen een model, een systeem en een systeem met algemene doeleinden ineens niet alleen juridisch interessant, maar ook direct relevant voor productontwikkeling, risicobeheer en positionering richting klanten en investeerders.

Waarom general-purpose AI een eigen regime heeft gekregen

De AI-verordening werkt voor AI-systemen met een risicogebaseerde opbouw. Sommige toepassingen zijn verboden. Andere systemen worden als hoog risico gezien en vallen onder een zwaar pakket aan verplichtingen. Daarnaast zijn er nog specifieke transparantieverplichtingen voor bepaalde categorieën, zoals chatbots en generatieve AI.

Voor AI-modellen met algemene doeleinden bleek die systematiek alleen niet goed te passen. Het klassieke hoog-risicokader veronderstelt in feite twee dingen: dat de interne werking van de technologie voldoende inzichtelijk is, en dat de toepassing een duidelijk afgebakend doel heeft. Juist daar wringt het bij grote generatieve modellen. De interne werking is ook voor ontwikkelaars lang niet altijd echt doorgrondelijk, en hetzelfde model kan in heel verschillende contexten worden ingezet.

Daarom heeft de Europese wetgever gekozen voor een apart kader voor GPAI-modellen. Dat is een fundamentele keuze. Niet de losse toepassing staat dan centraal, maar het breed inzetbare model zelf.

Voor techbedrijven is dat relevant omdat het laat zien waar de wetgever het zwaartepunt legt. Wie een algemeen inzetbaar model ontwikkelt of op de markt brengt, krijgt met een ander soort analyse te maken dan wie een losse AI-feature in een product verwerkt.

AI-model, AI-systeem en GPAI-systeem: waarom dit onderscheid ertoe doet

In de praktijk lopen de begrippen model en systeem vaak door elkaar. Juridisch doet dat onderscheid er juist veel toe.

Een AI-model kun je zien als de onderliggende intelligente methode. Het model is de kerntechnologie waarop functionaliteit draait, maar het is nog geen volwaardige toepassing op zichzelf. Een AI-systeem is de toepassing waarin die technologie wordt gebruikt. Anders gezegd: het model is de motor, het systeem is de auto.

De AI-verordening voegt daar nog een derde begrip aan toe: het GPAI-systeem. Dat is een AI-systeem dat op een GPAI-model is gebaseerd en daardoor voor verschillende doelen kan worden gebruikt.

Waarom is dit relevant? Omdat GPAI-modellen een eigen regelgevend kader hebben, terwijl GPAI-systemen in beginsel terugvallen in het bredere regime voor AI-systemen. Dat klinkt overzichtelijk, maar in de uitwerking levert het juist onzekerheid op. Niet altijd is duidelijk welke regels nu precies op welk niveau horen te landen, op modelniveau of op systeemniveau.

Bij Startup-Recht zien we dat dit onderscheid vooral belangrijk wordt zodra een techbedrijf niet alleen een model gebruikt, maar daar ook een eigen applicatielaag, workflow of agentic interface omheen bouwt. Dan wil je vroeg begrijpen waar je juridisch gezien precies mee werkt.

Wanneer is een model een GPAI-model?

Niet ieder AI-model is automatisch een model voor algemene doeleinden. Voor die kwalificatie is in de kern van belang dat een model een breed scala aan verschillende taken competent kan uitvoeren én dat het in verschillende downstream systemen of toepassingen kan worden geïntegreerd.

Dat tweede criterium klinkt ruim, en dat is het ook. Veel modellen kunnen immers ergens in worden ingebouwd. Maar dat maakt ze nog niet vanzelf tot GPAI-model. De kern zit vooral in de brede inzetbaarheid. Een model dat vooral één specifiek probleem oplost, zoals het herkennen van tekst in afbeeldingen of het transcriberen van audio, kan in veel producten bruikbaar zijn zonder dat het daarom een echt algemeen karakter heeft.

Dat onderscheid is belangrijk. De brede toepasbaarheid van een model kan namelijk twee heel verschillende oorzaken hebben. Soms komt die voort uit echte algemene capaciteiten, zoals bij grote taalmodellen. Soms komt die vooral doordat een heel specifiek probleem op veel plekken terugkomt. Die tweede categorie ligt minder snel voor de hand als GPAI.

Tegelijk is de afbakening nog niet helemaal strak. De definitie in de verordening lijkt het begrip GPAI enigszins te beperken, terwijl de overwegingen juist in de richting wijzen van een ruimere uitleg, vooral voor grote generatieve modellen. Daardoor blijft ruimte bestaan voor interpretatie.

Voor startups en scale-ups is dat geen detail. De kwalificatievraag bepaalt in hoge mate welk juridisch kader in beeld komt. Zeker voor bedrijven die aan een eigen model werken, of hun product presenteren als breed inzetbare AI-infrastructuur, is het verstandig om die vraag niet pas laat in het traject te stellen.

Wanneer heeft een GPAI-model een systeemrisico?

Binnen de categorie GPAI maakt de AI-verordening opnieuw een onderscheid. Niet elk GPAI-model wordt hetzelfde behandeld. De zwaardere verplichtingen gelden voor modellen met een systeemrisico.

Daarvoor kijkt de verordening in de eerste plaats naar modellen met capaciteiten met grote impact. Dat gaat om modellen waarvan de capaciteiten overeenkomen met of groter zijn dan die van de meest geavanceerde GPAI-modellen. Bij die beoordeling spelen benchmarks een rol. Daarnaast bevat de verordening een technisch bewijsvermoeden op basis van de hoeveelheid rekenkracht die bij de training is gebruikt.

Daarnaast kan de Europese Commissie een model ook aanwijzen als model met systeemrisico als het vergelijkbare capaciteiten of vergelijkbare impact heeft. Daarbij wordt gekeken naar factoren rond schaal, capaciteiten en gebruik.

Voor de meeste startups zal dit niet meteen spelen op het niveau van eigen modeltraining. Het trainen van modellen op die schaal is voor een beperkt aantal partijen weggelegd. Maar dat betekent niet dat het onderwerp irrelevant is. Zodra je bouwt op geavanceerde modellen van derden, ermee integreert of een product ontwikkelt dat sterk leunt op dergelijke modellen, komt de vraag naar systeemrisico en de bijbehorende governance wel degelijk dichterbij.

Wat houdt risicobeheer voor GPAI-modellen in?

Voor aanbieders van GPAI-modellen met systeemrisico bevat de AI-verordening een verzwaard regime. In de kern gaat het om vier soorten verplichtingen: modelevaluatie, beoordeling en beperking van mogelijke systeemrisico’s, het bijhouden en rapporteren van ernstige incidenten, en passende cyberbeveiliging voor model en infrastructuur.

De belangrijkste verplichting is de tweede: het beoordelen en beperken van systeemrisico’s. Dat klinkt helder, maar is in de praktijk nog behoorlijk open geformuleerd. Juist daar zit veel onzekerheid.

Welke risico’s tellen als systeemrisico?

Een systeemrisico moet in de kern voortvloeien uit de geavanceerde capaciteiten van het model én op maatschappelijke schaal aanzienlijke gevolgen kunnen hebben. Daarmee ligt de lat hoger dan bij alledaagse productrisico’s.

De verordening zelf geeft maar beperkt houvast over welke concrete risico’s daaronder vallen. Wel is duidelijk dat de aandacht uitgaat naar risico’s die zich breed in de waardeketen kunnen verspreiden en grote impact kunnen hebben op gezondheid, veiligheid, openbare veiligheid, grondrechten of de samenleving als geheel.

In de voorlopige uitwerking van de praktijkcode lijkt de focus sterk te liggen op grootschalige en mogelijk catastrofale risico’s. Denk aan cyberaanvallen, chemische, biologische, radiologische en nucleaire toepassingen, grootschalige schadelijke manipulatie, grootschalige verboden discriminatie en verlies van menselijk toezicht. Daarnaast zijn er aanvullende risico’s rond fysieke infrastructuur en grondrechten die in elk geval moeten worden meegewogen.

Dat is een opvallende keuze. De nadruk verschuift daarmee naar misbruik en controleverlies op grote schaal, en minder naar de meer alledaagse risico’s waar veel bedrijven in de praktijk het eerst aan denken.

Wat waarschijnlijk niet snel als systeemrisico geldt

Een goed voorbeeld is hallucinatie. Dat is zonder twijfel een van de bekendste risico’s van generatieve AI. Toch ligt het niet voor de hand dat hallucinatie als systeemrisico in deze specifieke zin wordt gezien.

Daarvoor zijn twee redenen. Ten eerste lijkt hallucinatie niet voort te vloeien uit de meest geavanceerde capaciteiten van een model, maar juist uit de beperkingen ervan. Ten tweede heeft het meestal geen gevolgen op de maatschappelijke schaal die de verordening hier voor ogen heeft. Onjuiste output kan voor gebruikers vervelend of schadelijk zijn, maar dat maakt het nog niet meteen tot een systeemrisico in de zin van dit regime.

Voor startups is dat een belangrijk inzicht. Niet elk bekend AI-risico valt automatisch in dezelfde juridische categorie. Wie aan risicobeheer doet, moet dus niet alleen kijken naar wat technisch of operationeel spannend voelt, maar ook naar de precieze juridische risicolaag die van toepassing is.

De relatie met de DSA: relevant voor AI in grote platforms

De verplichtingen rond systeemrisico doen denken aan het systeem van de Digital Services Act, vooral voor zeer grote onlineplatforms en zoekmachines. Dat is geen toeval. Beide regimes kijken naar maatschappelijke risico’s van krachtige technologie op schaal.

Toch zijn de verschillen groter dan de overeenkomsten. De AI-verordening werkt met een specifiek begrip systeemrisico dat is toegespitst op geavanceerde GPAI-modellen. De DSA kijkt veel breder naar maatschappelijke risico’s van platformdiensten.

De overlap zit vooral bij de creatie en verspreiding van schadelijke of illegale inhoud. Een krachtig model kan bepaalde inhoud sneller, goedkoper en op grotere schaal genereren, waarna een platform die inhoud verder verspreidt. Juist op dat snijvlak raken de regimes elkaar.

Voor GPAI-modellen die in een zeer groot onlineplatform zijn ingebed, is bovendien van belang dat de beoordeling van systeemrisico’s in beginsel onder de DSA kan plaatsvinden. Als die beoordeling daar al gebeurt, is een aanvullende beoordeling onder de AI-verordening niet zonder meer nodig, behalve als er nieuwe risico’s spelen die buiten de DSA vallen.

Voor scale-ups die AI diep in platformfunctionaliteit verwerken is dit relevant, omdat de juridische analyse dan niet netjes in één hokje blijft. Platformrecht en AI-regulering kunnen daar in elkaars verlengde komen te liggen.

GPAI-systemen en verboden AI-praktijken: hier zit de meeste frictie

Misschien wel het meest interessante punt is de positie van GPAI-systemen zelf. De AI-verordening definieert ze wel, maar behandelt ze niet als volledig zelfstandig reguleringsobject. Daardoor blijft onduidelijk hoe ze precies in de bredere structuur van de verordening passen.

Dat transparantieverplichtingen voor bepaalde systemen ook GPAI-systemen kunnen raken, ligt voor de hand. Bij de regels voor hoog-risicosystemen ligt dat al minder eenvoudig. Omdat die regels veelal uitgaan van systemen die voor een bepaald doel zijn bedoeld, ligt het niet voor de hand dat een algemeen toepasbaar systeem daar snel onder valt.

De meeste discussie zit bij de verboden AI-praktijken. De Europese Commissie neemt in haar richtsnoeren de lijn dat ook aanbieders van GPAI-systemen verantwoordelijk kunnen zijn als hun systeem redelijkerwijs gebruikt kan worden op een manier die onder de verboden praktijken valt. In die benadering moeten aanbieders effectieve en verifieerbare waarborgen inbouwen om voorzienbaar misbruik te voorkomen of te beperken.

Dat standpunt is begrijpelijk vanuit veiligheidsperspectief, maar roept ook fundamentele vragen op. Een belangrijk bezwaar is dat de relevante waarborgen in de praktijk vaak niet op systeemniveau, maar juist op modelniveau moeten worden ingebouwd. Een GPAI-systeem is vaak niet veel meer dan een softwarelaag rond de functionaliteit van een onderliggend model. Dan voelt het gekunsteld om de zwaarste risicologica vooral op die applicatielaag te laten landen.

Daarnaast schuurt deze benadering met rechtszekerheid. Als niet duidelijk is welke maatregelen precies voldoende zijn, wordt het voor aanbieders lastig om vooraf te bepalen waar zij aan moeten voldoen. Dat geldt temeer omdat het boeteregime bij verboden AI-praktijken zeer zwaar is.

Voor startups en scale-ups is dit een serieus aandachtspunt. Niet omdat ieder GPAI-systeem automatisch een verboden toepassing zou zijn, maar juist omdat de grens nog niet scherp is uitgekristalliseerd.

Wat betekent dit concreet voor startups en scale-ups?

De kernboodschap is dat general-purpose AI juridisch niet als één homogeen blok kan worden benaderd. De eerste vraag is steeds: werk je op modelniveau, op systeemniveau, of op allebei?

Voor teams die zelf modellen bouwen

Wie zelf een breed inzetbaar model ontwikkelt, moet vroeg nadenken over kwalificatie. Is dit een model met algemene doeleinden, of toch een specialistisch model met een beperkte functie? Die vraag is niet alleen juridisch relevant, maar bepaalt ook welk type risicobeheer later in beeld komt.

Voor teams die vooral producten op bestaande modellen bouwen

Wie vooral een applicatie, assistent of agent ontwikkelt bovenop een bestaand model, heeft nog steeds met het GPAI-kader te maken, maar vaak indirecter. Dan wordt vooral belangrijk hoe het onderscheid tussen model en systeem uitpakt, en in hoeverre bepaalde systeemverplichtingen, transparantieverplichtingen of discussies rond verboden toepassingen relevant worden.

Voor founders, legal en investeerders

Voor deze groep zit de relevantie vooral in voorspelbaarheid. De AI-verordening geeft al een raamwerk, maar laat op cruciale punten nog ruimte voor interpretatie. Denk aan de afbakening van het GPAI-begrip, de invulling van systeemrisico’s en de vraag hoe ver artikel 5 reikt bij general-purpose AI-systemen. Dat betekent dat productclaims, governancekeuzes en risico-inschattingen niet te statisch moeten worden ingericht.

Bij Startup-Recht zien we juist daar veel waarde in een nuchtere benadering. Niet alles hoeft vandaag al tot achter de komma vast te staan, maar je wilt wel vroeg begrijpen waar de echte onzekerheden zitten en welke daarvan strategisch relevant zijn voor je bedrijf.

Tot slot

De AI-verordening probeert grip te krijgen op een categorie technologie die juist wordt gekenmerkt door brede inzetbaarheid, snelle ontwikkeling en technische complexiteit. Dat levert een eigen regime op voor GPAI-modellen, met aanvullende verplichtingen voor de meest geavanceerde modellen en blijvende vragen over de positie van GPAI-systemen.

Voor startups en scale-ups is de belangrijkste les daarom niet alleen wat de regels zeggen, maar ook waar ze nog schuren. Wie werkt met general-purpose AI doet er goed aan om scherp te onderscheiden tussen model en systeem, de discussie rond systeemrisico’s serieus te nemen en alert te blijven op verdere verduidelijking in praktijkcodes, richtsnoeren en handhaving. Juist in dat speelveld wordt de komende tijd bepaald hoeveel juridische ruimte er echt is om met general-purpose AI te innoveren.

Testimonials

Wat onze klanten zeggen

Startups en scale-ups werken graag met ons samen. Lees hoe ondernemers onze betrokkenheid en expertise ervaren.

Top ervaring met de mannen van Startup Recht. Ze handelen snel zonder in te leveren op kwaliteit. Iets wat start-ups goed kunnen gebruiken!
Daan Witte
Gradient Data Science B.V.
legal expertise for fast moving startups in regulated industries. Startup-Recht provides the legal foundation for us to innovate at Pabel AI.
Stan Haaijer
Co-founder Pabel B.V.
Goede, energieke juristen met duidelijke inhoudelijke expertise. Er wordt snel geschakeld en proactief meegedacht, waarbij oplossingen worden gevonden voor innovatieve en soms complexe vraagstukken binnen onze sector: Open Source Consulting. De stukken werden op tijd geleverd en communicatie daarover was helder en tijdig. We hebben de documenten ook laten reviewen door meerdere juristen, die onder de indruk waren van de kwaliteit. Op inhoudelijke feedback is sterk en zorgvuldig ingespeeld. Dit geeft ons vertrouwen in onze nieuwe juridische fundering. Dank voor de prettige samenwerking, tot snel.
Niels Verhage
Co-founder Rogue IT Consulting B.V.
Maarten en Caylun van Startup-Recht, ondersteunen mij bij het opzetten van mijn onderneming. Dat doen ze op een zéér prettige en professionele manier. Het is voor mij als ondernemer heel fijn om gebruik te kunnen maken van hun expertise met startups. Ik kan vragen stellen wanneer ik ze heb en krijg altijd snel een reactie. Daarnaast nemen ze mij al het juridische werk uit handen en helpen bij het opstellen van de juiste documenten. Kortom, ik ben heel erg blij met deze samenwerking en kan ze van harte aanbevelen.
Erik Maessen
Founder CoachChecker B.V.
Erg fijne samenwerking gehad. Ze dachten goed mee, leefden zich sterk in in onze visie en hebben ons op een prettige en professionele manier geholpen. Het contact was persoonlijk en duidelijk. Zeker een aanrader.
Luc de Graag
Co-founder Tikt.ai
We had an excellent experience working with Startup-Recht. Their team combines professionalism with a genuine understanding of startups’ needs, guiding us through every step with clarity and efficiency. They didn’t just answer our questions, but also anticipated challenges and offered practical solutions that gave us real peace of mind. Highly recommended for any young company looking for reliable legal support.
Luis Martinez
Co-founder UpTo
Logo staallokaal
Bij Startup-Recht is de combinatie van jong ondernemerschap en goed advies goud waard. Als ondernemer weet je dat je iets met voorwaarden moet doen, maar het komt er vaak niet van — tot Startup-Recht aanschuift. In een helder tempo nemen ze je mee in wat echt belangrijk is en zorgen ze voor voorwaarden die bij je bedrijf passen. Een perfecte balans tussen klantgericht en veilig ondernemen. Twijfel je? Drink een kop koffie met de heren en je bent overtuigd.
Sybrandus Pietersma
Mede-eigenaar Staallokaal B.V.
Zeer tevreden over Startup-Recht. Ze hebben ons geholpen met meerdere contracten en algemene voorwaarden, en wisten onze dienstverlening en werkwijze perfect te vertalen naar krachtige juridische documenten. Alles werd helder uitgelegd en ze namen ook punten mee waar wij zelf niet aan gedacht hadden. Snel schakelen, duidelijke communicatie en een topresultaat.
Daniël Coenen
Mede-oprichter Digiswift B.V.
Wij hebben Startup-Recht ingeschakeld voor het opstellen van onze algemene voorwaarden en opdrachtovereenkomst. Het resultaat was snel, van hoge kwaliteit en volledig afgestemd op onze wensen dankzij de revisierondes. Daarnaast dacht Startup-Recht goed mee in de context van ons bedrijf. Professioneel, betrouwbaar en prettig om mee samen te werken.
Paul Brandsma
Mede-oprichter AcuityAi

Startup-Recht heeft mij op deskundige en zorgvuldige wijze bijgestaan. De dienstverlening werd gekenmerkt door voortvarendheid, transparantie en een correcte afwikkeling, en dit alles tegen een alleszins redelijke prijsstelling. Ik acht de samenwerking betrouwbaar en aanbevelenswaardig.

Michael de Jong
Webdeveloper & Founder
Maarten en Caylun hebben ons uitstekend geholpen bij het opstellen van stevige voorwaarden en het voldoen aan de juiste juridische eisen. We hadden hier zelf weinig kennis van, maar zij namen de tijd om alles goed uit te leggen en advies te geven voor de toekomst. Al met al zijn we erg goed geholpen door de jongens van Startup-Recht en bevelen hen zeker aan.
Robin Jonckers
Co-founder Copywise Ai
Caylun en Maarten van Startup-Recht

Ontmoet jouw moderne juridische partner. Werken wordt eenvoudiger, sneller en zekerder.

Maak een afspraak