AI-verordening op de werkplek: wat startups en scale-ups nu moeten weten

AI-tools duiken steeds vaker op in recruitment, performance management en interne werkprocessen. Voor startups en scale-ups is dat aantrekkelijk, want snelheid, schaalbaarheid en efficiëntie tellen zwaar mee. Juist daarom is het belangrijk om te weten dat de AI-verordening op de werkplek sneller raakt dan veel teams denken.
Arbeidsrecht
IT-recht
Privacyrecht & AVG
Insights
Caylun J. Scholtens
30.04.2026

De inzet van AI op de werkplek voelt voor veel jonge groeibedrijven als een logische volgende stap. Een tool die sollicitaties filtert, een systeem dat prestaties monitort of een assistent die interne vragen van medewerkers beantwoordt, het lijkt efficiënt en schaalbaar. Maar onder de AI-verordening is niet elke AI-toepassing gelijk. Sommige toepassingen zijn verboden, andere vallen al snel in de categorie hoog risico, met stevige verplichtingen als gevolg.

Voor startups en scale-ups is dat extra relevant. Juist in snelgroeiende organisaties worden HR-processen vaak geautomatiseerd om tijd te winnen, consistenter te werken en met kleine teams toch veel te kunnen doen. De AI-verordening op de werkplek maakt duidelijk dat die efficiëntiewinst niet los kan worden gezien van grondrechten, transparantie en de positie van werknemers en kandidaten.

AI op de werkplek valt sneller onder de AI-verordening dan veel teams denken

Een eerste belangrijke les is dat het begrip AI-systeem ruim wordt opgevat. Dat betekent niet dat elk systeem meteen verboden is of automatisch aan zware verplichtingen moet voldoen. Het betekent wel dat organisaties er niet te snel van mogen uitgaan dat een tool “gewoon software” is en dus buiten beeld blijft.

In de praktijk is dat een belangrijk vertrekpunt voor techbedrijven. Wie werkt met tooling voor hiring, people analytics, productiviteit, interne support of workforce management, moet er rekening mee houden dat zo’n systeem binnen het bereik van de AI-verordening kan vallen. Zeker wanneer een tool gedrag analyseert, voorspellingen doet, rangschikt, monitort of beslissingen ondersteunt die impact hebben op kandidaten of werknemers.

Daar komt nog bij dat de AI-verordening niet het enige kader is waarmee rekening moet worden gehouden. Bij Startup-Recht zien we regelmatig dat founders en operations teams AI vooral benaderen als een productiviteitsvraagstuk, terwijl het juridisch speelveld breder is. Naast de AI-verordening kunnen ook regels rond gegevensbescherming, discriminatie, welzijn op het werk en informatie of consultatieverplichtingen relevant worden. Voor een groeiend bedrijf is dat geen detail, maar een governance-vraag.

Emotieherkenning op de werkplek is in beginsel verboden

De meest directe en opvallende boodschap uit de AI-verordening op de werkplek is dat emotieherkenning in deze context in principe verboden is. Het gaat dan om AI-systemen die emoties van natuurlijke personen op de werkplek afleiden of vaststellen, behalve in een beperkte uitzondering voor medische of veiligheidsdoeleinden.

Dat verbod is ingrijpend, juist omdat het toepassingsgebied ruim is.

Het verbod gaat verder dan alleen gezichtsherkenning

Bij emotieherkenning denken veel mensen meteen aan camera’s die gezichtsuitdrukkingen analyseren. Maar daar stopt het niet. Het gaat om systemen die emoties identificeren of afleiden op basis van biometrische gegevens. Dat kunnen klassieke biometrische kenmerken zijn, maar ook gedragsbiometrische gegevens, zoals wandelpatronen, lichaamshouding, bewegingen, oogbewegingen of zelfs de manier van typen.

Voor startups en scale-ups is dat een belangrijke waarschuwing. Een tool die zegt stress, frustratie, motivatie of betrokkenheid te kunnen meten uit webcambeelden, stemgebruik, toetsaanslagen of bewegingsdata, raakt al snel aan de verbodscategorie. Ook wanneer zo’n tool wordt gepositioneerd als innovatie op het vlak van wellbeing of teamperformance, verandert dat niet automatisch de juridische kwalificatie.

De redenering achter het verbod is helder. De wetgever en de Europese Commissie plaatsen vraagtekens bij de doeltreffendheid en wetenschappelijke basis van dit soort systemen. Emoties zijn contextafhankelijk, cultureel gekleurd en moeilijk objectief meetbaar. Juist in een arbeidsrelatie, waar een ongelijke machtsverhouding bestaat, kan het gebruik van zulke systemen leiden tot nadelige behandeling, inbreuken op privacy en aantasting van menselijke waardigheid.

Niet elk signaal of gevoel valt onder emotieherkenning

Tegelijk is nuance nodig. Niet elk systeem dat iets meet, valt automatisch onder dit verbod. De AI-verordening maakt duidelijk dat fysieke toestanden zoals pijn of vermoeidheid niet hetzelfde zijn als emoties. Ook de loutere detectie van zichtbare signalen, zoals een glimlach, frons of stemvolume, is op zichzelf nog geen verboden emotieherkenning, zolang die signalen niet worden gebruikt om emoties te identificeren of af te leiden.

Dat onderscheid is praktisch belangrijk. Een systeem dat in een callcenter alleen het stemvolume registreert, valt niet automatisch onder het verbod. Hetzelfde geldt voor een toepassing die vermoeidheid bij chauffeurs detecteert. Maar zodra een systeem op basis van biometrische gegevens wil afleiden dat iemand boos, gestrest, verveeld of angstig is, kom je in een heel andere categorie terecht.

Werkplek betekent meer dan het kantoor

Voor veel techbedrijven speelt werk niet meer alleen op kantoor. Er is hybride werk, remote work, mobile work en projectmatig werk met freelancers of contractors. Juist daarom is het relevant dat het begrip werkplek ruim wordt uitgelegd. Het verbod geldt niet alleen op een fysieke locatie, maar ook op virtuele, mobiele, open, besloten en tijdelijke werkplekken.

Dat maakt de impact van de AI-verordening op de werkplek groter dan veel organisaties verwachten. Een systeem dat emoties analyseert tijdens online meetings, remote calls of hybride samenwerking kan dus net zo goed onder het verbod vallen als een camera op de werkvloer.

Opvallend is ook dat de werkplek ruim genoeg wordt geïnterpreteerd om kandidaten in een wervings- en selectieproces mee te nemen. Voor scale-ups die experimenteren met AI in recruitment is dat een cruciaal punt. Een tool die tijdens sollicitatiegesprekken emoties van kandidaten probeert te meten, kan dus al in de verboden zone terechtkomen voordat er überhaupt een arbeidsovereenkomst bestaat.

De uitzondering voor medische of veiligheidsdoeleinden is smal

Er bestaat wel een uitzondering, maar die moet restrictief worden gelezen. Algemene monitoring van stressniveaus, burn-outsignalen of depressierisico’s op het werk valt daar niet zomaar onder. Ook een beroep op “veiligheid” kan niet breed worden ingezet om allerlei bedrijfsbelangen te dekken. Het gaat om de bescherming van leven en gezondheid, niet om algemene efficiëntie, productiviteit of comfort.

Dat is een relevante reality check voor bedrijven die AI willen positioneren als welzijnstool. Een systeem dat claimt de mentale toestand van medewerkers te meten om burnout te voorkomen, klinkt misschien zorgzaam, maar kan juridisch juist problematisch zijn. En zelfs wanneer een toepassing wél binnen de uitzondering zou vallen, blijft voorzichtigheid nodig. Volgens de besproken lijn moet een uitdrukkelijke behoefte kunnen worden aangetoond en ligt consultatie van werknemers of hun vertegenwoordigers voor de hand.

Voor HR is hoog risico bijna de hoofdregel

Waar emotieherkenning op de werkplek vooral een verbodsvraag is, draait het in veel andere gevallen om de vraag of een AI-systeem als hoog risico wordt gezien. Voor HR-toepassingen is het antwoord vaak: ja, of in ieder geval sneller dan gedacht.

De AI-verordening wijst specifiek naar AI-systemen die bedoeld zijn voor werving en selectie, zoals het analyseren en filteren van sollicitaties en het beoordelen van kandidaten. Ook systemen die beslissingen beïnvloeden over arbeidsvoorwaarden, promotie, beëindiging van de arbeidsrelatie, taaktoewijzing, monitoring en evaluatie van prestaties of gedrag vallen in beeld.

Voor startups en scale-ups is dat een breed speelveld. Denk aan software die kandidaten automatisch rankt, people analytics tools die performancepatronen signaleren, systemen die productiviteit of aanwezigheid meten, of tooling die helpt bepalen wie welke taken krijgt. Ook als AI niet de eindbeslissing neemt, kan de impact op grondrechten en carrièrekansen groot zijn.

De achterliggende zorg is begrijpelijk. Zulke systemen kunnen historische discriminatie reproduceren, ondoorzichtige uitkomsten opleveren en diep ingrijpen in het arbeidsleven van mensen. Dat geldt niet alleen voor aanwerving, maar ook voor interne doorgroei, beoordeling en behoud van medewerkers.

Voor techbedrijven is juist dat laatste relevant. In een scale-up verschuiven rollen snel, teams groeien in hoog tempo en processen professionaliseren vaak terwijl de operatie al draait. De verleiding is dan groot om AI in te zetten als schaaloplossing voor recruitment, talent review of performance management. Maar hoe dichter een tool bij beoordeling, selectie of gedragssturing komt, hoe sneller hoog risico in zicht komt.

De ontsnappingsroute bestaat, maar is smal

De AI-verordening laat ruimte voor een uitzondering op de hoog-risico kwalificatie voor bepaalde HR-gerelateerde systemen, maar die ruimte is beperkt. Het gaat om systemen die geen significant risico vormen voor gezondheid, veiligheid of grondrechten, mede omdat ze de besluitvorming niet wezenlijk beïnvloeden.

Dat kan bijvoorbeeld spelen wanneer AI alleen een beperkte procedurele taak uitvoert, zoals het structureren van ongestructureerde data, het classificeren van documenten of het detecteren van dubbels. Ook systemen die slechts een extra laag toevoegen aan een eerder afgeronde menselijke activiteit kunnen soms buiten hoog risico blijven. Een voorbeeld dat goed past binnen die gedachte is het verbeteren van de leesbaarheid van een vacaturetekst.

Verder kan AI die alleen afwijkingen in eerdere besluitvormingspatronen signaleert of louter een voorbereidende taak uitvoert, zoals documentvertaling, onder omstandigheden buiten de hoog-risico classificatie blijven.

Toch is terughoudendheid hier essentieel. Zodra een systeem wordt gebruikt voor profilering van natuurlijke personen, is die ontsnappingsroute in elk geval niet beschikbaar. En ook los daarvan geldt dat de uitzondering restrictief moet worden toegepast. Voor startups en scale-ups is het daarom riskant om een tool al te snel als “onschuldig” te bestempelen omdat er formeel nog een mens in het proces zit. Als de AI-uitkomst feitelijk sturend werkt, ligt een hoog-risico kwalificatie nog steeds voor de hand.

Wat vraagt de AI-verordening dan concreet van werkgevers?

Wanneer een AI-systeem op de werkplek als hoog risico kwalificeert, volgen daar concrete verplichtingen uit. Dat is geen puur papieren exercitie. Het raakt direct aan governance, interne processen en de manier waarop teams samenwerken.

De gebruiker van zo’n systeem moet passende technische en organisatorische maatregelen nemen om het systeem te gebruiken volgens de instructies van de aanbieder. Er moet menselijk toezicht worden georganiseerd door mensen met voldoende bekwaamheid, opleiding en autoriteit. Voor zover de gebruiker invloed heeft op de inputdata, moeten die relevant en voldoende representatief zijn voor het beoogde doel. Ook moet de werking van het systeem worden gemonitord en moeten automatisch gegenereerde logs onder eigen controle passend worden bewaard, met als minimumtermijn zes maanden.

Daarnaast geldt een specifieke informatieverplichting richting werknemers en werknemersvertegenwoordigers. Voordat een hoog-risico AI-systeem op de werkplek in gebruik wordt genomen of gebruikt, moeten betrokkenen worden geïnformeerd dat zij aan het gebruik van zo’n systeem zullen worden onderworpen.

Voor startups en scale-ups betekent dit dat AI-implementatie niet alleen een project van HR of IT is. Bij Startup-Recht zien we dat dit soort trajecten alleen werkbaar wordt als legal, HR en IT samen optrekken. Wie AI in recruitment of peoplemanagement inzet zonder duidelijke verantwoordelijkheden, menselijke controle en interne documentatie, bouwt al snel risico in het systeem zelf.

Ook bij lager risico ben je niet klaar

Niet elk AI-systeem op de werkplek is verboden of hoog risico. Maar ook dan eindigt het verhaal niet. Voor bepaalde AI-systemen met beperkt risico gelden transparantieverplichtingen. Een praktisch voorbeeld is een chatbot waarmee medewerkers vragen stellen over interne policies of procedures. In zo’n geval moet duidelijk zijn dat de gebruiker met een AI-systeem communiceert en niet met een menselijke collega.

Daarnaast geldt AI-geletterdheid breder dan alleen voor hoog-risico toepassingen. Organisaties moeten zorgen voor een toereikend niveau van kennis en begrip bij personeel en andere personen die namens hen AI-systemen gebruiken. Dat is geen eenmalige formaliteit, maar een doorlopend proces dat moet aansluiten op de context, de kennis van de betrokken personen en de manier waarop AI binnen de organisatie wordt ingezet.

Voor jonge techbedrijven is dat misschien wel een van de meest praktische lessen. Een AI-policy is niet alleen nuttig om risico’s te structureren, maar ook om verwachtingen intern helder te maken. Welke tools mogen worden gebruikt? Voor welke doeleinden? Welke menselijke controle is vereist? Wat mag nooit met medewerkers- of kandidaatgegevens gebeuren? Zulke keuzes horen thuis in beleid, training en dagelijkse praktijk.

Wat betekent dit concreet voor startups en scale-ups?

De AI-verordening op de werkplek vraagt van groeibedrijven vooral om scherpte in de fase vóór implementatie. Niet pas wanneer een tool live staat, maar al bij selectie, inkoop en interne besluitvorming.

Gebruik je AI in recruitment, dan moet je vroeg nagaan of de tool kandidaten beoordeelt, rangschikt of filtert op een manier die in hoog risico valt. Gebruik je AI voor performance of workforce management, dan moet je kijken of het systeem gedrag, productiviteit of persoonlijke kenmerken monitort of evalueert. En zodra een tool claimt emoties, stress, betrokkenheid of motivatie te meten op basis van biometrische signalen, is een verbodsvraag onvermijdelijk.

Voor scale-ups met hybride teams komt daar nog iets bij. De werkplek is niet beperkt tot het kantoor. Ook digitale werkomgevingen, online calls en remote workflows vallen in beeld. AI-governance moet dus meebewegen met de feitelijke manier van werken, niet met een ouderwets beeld van de werkvloer.

De belangrijkste praktische reflex is daarom niet: wat kan deze tool technisch? De betere vraag is: wat doet deze tool juridisch en organisatorisch met kandidaten, werknemers en besluitvorming? Wie die vraag te laat stelt, loopt het risico een systeem te implementeren dat niet alleen inefficiënt uitpakt, maar ook juridisch direct onder druk staat.

Conclusie: AI op de werkplek vraagt om meer dan slimme tooling

De AI-verordening op de werkplek maakt duidelijk dat AI in HR geen vrijblijvend experiment meer is. Emotieherkenning op de werkplek is in beginsel verboden, en veel AI-toepassingen in recruitment, personeelsbeheer en performance monitoring zullen al snel als hoog risico worden gezien.

Voor startups en scale-ups zit de uitdaging niet alleen in compliance, maar in volwassen implementatie. Wie AI inzet in mensenprocessen, moet vooraf begrijpen in welke categorie een systeem valt, welke verplichtingen daarbij horen en welke grenzen niet mogen worden overschreden. Juist in groeibedrijven, waar snelheid vaak een concurrentievoordeel is, wordt zorgvuldigheid daarmee een strategisch onderdeel van goed werkgeverschap.

Testimonials

Wat onze klanten zeggen

Startups en scale-ups werken graag met ons samen. Lees hoe ondernemers onze betrokkenheid en expertise ervaren.

Top ervaring met de mannen van Startup Recht. Ze handelen snel zonder in te leveren op kwaliteit. Iets wat start-ups goed kunnen gebruiken!
Daan Witte
Gradient Data Science B.V.
legal expertise for fast moving startups in regulated industries. Startup-Recht provides the legal foundation for us to innovate at Pabel AI.
Stan Haaijer
Co-founder Pabel B.V.
Goede, energieke juristen met duidelijke inhoudelijke expertise. Er wordt snel geschakeld en proactief meegedacht, waarbij oplossingen worden gevonden voor innovatieve en soms complexe vraagstukken binnen onze sector: Open Source Consulting. De stukken werden op tijd geleverd en communicatie daarover was helder en tijdig. We hebben de documenten ook laten reviewen door meerdere juristen, die onder de indruk waren van de kwaliteit. Op inhoudelijke feedback is sterk en zorgvuldig ingespeeld. Dit geeft ons vertrouwen in onze nieuwe juridische fundering. Dank voor de prettige samenwerking, tot snel.
Niels Verhage
Co-founder Rogue IT Consulting B.V.
Maarten en Caylun van Startup-Recht, ondersteunen mij bij het opzetten van mijn onderneming. Dat doen ze op een zéér prettige en professionele manier. Het is voor mij als ondernemer heel fijn om gebruik te kunnen maken van hun expertise met startups. Ik kan vragen stellen wanneer ik ze heb en krijg altijd snel een reactie. Daarnaast nemen ze mij al het juridische werk uit handen en helpen bij het opstellen van de juiste documenten. Kortom, ik ben heel erg blij met deze samenwerking en kan ze van harte aanbevelen.
Erik Maessen
Founder CoachChecker B.V.
Erg fijne samenwerking gehad. Ze dachten goed mee, leefden zich sterk in in onze visie en hebben ons op een prettige en professionele manier geholpen. Het contact was persoonlijk en duidelijk. Zeker een aanrader.
Luc de Graag
Co-founder Tikt.ai
We had an excellent experience working with Startup-Recht. Their team combines professionalism with a genuine understanding of startups’ needs, guiding us through every step with clarity and efficiency. They didn’t just answer our questions, but also anticipated challenges and offered practical solutions that gave us real peace of mind. Highly recommended for any young company looking for reliable legal support.
Luis Martinez
Co-founder UpTo
Logo staallokaal
Bij Startup-Recht is de combinatie van jong ondernemerschap en goed advies goud waard. Als ondernemer weet je dat je iets met voorwaarden moet doen, maar het komt er vaak niet van — tot Startup-Recht aanschuift. In een helder tempo nemen ze je mee in wat echt belangrijk is en zorgen ze voor voorwaarden die bij je bedrijf passen. Een perfecte balans tussen klantgericht en veilig ondernemen. Twijfel je? Drink een kop koffie met de heren en je bent overtuigd.
Sybrandus Pietersma
Mede-eigenaar Staallokaal B.V.
Zeer tevreden over Startup-Recht. Ze hebben ons geholpen met meerdere contracten en algemene voorwaarden, en wisten onze dienstverlening en werkwijze perfect te vertalen naar krachtige juridische documenten. Alles werd helder uitgelegd en ze namen ook punten mee waar wij zelf niet aan gedacht hadden. Snel schakelen, duidelijke communicatie en een topresultaat.
Daniël Coenen
Mede-oprichter Digiswift B.V.
Wij hebben Startup-Recht ingeschakeld voor het opstellen van onze algemene voorwaarden en opdrachtovereenkomst. Het resultaat was snel, van hoge kwaliteit en volledig afgestemd op onze wensen dankzij de revisierondes. Daarnaast dacht Startup-Recht goed mee in de context van ons bedrijf. Professioneel, betrouwbaar en prettig om mee samen te werken.
Paul Brandsma
Mede-oprichter AcuityAi

Startup-Recht heeft mij op deskundige en zorgvuldige wijze bijgestaan. De dienstverlening werd gekenmerkt door voortvarendheid, transparantie en een correcte afwikkeling, en dit alles tegen een alleszins redelijke prijsstelling. Ik acht de samenwerking betrouwbaar en aanbevelenswaardig.

Michael de Jong
Webdeveloper & Founder
Maarten en Caylun hebben ons uitstekend geholpen bij het opstellen van stevige voorwaarden en het voldoen aan de juiste juridische eisen. We hadden hier zelf weinig kennis van, maar zij namen de tijd om alles goed uit te leggen en advies te geven voor de toekomst. Al met al zijn we erg goed geholpen door de jongens van Startup-Recht en bevelen hen zeker aan.
Robin Jonckers
Co-founder Copywise Ai
Caylun en Maarten van Startup-Recht

Ontmoet jouw moderne juridische partner. Werken wordt eenvoudiger, sneller en zekerder.

Maak een afspraak