AI-verordening op de werkplek: wat startups en scale-ups nu moeten weten

De inzet van AI op de werkplek voelt voor veel jonge groeibedrijven als een logische volgende stap. Een tool die sollicitaties filtert, een systeem dat prestaties monitort of een assistent die interne vragen van medewerkers beantwoordt, het lijkt efficiënt en schaalbaar. Maar onder de AI-verordening is niet elke AI-toepassing gelijk. Sommige toepassingen zijn verboden, andere vallen al snel in de categorie hoog risico, met stevige verplichtingen als gevolg.
Voor startups en scale-ups is dat extra relevant. Juist in snelgroeiende organisaties worden HR-processen vaak geautomatiseerd om tijd te winnen, consistenter te werken en met kleine teams toch veel te kunnen doen. De AI-verordening op de werkplek maakt duidelijk dat die efficiëntiewinst niet los kan worden gezien van grondrechten, transparantie en de positie van werknemers en kandidaten.
AI op de werkplek valt sneller onder de AI-verordening dan veel teams denken
Een eerste belangrijke les is dat het begrip AI-systeem ruim wordt opgevat. Dat betekent niet dat elk systeem meteen verboden is of automatisch aan zware verplichtingen moet voldoen. Het betekent wel dat organisaties er niet te snel van mogen uitgaan dat een tool “gewoon software” is en dus buiten beeld blijft.
In de praktijk is dat een belangrijk vertrekpunt voor techbedrijven. Wie werkt met tooling voor hiring, people analytics, productiviteit, interne support of workforce management, moet er rekening mee houden dat zo’n systeem binnen het bereik van de AI-verordening kan vallen. Zeker wanneer een tool gedrag analyseert, voorspellingen doet, rangschikt, monitort of beslissingen ondersteunt die impact hebben op kandidaten of werknemers.
Daar komt nog bij dat de AI-verordening niet het enige kader is waarmee rekening moet worden gehouden. Bij Startup-Recht zien we regelmatig dat founders en operations teams AI vooral benaderen als een productiviteitsvraagstuk, terwijl het juridisch speelveld breder is. Naast de AI-verordening kunnen ook regels rond gegevensbescherming, discriminatie, welzijn op het werk en informatie of consultatieverplichtingen relevant worden. Voor een groeiend bedrijf is dat geen detail, maar een governance-vraag.
Emotieherkenning op de werkplek is in beginsel verboden
De meest directe en opvallende boodschap uit de AI-verordening op de werkplek is dat emotieherkenning in deze context in principe verboden is. Het gaat dan om AI-systemen die emoties van natuurlijke personen op de werkplek afleiden of vaststellen, behalve in een beperkte uitzondering voor medische of veiligheidsdoeleinden.
Dat verbod is ingrijpend, juist omdat het toepassingsgebied ruim is.
Het verbod gaat verder dan alleen gezichtsherkenning
Bij emotieherkenning denken veel mensen meteen aan camera’s die gezichtsuitdrukkingen analyseren. Maar daar stopt het niet. Het gaat om systemen die emoties identificeren of afleiden op basis van biometrische gegevens. Dat kunnen klassieke biometrische kenmerken zijn, maar ook gedragsbiometrische gegevens, zoals wandelpatronen, lichaamshouding, bewegingen, oogbewegingen of zelfs de manier van typen.
Voor startups en scale-ups is dat een belangrijke waarschuwing. Een tool die zegt stress, frustratie, motivatie of betrokkenheid te kunnen meten uit webcambeelden, stemgebruik, toetsaanslagen of bewegingsdata, raakt al snel aan de verbodscategorie. Ook wanneer zo’n tool wordt gepositioneerd als innovatie op het vlak van wellbeing of teamperformance, verandert dat niet automatisch de juridische kwalificatie.
De redenering achter het verbod is helder. De wetgever en de Europese Commissie plaatsen vraagtekens bij de doeltreffendheid en wetenschappelijke basis van dit soort systemen. Emoties zijn contextafhankelijk, cultureel gekleurd en moeilijk objectief meetbaar. Juist in een arbeidsrelatie, waar een ongelijke machtsverhouding bestaat, kan het gebruik van zulke systemen leiden tot nadelige behandeling, inbreuken op privacy en aantasting van menselijke waardigheid.
Niet elk signaal of gevoel valt onder emotieherkenning
Tegelijk is nuance nodig. Niet elk systeem dat iets meet, valt automatisch onder dit verbod. De AI-verordening maakt duidelijk dat fysieke toestanden zoals pijn of vermoeidheid niet hetzelfde zijn als emoties. Ook de loutere detectie van zichtbare signalen, zoals een glimlach, frons of stemvolume, is op zichzelf nog geen verboden emotieherkenning, zolang die signalen niet worden gebruikt om emoties te identificeren of af te leiden.
Dat onderscheid is praktisch belangrijk. Een systeem dat in een callcenter alleen het stemvolume registreert, valt niet automatisch onder het verbod. Hetzelfde geldt voor een toepassing die vermoeidheid bij chauffeurs detecteert. Maar zodra een systeem op basis van biometrische gegevens wil afleiden dat iemand boos, gestrest, verveeld of angstig is, kom je in een heel andere categorie terecht.
Werkplek betekent meer dan het kantoor
Voor veel techbedrijven speelt werk niet meer alleen op kantoor. Er is hybride werk, remote work, mobile work en projectmatig werk met freelancers of contractors. Juist daarom is het relevant dat het begrip werkplek ruim wordt uitgelegd. Het verbod geldt niet alleen op een fysieke locatie, maar ook op virtuele, mobiele, open, besloten en tijdelijke werkplekken.
Dat maakt de impact van de AI-verordening op de werkplek groter dan veel organisaties verwachten. Een systeem dat emoties analyseert tijdens online meetings, remote calls of hybride samenwerking kan dus net zo goed onder het verbod vallen als een camera op de werkvloer.
Opvallend is ook dat de werkplek ruim genoeg wordt geïnterpreteerd om kandidaten in een wervings- en selectieproces mee te nemen. Voor scale-ups die experimenteren met AI in recruitment is dat een cruciaal punt. Een tool die tijdens sollicitatiegesprekken emoties van kandidaten probeert te meten, kan dus al in de verboden zone terechtkomen voordat er überhaupt een arbeidsovereenkomst bestaat.
De uitzondering voor medische of veiligheidsdoeleinden is smal
Er bestaat wel een uitzondering, maar die moet restrictief worden gelezen. Algemene monitoring van stressniveaus, burn-outsignalen of depressierisico’s op het werk valt daar niet zomaar onder. Ook een beroep op “veiligheid” kan niet breed worden ingezet om allerlei bedrijfsbelangen te dekken. Het gaat om de bescherming van leven en gezondheid, niet om algemene efficiëntie, productiviteit of comfort.
Dat is een relevante reality check voor bedrijven die AI willen positioneren als welzijnstool. Een systeem dat claimt de mentale toestand van medewerkers te meten om burnout te voorkomen, klinkt misschien zorgzaam, maar kan juridisch juist problematisch zijn. En zelfs wanneer een toepassing wél binnen de uitzondering zou vallen, blijft voorzichtigheid nodig. Volgens de besproken lijn moet een uitdrukkelijke behoefte kunnen worden aangetoond en ligt consultatie van werknemers of hun vertegenwoordigers voor de hand.
Voor HR is hoog risico bijna de hoofdregel
Waar emotieherkenning op de werkplek vooral een verbodsvraag is, draait het in veel andere gevallen om de vraag of een AI-systeem als hoog risico wordt gezien. Voor HR-toepassingen is het antwoord vaak: ja, of in ieder geval sneller dan gedacht.
De AI-verordening wijst specifiek naar AI-systemen die bedoeld zijn voor werving en selectie, zoals het analyseren en filteren van sollicitaties en het beoordelen van kandidaten. Ook systemen die beslissingen beïnvloeden over arbeidsvoorwaarden, promotie, beëindiging van de arbeidsrelatie, taaktoewijzing, monitoring en evaluatie van prestaties of gedrag vallen in beeld.
Voor startups en scale-ups is dat een breed speelveld. Denk aan software die kandidaten automatisch rankt, people analytics tools die performancepatronen signaleren, systemen die productiviteit of aanwezigheid meten, of tooling die helpt bepalen wie welke taken krijgt. Ook als AI niet de eindbeslissing neemt, kan de impact op grondrechten en carrièrekansen groot zijn.
De achterliggende zorg is begrijpelijk. Zulke systemen kunnen historische discriminatie reproduceren, ondoorzichtige uitkomsten opleveren en diep ingrijpen in het arbeidsleven van mensen. Dat geldt niet alleen voor aanwerving, maar ook voor interne doorgroei, beoordeling en behoud van medewerkers.
Voor techbedrijven is juist dat laatste relevant. In een scale-up verschuiven rollen snel, teams groeien in hoog tempo en processen professionaliseren vaak terwijl de operatie al draait. De verleiding is dan groot om AI in te zetten als schaaloplossing voor recruitment, talent review of performance management. Maar hoe dichter een tool bij beoordeling, selectie of gedragssturing komt, hoe sneller hoog risico in zicht komt.
De ontsnappingsroute bestaat, maar is smal
De AI-verordening laat ruimte voor een uitzondering op de hoog-risico kwalificatie voor bepaalde HR-gerelateerde systemen, maar die ruimte is beperkt. Het gaat om systemen die geen significant risico vormen voor gezondheid, veiligheid of grondrechten, mede omdat ze de besluitvorming niet wezenlijk beïnvloeden.
Dat kan bijvoorbeeld spelen wanneer AI alleen een beperkte procedurele taak uitvoert, zoals het structureren van ongestructureerde data, het classificeren van documenten of het detecteren van dubbels. Ook systemen die slechts een extra laag toevoegen aan een eerder afgeronde menselijke activiteit kunnen soms buiten hoog risico blijven. Een voorbeeld dat goed past binnen die gedachte is het verbeteren van de leesbaarheid van een vacaturetekst.
Verder kan AI die alleen afwijkingen in eerdere besluitvormingspatronen signaleert of louter een voorbereidende taak uitvoert, zoals documentvertaling, onder omstandigheden buiten de hoog-risico classificatie blijven.
Toch is terughoudendheid hier essentieel. Zodra een systeem wordt gebruikt voor profilering van natuurlijke personen, is die ontsnappingsroute in elk geval niet beschikbaar. En ook los daarvan geldt dat de uitzondering restrictief moet worden toegepast. Voor startups en scale-ups is het daarom riskant om een tool al te snel als “onschuldig” te bestempelen omdat er formeel nog een mens in het proces zit. Als de AI-uitkomst feitelijk sturend werkt, ligt een hoog-risico kwalificatie nog steeds voor de hand.
Wat vraagt de AI-verordening dan concreet van werkgevers?
Wanneer een AI-systeem op de werkplek als hoog risico kwalificeert, volgen daar concrete verplichtingen uit. Dat is geen puur papieren exercitie. Het raakt direct aan governance, interne processen en de manier waarop teams samenwerken.
De gebruiker van zo’n systeem moet passende technische en organisatorische maatregelen nemen om het systeem te gebruiken volgens de instructies van de aanbieder. Er moet menselijk toezicht worden georganiseerd door mensen met voldoende bekwaamheid, opleiding en autoriteit. Voor zover de gebruiker invloed heeft op de inputdata, moeten die relevant en voldoende representatief zijn voor het beoogde doel. Ook moet de werking van het systeem worden gemonitord en moeten automatisch gegenereerde logs onder eigen controle passend worden bewaard, met als minimumtermijn zes maanden.
Daarnaast geldt een specifieke informatieverplichting richting werknemers en werknemersvertegenwoordigers. Voordat een hoog-risico AI-systeem op de werkplek in gebruik wordt genomen of gebruikt, moeten betrokkenen worden geïnformeerd dat zij aan het gebruik van zo’n systeem zullen worden onderworpen.
Voor startups en scale-ups betekent dit dat AI-implementatie niet alleen een project van HR of IT is. Bij Startup-Recht zien we dat dit soort trajecten alleen werkbaar wordt als legal, HR en IT samen optrekken. Wie AI in recruitment of peoplemanagement inzet zonder duidelijke verantwoordelijkheden, menselijke controle en interne documentatie, bouwt al snel risico in het systeem zelf.
Ook bij lager risico ben je niet klaar
Niet elk AI-systeem op de werkplek is verboden of hoog risico. Maar ook dan eindigt het verhaal niet. Voor bepaalde AI-systemen met beperkt risico gelden transparantieverplichtingen. Een praktisch voorbeeld is een chatbot waarmee medewerkers vragen stellen over interne policies of procedures. In zo’n geval moet duidelijk zijn dat de gebruiker met een AI-systeem communiceert en niet met een menselijke collega.
Daarnaast geldt AI-geletterdheid breder dan alleen voor hoog-risico toepassingen. Organisaties moeten zorgen voor een toereikend niveau van kennis en begrip bij personeel en andere personen die namens hen AI-systemen gebruiken. Dat is geen eenmalige formaliteit, maar een doorlopend proces dat moet aansluiten op de context, de kennis van de betrokken personen en de manier waarop AI binnen de organisatie wordt ingezet.
Voor jonge techbedrijven is dat misschien wel een van de meest praktische lessen. Een AI-policy is niet alleen nuttig om risico’s te structureren, maar ook om verwachtingen intern helder te maken. Welke tools mogen worden gebruikt? Voor welke doeleinden? Welke menselijke controle is vereist? Wat mag nooit met medewerkers- of kandidaatgegevens gebeuren? Zulke keuzes horen thuis in beleid, training en dagelijkse praktijk.
Wat betekent dit concreet voor startups en scale-ups?
De AI-verordening op de werkplek vraagt van groeibedrijven vooral om scherpte in de fase vóór implementatie. Niet pas wanneer een tool live staat, maar al bij selectie, inkoop en interne besluitvorming.
Gebruik je AI in recruitment, dan moet je vroeg nagaan of de tool kandidaten beoordeelt, rangschikt of filtert op een manier die in hoog risico valt. Gebruik je AI voor performance of workforce management, dan moet je kijken of het systeem gedrag, productiviteit of persoonlijke kenmerken monitort of evalueert. En zodra een tool claimt emoties, stress, betrokkenheid of motivatie te meten op basis van biometrische signalen, is een verbodsvraag onvermijdelijk.
Voor scale-ups met hybride teams komt daar nog iets bij. De werkplek is niet beperkt tot het kantoor. Ook digitale werkomgevingen, online calls en remote workflows vallen in beeld. AI-governance moet dus meebewegen met de feitelijke manier van werken, niet met een ouderwets beeld van de werkvloer.
De belangrijkste praktische reflex is daarom niet: wat kan deze tool technisch? De betere vraag is: wat doet deze tool juridisch en organisatorisch met kandidaten, werknemers en besluitvorming? Wie die vraag te laat stelt, loopt het risico een systeem te implementeren dat niet alleen inefficiënt uitpakt, maar ook juridisch direct onder druk staat.
Conclusie: AI op de werkplek vraagt om meer dan slimme tooling
De AI-verordening op de werkplek maakt duidelijk dat AI in HR geen vrijblijvend experiment meer is. Emotieherkenning op de werkplek is in beginsel verboden, en veel AI-toepassingen in recruitment, personeelsbeheer en performance monitoring zullen al snel als hoog risico worden gezien.
Voor startups en scale-ups zit de uitdaging niet alleen in compliance, maar in volwassen implementatie. Wie AI inzet in mensenprocessen, moet vooraf begrijpen in welke categorie een systeem valt, welke verplichtingen daarbij horen en welke grenzen niet mogen worden overschreden. Juist in groeibedrijven, waar snelheid vaak een concurrentievoordeel is, wordt zorgvuldigheid daarmee een strategisch onderdeel van goed werkgeverschap.



















