Portret van man
AI Expertise
5 minuten leestijd

Hoe voldoet jouw bedrijf aan de AI-wetgeving?

De grote hoeveelheid mogelijkheden die de ontwikkeling van AI ons biedt, heeft geen grenzen. Om te voorkomen dat AI onze veiligheid, privacy en ethische normen en waarden in de weg staat, heeft de Europese Unie wetgeving ontwikkeld: de EU AI Act (hierna: AI-verordening). De AI-verordening wordt stapsgewijs ingevoerd. In 2025 zijn er drie mijlpalen waar je mee te maken kunt krijgen als je AI wilt gebruiken.

AI is overal, maar hoe zit het met de regels? 

Weet je aan welke regels je bedrijf moet voldoen? Is jouw bedrijf klaar voor de EU AI act?    AI heeft de afgelopen jaren een enorme sprong vooruit gemaakt. AI is niet langer alleen beschikbaar voor techgiganten, maar wordt steeds vaker toegepast in bedrijven van alle soorten en maten. Of het nu gaat om geautomatiseerde klantenservice, slimme marketingtools of voorspellende analyses in de financiële sector—AI helpt bedrijven efficiënter en slimmer te werken. 

Maar AI brengt ook risico’s met zich mee. Denk aan systemen die discriminerende beslissingen nemen, persoonsgegevens zonder toestemming verwerken, of zelfs manipulatief gedrag stimuleren. Om deze risico’s te beperken en een eerlijke en veilige inzet van AI te garanderen, heeft de Europese Unie de AI Act geïntroduceerd. (zie EU AI Act: first regulation on artificial intelligence | Topics | European Parliament

Wat betekent deze wet voor jouw bedrijf? Welke verplichtingen komen eraan, en hoe zorg je ervoor dat je nu al de juiste voorbereidingen treft? Dit artikel legt het helder uit en geeft praktische handvatten om compliant te blijven. 

Wat is de EU AI Act? 

De AI Act is een verordening van de Europese Unie die regels stelt voor de ontwikkeling en toepassing van AI. De wet is in 2024 in werking getreden en wordt de komende jaren gefaseerd ingevoerd. 

Het doel van de AI Act is: 

  • Veilige en betrouwbare AI bevorderen. 
  • Risico’s verminderen op het gebied van privacy, discriminatie en misbruik. 
  • Duidelijke regels opstellen voor bedrijven die AI gebruiken of ontwikkelen. 

De wet verdeelt AI-systemen in verschillende categorieën, afhankelijk van de risico’s die ze met zich meebrengen. 

De belangrijkste deadlines en verplichtingen 

De invoering van de AI Act gebeurt in stappen. Drie belangrijke data bepalen hoe AI wordt gereguleerd: 

1.Februari 2025: Verboden AI-systemen 
Sommige AI-systemen worden als onacceptabel beschouwd en zijn vanaf februari 2025 verboden. Dit zijn AI-modellen die: 

  • Mensen manipuleren zonder dat ze het doorhebben. 
  • Sociale scoring toepassen (zoals een score geven op basis van gedrag of sociale kenmerken). 
  • Biometrische identificatie op afstand gebruiken zonder toestemming.

2. Augustus 2025: Hoog-risico AI-systemen
AI-systemen die een grote impact hebben op veiligheid en mensenrechten, worden beschouwd als hoog-risico AI. Dit geldt onder andere voor AI in:

  • De juridische sector, zoals AI die rechtbankuitspraken analyseert. 
  •  De financiële sector, bijvoorbeeld AI die kredietscores bepaalt. 
  • De gezondheidszorg, zoals AI die medische diagnoses stelt. 
  • Het onderwijs, bijvoorbeeld AI die examens beoordeelt.

Als je een hoog-risico AI-systeem gebruikt, moet je voldoen aan strikte eisen zoals transparantie, menselijke controle en risicobeheer. 

3. Augustus 2026: Transparantie-eisen en toezicht

  • Chatbots en AI-gegenereerde content moeten duidelijk herkenbaar zijn als AI-output. 
  • Organisaties die AI ontwikkelen of gebruiken moeten AI-geletterdheid binnen hun teams verhogen (is al vanaf februari 2025 van kracht). Dit betekent dat medewerkers die AI gebruiken, verplicht training moeten krijgen. Er is een meerjarig trainingsprogramma beschikbaar van Autoriteit Persoonsgegevens (AP).
  • Toezichthouders worden benoemd per sector, zoals AP voor AI-systemen die persoonsgegevens verwerken en Inspectie Gezondheid Jeugd die toezichthoud op AI en medische apparatuur. 

Hoe kun je AI verantwoord inzetten? 

Om te zorgen dat AI binnen jouw bedrijf ethisch en volgens de regels wordt ingezet, zijn er vier gouden regels die je in acht moet nemen. 

Regel 1: Zorg voor AI-geletterdheid in je bedrijf 

Sinds februari 2025 geldt er een verplichting om medewerkers die AI gebruiken, te trainen in de basisprincipes en risico’s van AI. Denk aan: 

  • Hoe werkt AI en hoe worden modellen getraind? 
  • Wat zijn de ethische en juridische risico’s van AI? 
  • Hoe herken je en voorkom je discriminatie of bias in AI? 

Bedrijven mogen zelf bepalen hoe ze dit aanpakken, maar het is verstandig om een intern opleidingsprogramma te ontwikkelen. 

Regel 2: Ken de risico’s van AI

AI kan krachtige analyses uitvoeren, maar het heeft ook beperkingen en risico’s. Bijvoorbeeld:

  • Foutieve of verouderde informatie: AI-modellen trainen zich op bestaande data en kunnen daardoor verkeerde of achterhaalde conclusies trekken. 
  • Bias en discriminatie: AI kan onbedoeld bepaalde groepen benadelen als de onderliggende data niet divers genoeg is.
  • Privacyrisico’s: AI verwerkt vaak grote hoeveelheden data, wat risico’s met zich meebrengt voor databescherming en de AVG. 

Regel 3: Stel duidelijke AI-richtlijnen op in je organisatie 

Hoe mag AI binnen jouw bedrijf gebruikt worden? Dit moet worden vastgelegd in een AI-beleid. Denk aan vragen als: 

  • Welke AI-tools zijn toegestaan en waarvoor mogen ze worden ingezet? 
  • Welke interne controles en validaties moeten plaatsvinden? 
  • Wie is verantwoordelijk voor AI-compliance binnen de organisatie? 

 Een duidelijk AI-beleid voorkomt misverstanden en helpt bij naleving van de wet. 

Regel 4: AI ondersteunt, maar vervangt geen menselijk oordeel 

AI is een hulpmiddel, geen vervanger van menselijke besluitvorming. Controleer altijd AI-uitkomsten en zorg voor menselijke tussenkomst bij belangrijke beslissingen. Bijvoorbeeld: 

  • Laat AI teksten schrijven, maar pas ze handmatig aan. 
  • Gebruik AI voor data-analyse, maar baseer beslissingen op meerdere informatiebronnen. 
  • Zorg ervoor dat AI-systemen altijd een menselijke eindverantwoordelijke hebben. 

Voorbeeld uit de praktijk: AI in de financiële sector 

Veel banken gebruiken AI om kredietwaardigheid te bepalen. AI-modellen analyseren duizenden datapunten, zoals betaalgeschiedenis en schulden, om te voorspellen of iemand een lening kan terugbetalen. 

Onder de AI Act vallen zulke systemen onder hoog-risico AI. Dit betekent dat banken transparant moeten zijn over hoe AI deze beslissingen neemt, en ze moeten ervoor zorgen dat er geen discriminatie plaatsvindt op basis van geslacht, afkomst of leeftijd. 

Door strikte regels en menselijke controle in te bouwen, kunnen banken AI verantwoord inzetten en voldoen aan de wetgeving.

Voorbeeld van een hoog-risicosysteem bij de Nederlandse Politie 

De Nederlandse Politie gebruikt AI om grote hoeveelheden data te verwerken. Zo wordt onder meer afgeluisterd berichtenverkeer van encrypted platforms geanalyseerd op mogelijke criminele handelingen. Denk bijvoorbeeld aan synoniemen voor moord zoals de zinsnede ‘iemand laten slapen’. De AI die de politie gebruikt, maakt een inschatting op basis van de context. Als de tekst verder gaat over een logeerplek voor een familielid wordt er een lage kans afgegeven dat het hier om een misdadig feit ging. Wanneer het systeem een hoge kans aangeeft dat het hier wel om een misdaad ging, kan dit bijdragen aan de bewijslast. 

Doordat er op deze data wordt toegezien door een toezichthouder (e.g. Inspectie Justitie en Veiligheid) en omdat er specifieke wetgeving geldt (WPG), valt dit binnen de gestelde juridische kaders.     

In het algoritmeregister van de landelijke overheid wordt een voorbeeld van een onderliggend taalmodel vermeld door de politie bij de zoekapplicatie cold cases.   

Checklist: Is jouw bedrijf klaar voor de AI Act? 

  • Inventariseer welke AI-systemen je gebruikt en in welke risicocategorie ze vallen. 
  • Stop met verboden AI-systemen die manipulatief zijn of sociale scoring toepassen. 
  • Train medewerkers op AI-geletterdheid en zorg dat ze de risico’s begrijpen. 
  • Stel een AI-beleid op met duidelijke richtlijnen en verantwoordelijkheden. 
  • Implementeer transparantie-eisen voor AI-content en chatbots. 
  • Benoem een AI-verantwoordelijke binnen je organisatie. 
  • Door deze stappen te volgen, bereid je jouw bedrijf optimaal voor op de nieuwe AI-regels en kun je AI op een veilige en verantwoorde manier inzetten. 

Tot slot: AI-wetgeving biedt kansen én uitdagingen 

De AI Act is een belangrijke stap richting verantwoorde en transparante AI. Bedrijven die nu al actie ondernemen, kunnen zich onderscheiden als betrouwbare en toekomstbestendige spelers in hun markt. Gebruik je als communicatiespecialist of marketeer AI, bijvoorbeeld bij hyperpersonalisatie of het analyseren van data, kijk dan of je daarmee voldoet aan de AI-wetgeving. Adviseer je bedrijf hierin zodat zij op tijd AI-proof zijn en/of blijven. 

Wil jij weten hoe jouw bedrijf AI verantwoord kan inzetten? Neem contact op met USG voor advies en ondersteuning! Wil je meer weten over AI en data? Lees dan verder in ons artikel over AI en data-analyse.  Wil je zelf aan de slag met hyperpersonalisatie? Lees dan verder in ons artikel over AI en hyperpersonalisatie. 

 

Bron: EU AI Act, AP, Het algoritmeregister van de Nederlandse overheid 

Deel dit artikel