Table of Contents
Wat betekent de AI Act voor ondernemingen die AI-systemen ontwikkelen?
Wanneer u zelf een AI-systeem ontwerpt, bouwt of laat bouwen, bent u volgens de AI Act een aanbieder. Dat betekent dat u verantwoordelijk bent voor de veiligheid, kwaliteit en betrouwbaarheid van het systeem vóór het op de markt komt of in gebruik wordt genomen. Dat geldt zowel voor start-ups die een nieuw AI-product ontwikkelen als voor bedrijven die een bestaand model aanpassen tot een eigen toepassing.
Meer weten over uw verantwoordelijkheden als aanbieder?
Raadpleeg de gids over de AI Act (PDF, 1.16 MB) voor een helder overzicht.
Wanneer bent u volgens de AI Act een aanbieder van een AI-systeem?
U bent aanbieder van een AI-systeem wanneer u:
- het systeem vanaf nul ontwikkelt
- een bestaand model inbouwt in uw toepassing
- een bestaand systeem aanzienlijk wijzigt (meer dan louter configuratie)
- het systeem onder uw eigen naam op de markt brengt
Dat geldt zowel voor commerciële tools als voor systemen die u enkel intern gebruikt.
Hoe bepaalt u of uw systeem een hoogrisico-AI-systeem is?
De AI Act maakt een duidelijk onderscheid tussen systemen met een hoog risico en systemen met een lager risico. Veel professionele toepassingen vallen in een van die twee categorieën:
AI met een hoog risico
De AI Act bepaalt de criteria op basis waarvan een AI-systeem wordt geclassificeerd als hoog risico, samengevat:
- AI die deel uitmaakt van producten onder bestaande EU-veiligheidswetgeving, zoals machines of medische hulpmiddelen
- AI die wordt gebruikt in gevoelige domeinen zoals onderwijs, werkgelegenheid, kredietverlening, gezondheidszorg, rechtshandhaving of biometrie
AI met een lager risico
- ondersteunende tools met beperkt risico, zoals generatieve AI of chatbots
- systemen die enkel advies geven of een voorbereidende taak uitvoeren
- systemen waar beslissingen nog volledig door een mens worden genomen
Raadpleeg de AI Act-gids voor ondernemers (PDF, 1.16 MB) en ontdek hoe u het risiconiveau van uw systeem correct bepaalt.
Welke verplichtingen gelden voor aanbieders van hoogrisico-AI?
Als aanbieder van een hoogrisico-AI-systeem moet u kunnen aantonen dat uw systeem veilig, controleerbaar en transparant werkt. U moet onder meer:
- een volledig risicobeheersysteem opzetten
- representatieve, correcte en actuele trainingsdata gebruiken
- uitgebreide technische documentatie opstellen
- logging en traceerbaarheid voorzien in het systeem
- duidelijke instructies en transparantie-informatie aanleveren
- garanderen dat er steeds menselijk toezicht mogelijk blijft
- instaan voor nauwkeurigheid, robuustheid en cyberbeveiliging
- een kwaliteitsbeheersysteem uitwerken
- het systeem blijvend monitoren na ingebruikname
Welke systemen worden niet als hoog risico beschouwd?
Een AI-systeem is in ieder geval geen hoogrisico-AI-systeem wanneer het:
- enkel gegevens sorteert of structureert
- advies geeft zonder de menselijke beslissing te vervangen
- wordt ingezet voor interne optimalisatie (zoals personeelsplanning, documentatiebeheer)
- geen invloed heeft op de rechten, veiligheid of kansen van personen
Toch blijft het belangrijk om goede praktijken te volgen rond datakwaliteit, documentatie en transparantie.
Welke stappen kan u nu zetten om als aanbieder in regel te zijn?
Een gestructureerde aanpak helpt u om toekomstige risico’s en verplichtingen onder controle te houden. Begin met deze stappen:
- maak een overzicht van al uw ontwikkelde of geïntegreerde AI-systemen
- stel een correcte risicoclassificatie per systeem op
- voorzie documentatie, databeheer en toezichtprocessen
- werk een kwaliteits- en risicobeheersysteem uit
- maak duidelijke afspraken over onderhoud, updates en monitoring van elk systeem
Wilt u zeker weten dat uw ontwikkelproces voldoet aan de AI Act?
Download de gids “De AI Act, ook voor mij? – Gids voor ondernemers” (PDF, 1.16 MB) en zorg dat uw bedrijf voldoet aan de AI-regels binnen de Europese Unie.