AI

Inzicht in de gevolgen van de AI-verordening en AI-governance

Door:
Amber Ahmed
Understanding the implications of the AI Act and AI Governance
Een van de grondigste pogingen om hierover regels op te stellen is de AI-wet die is voorgesteld door de Europese Unie. Dit artikel gaat in op AI-governance en de AI-wet, waarbij de nadruk ligt op de gevolgen voor bedrijven.
Onderwerpen

Overzicht van de AI-wet en de vereisten

De Europese AI-wet, ook bekend als de European Artificial Intelligence Act, is ontworpen om een geharmoniseerd kader te creëren voor AI-regelgeving in de hele Europese Unie, om ervoor te zorgen dat AI-systemen worden ontwikkeld en ingezet op een manier die veilig en transparant is en de grondrechten van Europese burgers respecteert. 

De wet bevat duidelijke definities van de verschillende actoren die bij AI betrokken zijn, zoals aanbieders, toepassers, importeurs, distributeurs en productfabrikanten. Deze aanpak zorgt ervoor dat alle partijen die betrokken zijn bij de ontwikkeling, het gebruik, de invoer, de distributie en de productie van AI-systemen verantwoordelijk worden gehouden voor hun specifieke rol. De regels die van toepassing zijn op een AI-systeem zijn gebaseerd op de risicoclassificatie. 

Classificatie op basis van risico's

De AI-wet komt met een aanpak op basis van risico. Volgens de AI-wet worden AI-systemen ingedeeld in vier verschillende risiconiveaus: Verboden risico, Hoog risico, Beperkt risico en Minimaal risico. 

  • Verboden risico's zijn AI-systemen die de veiligheid en rechten van Europese burgers ernstig kunnen bedreigen. Deze systemen worden als te gevaarlijk beschouwd om te gebruiken en zijn verboden. Voorbeelden hiervan zijn social scoring en bepaalde vormen van bemoeizuchtige surveillance die misbruik maken van de kwetsbaarheid van specifieke groepen, zoals kinderen.
  • Systemen met een Hoog risico zijn systemen die werken op kritieke gebieden waar vooringenomenheden of fouten ernstige gevolgen kunnen hebben. Voor deze AI-systemen gelden strenge wettelijke eisen om de veiligheid en transparantie van deze systemen te garanderen. Voorbeelden van AI met een hoog risico zijn systemen die worden gebruikt in de gezondheidszorg, personeelszaken en wetshandhaving. Deze systemen moeten o.a. voorzien zijn van een risicobeheersysteem, gedetailleerde technische documentatie, transparantievereisten en menselijk toezicht.
  • Systemen met een Beperkt risico vereisen specifieke transparantiemaatregelen, maar worden niet als hoog risico beschouwd. Deze systemen communiceren met gebruikers en moeten ervoor zorgen dat de gebruikers weten dat ze met AI te maken hebben. Voorbeelden hiervan zijn chatbots en AI-gegenereerde content.
  • AI-systemen met een Minimaal risico hebben weinig tot geen risico's voor gebruikers en de maatschappij en zijn flexibeler en niet streng gereguleerd.

 

Tijdlijn

Datum Mijlpaal
2 februari 2025
Verbod op AI-systemen met onaanvaardbaar risico
2 mei 2025
Gedragscodes worden toegepast
2 augustus 2025
Governance-regels en verplichtingen voor General Purpose AI (GPAI) worden van toepassing
2 augustus 2026
Start van de toepassing van de Europese AI-wet voor AI-systemen (dit omvat AI-systemen met Hoog risico en Beperkt risico)
 2 augustus 2027  
  Toepassing van de gehele Europese AI-wet

 

Belangrijke stappen voor de organisatie

Deze aanpak van de Europese Unie brengt zowel uitdagingen als kansen met zich mee. Het begrijpen van en aanpassen aan deze gevolgen is van groot belang om aan de regels te voldoen en concurrerend te blijven. Bovendien moeten deze regels en praktijken worden geïntegreerd in het bedrijfsbeleid om een allesomvattende AI-governance te garanderen. Hier zijn enkele stappen die je als organisatie kunt nemen om ervoor te zorgen dat je binnen het bedrijf een AI-governancestructuur hebt die aansluit bij de AI-wet:

  1. Werknemers opleiden en trainen: zorg ervoor dat alle werknemers, vooral degenen die betrokken zijn bij de ontwikkeling en inzet van AI-systemen, een duidelijk begrip hebben van de vereisten van de AI-wet en ethische richtlijnen.
  2. Zorg dat de verantwoordelijkheden duidelijk zijn: Definieer duidelijke rollen en verantwoordelijkheden binnen de organisatie voor AI-governance om ervoor te zorgen dat elk aspect van AI-ontwikkeling en -implementatie goed wordt overzien en geregeld.
  3. Beleid implementeren: ontwikkel en handhaaf beleid binnen het bedrijf voor gevoelige data, zorg ervoor dat de risicoclassificatie onderdeel is van het beleid en ethische interne richtlijnen.
  4. Continue controle en evaluatie: Controleer AI-systemen regelmatig om ervoor te zorgen dat ze werken zoals bedoeld en blijven voldoen aan de AI-wet. Voer voortdurend evaluaties uit (of laat dat doen door externe auditors) om nieuwe risico's of problemen snel te vinden en aan te pakken.

Met deze stappen kunnen bedrijven AI-governance effectief integreren in hun organisatiebeleid. Deze proactieve aanpak zal helpen om risico's te beperken, naleving van de AI-wet te garanderen en een cultuur van verantwoord AI-gebruik te bevorderen. Dit is cruciaal om de voordelen van AI-technologie te benutten en tegelijkertijd de risico's te beheersen en ervoor te zorgen dat AI-systemen veilig, transparant en ethisch worden ingezet.

Meer weten over de AI-wet of AI-governance?

Neem contact op met onze specialisten. Ze helpen je graag verder. 

Neem contact op