Op 12 juli 2024 werd de EU AI Act gepubliceerd in het Publicatieblad van de Europese Unie. Deze langverwachte Europese AI-Verordening, die op 1 augustus 2024 in werking trad, zal het Europese landschap van de kunstmatige intelligentie (AI) ingrijpend veranderen. Voor alle bedrijven en hun adviseurs is het essentieel om zich hierover goed te informeren. Wat moet je onthouden over deze verordening?
Kunstmatige intelligentie (AI) beheerst alsmaar meer ons leven en werk. Dankzij deze nieuwe technologie kunnen machines taken uitvoeren waarvoor normaal menselijke intelligentie nodig is, zoals leren, redeneren en problemen oplossen. In de praktijk komt AI al in actie bij het automatiseren van routinetaken, het beantwoorden van klantenvragen via chatbots en het helpen bij complexe strategische beslissingen in het bedrijfsleven.
Typerend voor AI-systemen is dat ze ontworpen zijn om te kunnen functioneren op basis van de input die ze ontvangen en dat ze communiceren in een natuurlijke taal. Maar met hun voorspellingen, aanbevelingen of beslissingen kunnen ze de fysieke of virtuele omgeving ook ingrijpend beïnvloeden. Dit onderscheidt AI-systemen van traditionele software, waarbij vooraf bepaalde algoritmen de output bepalen.
Wat is de EU AI Act?
De AI Act is een Europese verordening (nr. 2024/1689, goed voor 144 pagina’s en 111 artikels) die regels stelt voor autonoom handelende computersystemen en algoritmes die beslissingen nemen, content genereren of mensen assisteren. Met deze wet wil Europa voor mensen en organisaties in de EU een veilige, transparante, traceerbare en niet-discriminerende setting creëren, waarbij eenieders rechten beschermd worden bij het gebruik van AI-systemen.
AI als concurrentievoordeel: hoe de EU AI Act bedrijven en accountants kan versterken
Volgens Martin Lysholt Nielsen van Silverfin wordt AI een cruciaal onderdeel in de gereedschapskist van accountancykantoren. Hij benadrukt dat software met AI niet alleen bedrijven vooruit helpt, maar dat succes afhankelijk is van het toepassen van AI op een ethische, transparante manier, waarbij de mens de controle behoudt. De EU AI Act biedt daarbij een belangrijk kader voor veilige en betrouwbare AI-toepassingen, wat accountants een sterke positie geeft als vertrouwde adviseurs.
“At Silverfin we strongly believe that AI should be an essential component in the tool chain of accountancy firms and the businesses they serve. Our conviction is that software with AI will outperform software without AI, and companies that embrace AI will outperform companies that don’t. But the truly successful companies will not only embrace AI, they will also do so in trustworthy, transparent and ethical ways that allows humans to stay in control. It’s with these values that we designed and built our Silverfin Assistant; it works with the accountant, not by circumventing the accountant. The legal framework of the EU AI Act guides companies to apply AI in such safe and trustworthy ways – and proactive compliance to the AI Act should be seen as a competitive advantage. We see the accountants, in their roles as trusted advisors to their clients, as extraordinarily well positioned to offer guidance and support on this. “
Martin Lysholt Nielsen
VP of Product at Silverfin
Voor wie geldt deze verordening?
De AI Act is van toepassing op alle sectoren, zoals de gezondheidszorg, overheid, financiën, onderwijs en entertainment, met aangepaste regels voor opsporings- en veiligheidsdiensten. Concreet gelden de regels voor iedereen die AI ontwikkelt, op de markt brengt of inzet: producenten, integrators, importeurs en gebruikers. Iedereen moet kunnen aantonen dat de AI-systemen aan de regels voldoen en helderheid opvragen bij leveranciers.
Werkgevers wereldwijd worden meestal als gebruiker beschouwd. Maar wanneer een bedrijf een bestaand AI-systeem verder ontwikkelt en onder eigen naam beschikbaar stelt, kan het als aanbieder gecatalogeerd worden.
Enkele voorbeelden van sectoren met mogelijk risicovolle AI-systemen:
- Rekruteringskantoren die cv-selectiesoftware voor wervingsprocedures gebruiken
- Financiële instellingen die kredietscores gebruiken om een lening te geven
- Rechtshandhavende instellingen die software inzetten om de betrouwbaarheid van bewijs te evalueren.
Hoe werkt deze verordening?
De verordening volgt een risicogebaseerde benadering, waarbij aanbieders en gebruikers verplichtingen qua transparantie en risicobeheer opgelegd krijgen. Deze verplichtingen zijn afhankelijk van het risiconiveau van het toegepaste AI-systeem. De EU IA Act deelt alle AI-systemen op in vier risiconiveaus:
1. Minimaal risico
AI-systemen met minimaal of geen risico zijn niet onderworpen aan specifieke regelgevende eisen. Voorbeelden hiervan zijn AI-gestuurde videogames of spamfilters.
2. Beperkt risico
De overgrote meerderheid – ongeveer 85% – van de huidige Europese AI-systemen behoren tot deze categorie. Deze AI-systemen vereisen weliswaar transparantie, maar zijn onderworpen aan minder strenge controles. Denk aan AI-chatbots die met klanten communiceren: zij moeten hun gebruikers informeren dat ze met AI omgaan en hen (indien nodig) contact laten opnemen met een menselijke operator.
3. Hoog risico
Voor AI-systemen die een significante impact op leven en welzijn (kunnen) hebben, gelden strenge eisen. Deze systemen moeten voldoen aan strikte criteria voor datakwaliteit, transparantie, menselijk toezicht en robuustheid.
4. Onacceptabel risico
AI-systemen die de veiligheid, het welzijn of fundamentele rechten bedreigen, worden verboden. Denk aan AI-gestuurd speelgoed dat gevaarlijk gedrag bij kinderen aanmoedigt of systemen met onder meer gezichtsherkenning die werknemers kwetsbaar maken.
Hoe ziet de AI Act tijdlijn eruit?
Zoals al aangegeven, trad de AI-Verordening in werking op 1 augustus 2024. Deze verordening zal vanaf augustus 2026 volledig van toepassing zijn, al gelden de volgende uitzonderingen:
- Vanaf februari 2025 zijn AI-systemen met onacceptabel risico al verboden en moeten bedrijven maatregelen nemen om intern een adequaat niveau van AI-geletterdheid te behalen.
- Mei 2025 geldt als deadline voor aanbieders van general-purpose AI (GPAI) die een gedragscode moeten opstellen.
- Vanaf augustus 2025 worden al de verplichtingen (en sancties) voor algemene AI-modellen van toepassing. Elke lidstaat moet dan zijn nationale bevoegde autoriteit aanstellen en de regels voor sancties vaststellen en aan de Europese Commissie melden.
- Vanaf augustus 2027 worden de verplichtingen voor hoog-risicosystemen van kracht.
- Eind 2030 geldt de AI Act op bepaalde grote legacy IT-systemen van Europese en nationale overheden.
Welke boetes zijn van toepassing?
Het toezicht op de handhaving en toepassing van de AI-Verordening gebeurt door het Europese ‘AI-Office’. Tegelijk zullen op nationaal niveau één of meer lokale autoriteiten toezicht moeten houden op de handhaving.
De AI Act voorziet sancties voor overtreders:
- tot 35 miljoen euro per overtreding of 7% van de wereldwijde omzet van het concern voor het gebruik of verspreiding van verboden AI-systemen
- tot 15 miljoen euro of 3% van de jaaromzet voor andere overtredingen
- tot 7,5 miljoen euro of 1% van de bedrijfsomzet voor het verspreiden van onjuiste, onvolledige of misleidende informatie aan de overheid
Deze boetes zullen wel lager zijn voor kmo’s en start-ups.