Sinds juli vorig jaar, pronkt de Europese Unie met haar AI Act. Europa is hiermee de eerste die op grote schaal regelgeving rond artificiële intelligentie invoert. Deze reguleert de ontwikkeling, inzet en het gebruik van kunstmatige intelligentie (AI) binnen de Europese Unie. Maar wat omvat deze AI act nu precies? Hoe beschermt het onze menselijkheid en samenleving? Zullen we de impact hiervan voelen?
Op 12 juli 2024 publiceerde de EU “de verordening tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie”. De eerste fase hiervan trad in werking op 1 augustus, de laatste fase treed pas in werking op 1 augustus 2027. De AI act classificeert AI onder vier categorieën op basis van risico:
Deze opdeling wordt gemaakt op basis van het toepassingsgebied van de AI-systemen en niet op basis van de complexiteit ervan. Zo wordt bijvoorbeeld elk AI-systeem dat gebruikt wordt om sociale scores te berekenen van mensen als verboden geclassificeerd.
AI-systemen die in de eerste categorie vallen zijn, zoals de naam doet vermoeden, volstrekt verboden binnen de grenzen van de EU. Aan de andere kant van het spectrum, zijn systemen met minimaal risico compleet ongereguleerd. Wanneer het gaat om een beperkt risico is, wordt een transparantie verplichting opgelegd: het moet voor eindgebruikers duidelijk zijn dat ze met AI aan het interageren is. De focus van de AI act ligt op de AI-systemen met hoog risico.
AI-systemen die als verboden worden beschouwd, zijn volledig uitgesloten binnen de EU. Dit omvat systemen die gebruikmaken van subliminale, manipulatieve of misleidende technieken om gedrag te beïnvloeden en geïnformeerde besluitvorming te verstoren, wat aanzienlijke schade kan toebrengen. Ook systemen die kwetsbaarheden benutten die te maken hebben met leeftijd, handicap of sociaaleconomische omstandigheden om gedrag te beïnvloeden, vallen onder deze categorie. Een voorbeeld hiervan is elk AI-systeem dat wordt ingezet om sociale scores van mensen te berekenen.
De AI Act richt zich op AI-systemen die als hoog risico worden beschouwd. Deze systemen moeten voldoen aan strenge regels en verschillende verplichtingen. Ontwikkelaars zijn verplicht om een risicobeheersysteem op te zetten dat helpt bij het identificeren en aanpakken van mogelijke risico's. Ook is het cruciaal om gegevens te beschermen en de integriteit ervan te waarborgen. Daarnaast moet men een gedetailleerde technische documentatie bijhouden om aan te tonen dat men zich aan de regels houdt, wat een active actie vereist van de producent. Bovendien moeten eindgebruikers op de hoogte worden gesteld dat ze met een AI-systeem werken, en moeten er mechanismen zijn om menselijk toezicht te garanderen en in te grijpen waar nodig.
Voor AI-systemen met beperkt risico gelden lichtere transparantieverplichtingen. Ontwikkelaars en gebruikers moeten ervoor zorgen dat eindgebruikers zich ervan bewust zijn dat ze met een AI-systeem interageren. Dit geldt bijvoorbeeld voor chatbots en deepfakes.
AI-systemen met minimaal risico zijn grotendeels ongereguleerd. Voorbeelden hiervan zijn AI-gestuurde videogames en spamfilters. De meeste AI-toepassingen die momenteel op de EU-markt beschikbaar zijn, vallen in deze categorie.
De EU legt de nadruk op het doel van de applicatie voor de indeling van het risico en niet de intelligentie van het systeem. In andere woorden, als er een tool gemaakt wordt die het verbeteren van examens automatiseert dan behoort deze tot een AI-systeem met een hoog risico ongeacht het onderling AI-model de service gebruikt. Een niet te negeren nuance aangezien dit een groot deel bepaalt, wie de verantwoordelijkheid draagt in een AI-product.
In de industrie worden AI-modellen vaak gemaakt door grote bedrijven en maken jonge startups gebruik van de tools die tech giganten aanbieden. Een voorbeeld hiervan is een startup die het verbeteren van examens automatiseert. Dit bedrijf heeft nu een AI-systeem met een hoog risico, vaak geproduceerd door OpenAI, Meta, Microsoft, Google. De EU legt in dit geval de verantwoordelijkheid bij de startup. Deze keuze heeft zijn voor-en nadelen en de toekomst zal uitwijzen of dit voldoende is.
De eindgebruiker heeft ook een verantwoordelijkheid in dit verhaal. Op dit moment heb je de mogelijkheid als leerkracht om een toets of examen te laten verbeteren door een chatbot als chatGPT. Dit is illegaal als je de output niet zelf controleert aangezien het valt onder een hoog risico AI-systeem. Wie heeft hier de verantwoordelijkheid? Deze bedrijven zetten hun product niet in de markt als een tool om examen te verbeteren maar ze maken het wel mogelijk. Moeten deze systemen de mogelijkheid verbieden om taken als deze uit te voeren of moet het gebruik van bijvoorbeeld chatGPT standaard onder de categorie van hoog risico vallen?
De manier waarop AI-regelgeving wordt benaderd, verschilt enorm van regio tot regio. In de Verenigde Staten is het meer een verzameling van losse regels die per sector verschillen, zonder een overkoepelende federale wetgeving zoals de EU AI Act. In plaats daarvan zijn er richtlijnen die specifiek zijn voor sectoren zoals de gezondheidszorg en financiën. Toch heeft het National Institute of Standards and Technology (NIST) een AI Risk Management Framework ontwikkeld om richtlijnen te bieden voor het omgaan met AI-risico's.
China daarentegen heeft in theorie een veel actievere aanpak als het gaat om AI-regelgeving. Ze hebben verschillende maatregelen en richtlijnen geïntroduceerd om de ontwikkeling en het gebruik van AI te reguleren. De Chinese overheid legt de nadruk op ethische normen en veiligheid, met strikte regels voor privacy en beveiliging. Bovendien zijn er specifieke regels voor bepaalde AI-toepassingen, zoals gezichtsherkenning en sociale kredietsystemen. Maar of deze regelgeving effectief uitgevoerd wordt, valt te nog te zien.
Canada volgt een meer op principes gebaseerde aanpak voor AI-regelgeving. De Canadese regering heeft de "Directive on Automated Decision-Making" geïntroduceerd, die richtlijnen biedt voor het gebruik van geautomatiseerde besluitvormingssystemen door overheidsinstanties. Deze richtlijn benadrukt het belang van transparantie, verantwoording en het minimaliseren van vooroordelen.
De EU AI Act is een wetgeving die een uitgebreid kader biedt voor het reguleren van AI-systemen, afhankelijk van hun toepassingsgebied en risico's. Het hoofddoel is om de mensheid en de samenleving te beschermen tegen mogelijke schade door AI, zonder innovatie en technologische vooruitgang tegen te gaan. De aanpak van de EU wijkt sterk af van die in andere delen van de wereld, waar de regelgeving vaak meer gefragmenteerd en gericht is op specifieke sectoren.
Ben je zelf bezig met het ontwikkelen van een AI-systeem of wil je weten welke AI-systemen onder welke regels vallen? Neem dan eens een kijkje bij de EU AI Act Compliance Checker om te ontdekken hoe jouw AI-systeem geclassificeerd zou worden.