Digitalisering en Media

AI: Reguleren, maar niet te veel

AI: To regulate, but not too much - Shaping Europe

Hoe alomvattend is de nieuwe Europese AI-wetgeving?

Het hete hangijzer in de Europese Unie (EU) tegen het einde van het jaar is ongetwijfeld AI (artificial intelligence, of kunstmatige intelligentie). Beleidsmakers in Brussel werken met een strak tijdschema, terwijl politici uit de hele Unie hun zorgen proberen te uiten en door te drukken. Bedrijven die AI-oplossingen bieden, hebben ook een vinger in de pap. Trouw aan haar passie voor regelgeving en haar ambities om toonaangevend te zijn op digitaal gebied, streeft de EU ernaar om de AI-wet vóór oudejaarsavond als bindende wet aan te nemen. Dit zal ‘s werelds eerste allesomvattende AI-wet zijn. Nu de symbolische deadline snel nadert, wordt echter betwijfeld of dit haalbaar zal zijn, vanwege de complexiteit van de materie en de vele gevestigde belangen. Dit artikel bespreekt de inhoud van de wet, de debatten eromheen en enkele potentiële problemen.

Oorsprong en inhoud van de AI-wet 

De AI-wet maakt deel uit van de grotere digitale strategie van de EU. Hij werd voor het eerst voorgesteld door de Europese Commissie (EC) in 2021. Het hoofddoel is om duidelijke richtlijnen en normen vast te stellen voor de ontwikkeling, de inzet en het gebruik van AI-technologieën in verschillende sectoren. Het doel is bovendien om transparantie, verantwoordingsplicht en ethisch gebruik te waarborgen en tegelijkertijd een balans te vinden tussen innovatie en concurrentievermogen. AI-toepassingen zullen worden ingedeeld in een niveausysteem op basis van het risico dat ze vormen, en afhankelijk van de score zal de hoeveelheid regelgeving hoog, laag of ergens tussenin zijn. Er zijn vier categorieën voorzien:

  • Onaanvaardbaar risico 
  • Hoog risico 
  • Beperkt risico
  • Minimaal risico 

De technologie die onder de categorie onaanvaardbaar valt, wordt volledig verboden en omvat realtime biometrische identificatiesystemen, zoals gezichtsherkenning, of systemen die gedrag kunnen manipuleren, bijvoorbeeld AI-gestuurde games die leren van persoonlijke kwetsbaarheden om de besluitvorming te beïnvloeden. Toepassingen met een hoog risico moeten worden beoordeeld voordat ze op de markt worden toegelaten en moeten terugkerende beoordelingen ondergaan. Bovendien zullen AI-toepassingen die bedoeld zijn om te werken in kritieke infrastructuur (watervoorziening, energie, wegen, enzovoort) ook worden gecategoriseerd als een onaanvaardbaar risico.

Wat er bijvoorbeeld gebeurde met thuiswerken tijdens de COVID-19 pandemie, was dat specialisten in waterbeheer gemakkelijk hun werk konden doen met een enkele druk op de knop. Waterkwaliteit en toegang tot water werden beheerd door AI-gestuurde technologie. In de praktijk brengt dit risico’s met zich mee en daarom is het heel logisch dat er uniforme normen komen voor hoe de technologie over de hele linie wordt gebruikt.

Generatieve AI, waarvan ChatGPT het populairste voorbeeld is, valt in de categorie met beperkte risico’s en zal moeten voldoen aan regels voor transparantie en legaliteit van informatie. Dit omvat ook de recente trend van beeldmanipulatie, waardoor je eruit kunt zien als een Disney-prinses of een Star Wars-personage. Tot slot vallen spamfilters of AI-gestuurde videogames onder de categorie minimaal risico.

Stemmen in de arena: perspectieven en voorkeuren

Er zijn hier veel verschillende belanghebbenden. We hebben de EU-instellingen, waarbij de EC innovatie op de voorgrond plaatst, terwijl het Parlement aandringt op meer aandacht voor veiligheid voor de gemiddelde consument. De lidstaten leggen de nadruk op zaken als wetshandhaving en nationale veiligheid, zoals het gebruik van gezichtsherkenning, dus er is ook een strijd gaande over wie de bevoegdheid heeft of zou moeten hebben tussen het nationale en het Europese niveau. Binnen de huidige beoogde wet kan gezichtsherkenning alleen worden gebruikt voor veiligheidsdoeleinden in ernstige omstandigheden met specifieke toestemming van de betreffende rechtbank. Veiligheid en de handhaving ervan vallen echter onder de nationale bevoegdheid, dus er waren discussies over de vraag of de EU dit wel in een verordening kan regelen. Regeringen hebben gevraagd om wat meer speelruimte voor het gebruik van de technologie.

Aan de andere kant zijn vertegenwoordigers van de industrie huiverig voor te veel regelgeving, uit vrees dat dit innovatie en groeimogelijkheden zou belemmeren. We hebben het hier niet alleen over Europese bedrijven, maar ook over bedrijfsgiganten als Google en Meta, voorheen bekend als Facebook. Aangezien Europa een van de grootste consumentenmarkten is en grote bedrijven van buiten de EU een aanzienlijke voet aan de grond hebben in ons werelddeel, zullen ze worden onderworpen aan deze regelgeving als ze hun diensten willen blijven aanbieden. Dit is een oude strategie van de EU, om technologische ontwikkeling te leiden en te beïnvloeden door regelgevende normen vast te stellen en zo haar voorwaarden over de hele wereld te exporteren. Je zou kunnen stellen dat het zelfs meer gaat om het beïnvloeden van deze buitenlandse giganten dan om de Europese industrie, die voornamelijk bestaat uit kleine en middelgrote ondernemingen (KMO’s). Ironisch genoeg, toen ik ChatGPT vroeg me een lijst te geven van de top 15 bedrijven die AI ontwikkelen, was slechts één van hen (op de 15e plaats) Europees – Siemens. In die zin hebben Chinese en Amerikaanse bedrijven veel op het spel staan in dit debat, terwijl ze tegelijkertijd de markt kunnen bedreigen. Kun je je voorstellen dat we morgen wakker worden zonder Facebook, Instagram of TikTok?

Onderzoeksfaciliteiten in de EU hebben ook te maken met beperkingen, doordat door de EU gefinancierd onderzoek van oudsher afhankelijk is van het eindresultaat. Volgens sommige onderzoekers leidt dit tot minder ambitieuze onderzoeksprojecten, omdat ze bang zijn geen financiering te krijgen als het project niet slaagt. Maatschappelijke organisaties en consumentenbeschermingsorganisaties maken zich zorgen over gegevensbescherming en privacy. In deze nieuwe maar overvolle ruimte met veel stemmen is het gemakkelijk te zien hoe de richting verloren kan gaan in het lawaai. En niet minder belangrijk, de technologie ontwikkelt zich veel sneller dan de notoir trage EU-machine regels kan maken en handhaven. Aan het eind van de dag zitten we dus met de vraag: zelfs als de EU de AI-wet doorzet, zal dat genoeg zijn?

De uitdagingen en problemen schetsen

Hoewel het belangrijk is om AI te reguleren om ethische ontwikkeling en gebruik van de technologie te waarborgen, ontstaan er uitdagingen bij het doen van dit:

Definitie van AI

De EU definieert AI als “het vermogen van een machine om op mensen gelijkende vermogens te vertonen, zoals redeneren, leren, plannen en creativiteit”. Toch is dit nauwelijks een uitgebreide definitie als basis voor de meest uitgebreide wet op dit voortdurend evoluerende gebied. Waar plaatsen we machine learning? Wat is zelfs de reikwijdte van AI-technologieën? Voordat er een allesomvattende wetgeving komt, moeten deze fundamentele onduidelijkheden worden aangepakt, omdat ze direct van invloed zijn op de mogelijkheid om AI in te delen in de risiconiveaus en cruciaal zijn voor hoe de criteria er precies uit zouden zien.

Bedrijven bang voor verlies concurrentievermogen

Het is dan ook niet verrassend dat de bedrijfswereld zich zorgen maakt dat rigide regels de innovatiemogelijkheden zullen belemmeren en Europa achterop zullen doen geraken bij zijn strategische rivalen, de Verenigde Staten en China. In een open brief hebben honderdvijftig Europese bedrijven hun bezorgdheid geuit dat strikte naleving zal leiden tot een kritieke productiviteitskloof. Volgens de wet zullen ze geen biometrische gegevens zoals gezichtsherkenning kunnen gebruiken en zullen ze regelmatig rapporten moeten indienen over de auteursrechtelijke gegevens die gebruikt zijn voor het trainen van de modellen, wat de vooruitgang zal vertragen in vergelijking met buitenlandse bedrijven die niet aan deze regels hoeven te voldoen. 

Hoewel het verbieden van gezichtsherkenning een overwinning zou zijn voor privacy waakhonden, geloven de bedrijven dat dit een belemmering vormt voor het potentieel om de gebruikerservaring te verbeteren en een reeks nieuwe diensten aan te bieden, bijvoorbeeld het gebruik van gezichtsherkenning als een manier om tijd en aanwezigheid bij te houden, waardoor het risico op imitatie wordt geminimaliseerd. De EU zou dus haar technologische voorsprong inruilen voor overdreven voorzorgsmaatregelen. “Better safe than sorry” was een populaire uitdrukking tijdens COVID-19, maar zo werkt het economische model van de vrije markt niet. Het is een riskant spel waarbij strategische risico’s moeten worden genomen, in plaats van ze in de beginfase uit te sluiten.

De strijd tegen desinformatie 

Desinformatie is de afgelopen jaren een topprioriteit en een modewoord geworden. In het AI-debat is het niet precies duidelijk hoe de wet de mogelijkheden van chatbots om desinformatie te produceren zou aanpakken. Er zijn maatregelen over transparantie en legaliteit, maar niet over hoe we ervoor kunnen zorgen dat alleen feitelijke informatie wordt gegenereerd. Er is ook het onderliggende probleem dat deze modellen zich voeden met en leren van dingen op het internet, dus als er bijzonder scheve informatie beschikbaar is (zoals in de media), is de kans groot dat de AI een ingebouwde vooringenomenheid heeft. 

Een voor de hand liggende implicatie hiervan is het bevorderen van de verspreiding van verkeerde informatie als antwoord op een bepaalde vraag van de gebruiker, vooral in gevallen van zeer specifieke gebieden waar de informatie om te beginnen schaars is. Een andere mogelijkheid is dat chatbots leren te discrimineren en polariserende politieke meningen en algemeen discriminerend gedrag projecteren. Voorbeelden hiervan zijn een Amazon-project waarbij AI de cv’s van vrouwen discrimineerde, omdat het was getraind met cv’s van voornamelijk mannen en dacht dat mannen voorkeurskandidaten zijn. Een ander beroemd voorbeeld was Taybot van Microsoft, die moest leren hoe hij berichten op sociale media moest plaatsen en uiteindelijk beledigende en discriminerende inhoud tweette.

Kunnen we het verleden reguleren?

Hoewel de wet inderdaad bedoeld is om allesomvattend en alomvattend te zijn, heeft AI en vooral generatieve AI zich snel ontwikkeld. Volgens de verordening moeten bedrijven voortaan de auteursrechtelijke gegevens bekendmaken die zijn gebruikt om de modellen te trainen, maar hoe zit het met alle gegevens die daarvoor zijn verzameld? En aangezien er tot nu toe geen verplichting is om de mechanismen van gegevensverzameling openbaar te maken, hoe kunnen we er dan voor zorgen dat AI en vooral ChatGPT, de meest geavanceerde toepassing voor massaconsumptie, geen persoonlijke gegevens opslaat? In de nieuwste functies nodigt de ontwikkelaar, OpenAI, ons uit om een foto te maken van onze koelkast, zodat het ons kan vertellen wat we moeten koken. Als je ooit je naam hebt getypt of je levenssituatie hebt uitgelegd aan ChatGPT, weet je dan eigenlijk wel of deze informatie meteen is verwijderd? Het werd waarschijnlijk precies opgeslagen voor trainingsdoeleinden, vooral in het begin. In die geest zou wat buiten het auteursrecht valt, zelfs met de nieuwe verordening, onder de radar kunnen blijven van de voorziene European Artificial Intelligence Board.

Wat moeten we hieruit opmaken? 

Toen de wet in 2021 werd voorgesteld, zei Margrethe Vestager, vicevoorzitter van de Europese Commissie voor de Digitale Agenda, de beroemde uitspraak: “Op het gebied van kunstmatige intelligentie is vertrouwen een must, niet een ‘leuk om te hebben’”. Terwijl ze daarmee doelde op het belang om ervoor te zorgen dat de technologie betrouwbaar is, is er ook de onderliggende dimensie van vertrouwen tussen ons als burgers en de bestuurders die de regels maken en implementeren. De race om het reguleren van een constant veranderend landschap is erg uitdagend. Daarom moeten de inspanningen om te komen tot een robuust werkkader worden aangevuld met een versterkte maatschappelijke dialoog. In de digitale strategie moeten meer inspanningen worden geleverd om het publiek goed voor te lichten over het gebruik en de implicaties van AI, zodat mensen er veilig gebruik van kunnen maken als massaproduct. 

De dialoog op meerdere niveaus tussen verschillende belanghebbenden moet verder worden gestimuleerd, zodat zachte rechtsinstrumenten zoals algemene consensus of gemeenschappelijke doelen worden vastgesteld, aangezien regelgeving van traditionele stijl altijd moeilijk is om overeenstemming over te bereiken en traag te implementeren is. Ondertussen moeten de spelers samenkomen en alternatieve benaderingen bespreken. Een goed voorbeeld hiervan is de Britse top over AI-veiligheid die begin november werd gehouden en waar wereld- en technologieleiders beraadslaagden. Het resulteerde in de ondertekening van een verklaring die streeft naar gezamenlijk beheer van AI-gerelateerde risico’s en werd zelfs ondertekend door China. Wanneer we geconfronteerd worden met een wereldwijd fenomeen, hebben we wereldwijde actie nodig, die niet altijd gemakkelijk te bereiken is met traditionele manieren van besturen.

Iva Dzhunova behaalde een BA in Internationale Betrekkingen aan de Rijksuniversiteit Groningen en volgt nu een MA in European Policy aan de Universiteit van Amsterdam.

Beeld: Shutterstock