De Toekomst van AI: Nieuwe Regelgeving ter Bescherming van de Samenleving en de Jeugd

Volgens het rapport van de adviescommissie voor de wetgeving over kunstmatige intelligentie (AI) heeft de commissie een voorstel gedaan om een aparte bepaling in te voeren over “Verboden handelingen op het gebied van AI”. Dit voorstel is vergelijkbaar met veel andere gespecialiseerde wetgeving, zoals de Cybersecuritywet en de Elektronische Handelswet.

De commissie gelooft dat het toevoegen van deze bepaling duidelijkheid zal verschaffen over de illegale activiteiten die plaatsvinden in de context van onderzoek, ontwikkeling, implementatie en gebruik van AI. Dit omvat ook de acties van gebruikers, organisaties of individuen die AI misbruiken voor verboden praktijken.

Daarnaast zou deze regulering bijdragen aan een betere afschrikking, transparantie en uniformiteit in de juridische toepassing, en zorgen voor een geïntegreerd en coherent reguleringssysteem voor het AI-veld.

De commissie heeft ook gesuggereerd om een verband te verduidelijken tussen de verboden handelingen en verschillende risiconiveaus, met name niet-acceptabele risico’s.

Er is een aandachtspunt naar voren gekomen voor de toevoeging van bepaalde verboden handelingen, zoals: het gebruik van AI om verkiezingen te manipuleren of te verstoren, het aansteken van politieke onrust, en inbreuk op de nationale veiligheid; het gebruik van AI om de emoties van individuen op de werkplek of in leeromgevingen te herkennen en te analyseren zonder toestemming van de betrokkenen; en het gebruik van AI voor discriminatie op basis van biometrische gegevens of andere persoonlijke kenmerken.

Volgens de commissie is de huidige wetsontwerp te algemeen en moedigt het alleen het onderzoek en de ontwikkeling van AI aan, zonder de speciale rol van AI in wetenschappelijk onderzoek te verduidelijken. Dit is een belangrijk gebied dat momenteel snelle vooruitgang boekt, vooral in de biomedische sector, materiaalwetenschappen en de farmaceutische industrie, waar AI in staat is om nieuwe materialen, eiwitten of medicijnen te ontwerpen en te ontwikkelen.

De commissie dringt erop aan om een apart hoofdstuk of sectie over AI in onderzoek en innovatie te creëren, waarbij de mechanismen voor het bevorderen van de toepassing van AI, het ondersteunen van computercapaciteit, het delen van onderzoeksdata en het opzetten van experimenten (sandbox) voor waardevolle wetenschappelijke projecten worden verduidelijkt.

Tevens moet er aandacht worden besteed aan mechanismen ter stimulering van investeringen en de toewijzing van middelen voor de ontwikkeling van nationale AI-infrastructuur. Dit houdt in dat er een budget moet worden vrijgemaakt voor laboratoria, onderzoeksinstituten en universiteiten om innovatie en doorbraken in de Vietnamese wetenschap in het AI-tijdperk te bevorderen.

Vanuit een sociaal perspectief benadrukt de commissie dat AI verschillende uitdagingen met zich meebrengt, waaronder veranderingen in arbeidsmodellen, het risico van vervanging van bepaalde beroepsgroepen, verspreiding van valse informatie, en risico’s van vooringenomenheid in automatische besluitvormingssystemen, samen met de impact op cultuur, ethiek en privacy.

Daarom is het noodzakelijk om een duidelijke beoordeling van de maatschappelijke impact van AI vast te stellen, zodat de toepassing van technologie veilig, transparant en verantwoordelijk gebeurt. Tevens moeten er mechanismen worden opgezet voor werktransitie, bijscholing en het oplossen van problemen die ontstaan voor werknemers die door AI veranderingen worden beïnvloed.

Voor kwetsbare doelgroepen, zoals kinderen, zijn er ook zorgen over de negatieve aspecten van AI. Wanneer kinderen te afhankelijk worden van AI voor antwoorden of het maken van huiswerk, kunnen ze de kans op het ontwikkelen van onafhankelijke denkvaardigheden, analyse- en creativiteit verliezen. Ze kunnen ook afwijkend gedrag vertonen en ten onrechte AI beschouwen als een echte vriend, wat hen kan leiden tot het opvolgen van gevaarlijke of ongepaste adviezen.

Uit onderzoek naar buitenlandse ervaringen blijkt dat de AI-wetgeving in Italië bepaalt dat kinderen onder de 14 jaar alleen AI mogen gebruiken met toestemming van hun ouders of voogd. Volgens recente voorstellen moeten gebruikers binnen de EU minimaal 16 jaar oud zijn om AI zonder ouderlijke toestemming te kunnen gebruiken.

In Californië (VS) bepaalt de wetgeving voor AI-chatbots dat AI-platforms verplicht zijn om minderjarigen onder de 18 jaar periodiek te informeren dat ze met een chatbot praten en niet met een echt persoon.

Daarom stelt de commissie voor om de opsteller van de regelgeving te verzoeken om bepaalde bepalingen ter bescherming van kinderen tegen de negatieve aspecten van AI uitgebreider te onderzoeken. Dit omvat richtlijnen voor een veilige en gezonde omgang met AI, waarbij de rol en verantwoordelijkheid van ouders en scholen in de supervisie en bewustwording over AI moet worden benadrukt.