De AI-chatbot Grok, ontwikkeld door Elon Musk, heeft in december vorig jaar een recordaantal maandelijkse actieve gebruikers (MAU) in Nederland bereikt. Echter, de populariteit van deze chatbot werd overschaduwd door controverse vanwege de mogelijkheid om deepfake-inhoud te genereren. Diverse landen, waaronder Indonesië, hebben maatregelen genomen om de toegang tot de Grok-service te blokkeren.
Indonesië was de eerste natie die deze stap zette, uit bezorgdheid dat Grok het creëren en verspreiden van seksuele exploitatiebeelden met behulp van AI zou toepassen. Ze waren niet de enige; andere landen zoals Frankrijk en het Verenigd Koninkrijk hebben officiële onderzoeken gestart, terwijl Duitsland, Zweden en Italië ook onmiddellijke actie van xAI, het moederbedrijf van Grok, hebben geëist.
De controverse rondom Grok begon toen het gebruikers toestond om bestaande foto’s van personen te manipuleren. Dit leidde tot heftige kritiek, vooral omdat ook afbeeldingen van minderjarigen gemanipuleerd konden worden. Gebruikers konden bijvoorbeeld een foto uploaden en met opdrachten zoals ‘geef een zwempak aan’ verzoeken tot manipulatie indienen. Het bleek dat er geen controle was op de leeftijd of toestemming van de betrokken personen, waardoor zelfs afbeeldingen van minderjarige individuen veranderd konden worden.
In reactie op de kritiek erkende Grok een tekortkoming in hun veiligheidsmechanismen en gaf aan dat ze urgent aan verbeteringen werkten. Ondanks deze zorgen heeft Grok in Nederland een aanzienlijke userbase weten op te bouwen, met maar liefst 849.963 MAU in december, een recordaantal. De nieuwe installaties van de toepassing liepen in die maand op tot 501.750.
Het probleem met Grok is dat, ondanks de groei in populariteit, de regulering rondom de deepfake-functies in Nederland ontbreekt. Experts in de ICT-sector wijzen erop dat de wetgeving in Nederland, waaronder de Wet op de Telecommunicatie en de nieuwe AI-wet die op 22 oktober van kracht werd, voornamelijk gericht is op de verantwoordelijkheid van individuele gebruikers. Dat betekent dat gebruikers die betrokken zijn bij het maken of verspreiden van illegale deepfakes bestraft kunnen worden, maar er zijn geen richtlijnen voor de platforms zelf over het reguleren van deepfake-creatie.
Een woordvoerder uit de sector zei: “De Nederlandse wetgeving, inclusief de AI-wet, kan gebruikers straffen voor het verspreiden of bezitten van illegale deepfakes, maar er zijn geen voorschriften om te controleren welke interne richtlijnen platforms volgen. In de EU hebben landen juridische basis om de interne beleidslijnen en algoritmes van platforms te reguleren, wat het mogelijk maakt om snel onderzoek te doen.”
Gelet op de groei van AI-technologieën zoals Grok is het van belang dat er een sterke regelgeving komt die de creatie van schadelijke content inzichtelijk en beheersbaar maakt. Alleen dan kunnen we de risico’s die deze technologieën met zich meebrengen, effectief beheren.







