De regering van Maleisië overweegt momenteel om de labeling van digitale inhoud, geproduceerd door kunstmatige intelligentie (AI), verplicht te stellen. Dit staat beschreven in de Online Veiligheidswet van 2024, die naar verwachting aan het einde van dit jaar van kracht wordt.
Deze maatregel is voorgesteld vanwege de zorgen over het misbruik van AI-technologie in de digitale ruimte, vooral op sociale media, dat als een belangrijk platform wordt beschouwd voor het verspreiden van informatie, nieuws en entertainmentinhoud.
Communicatieminister Datuk Fahmi Fadzil benadrukte dat dergelijke labeling cruciaal is om digitale frauduleuze praktijken, laster en identiteitsfraude tegen te gaan, die toenemen naarmate de AI-technologie vordert.
Proactieve Controlemaatregelen
Het labelen van AI-gegenereerde inhoud wordt gezien als een proactieve stap om gebruikers vroegtijdig te waarschuwen dat de informatie die ze ontvangen mogelijk niet door een echt mens is geproduceerd. In theorie kan deze labeling helpen om misbruik te verminderen door de bewustwording van gebruikers over manipulatieve of valse inhoud te vergroten.
Bovendien kan het dienen als een zelfreguleringsmechanisme voor contentmakers, zodat zij verantwoordelijker omgaan met het gebruik van AI-technologie. Echter, de effectiviteit van deze labeling als enige controlemaatregel is beperkt als er geen alomvattende aanpak is die technische, educatieve en handhavingsaspecten omvat.
Uitdagingen van Automatische Labeling
Vanuit een technisch perspectief is automatische labeling van AI-inhoud geen gemakkelijke taak. Tegenwoordig zijn veel geproduceerde inhoud vaak hybride, wat betekent dat ze elementen van zowel menselijke als AI-inbreng combineren. Een schrijver kan bijvoorbeeld AI-tools gebruiken om een eerste concept te genereren, dat vervolgens handmatig wordt bewerkt.
In andere gevallen kan AI alleen worden ingezet voor bepaalde elementen, zoals afbeeldingen of titels, terwijl de gehele inhoud is geschreven door mensen. Deze subtiele verschillen maken het een grote uitdaging om AI-inhoud automatisch te identificeren en te labelen.
Ontbreken van Universele Labelmechanismen
De meeste huidige AI-systemen beschikken niet over een universeel labelmechanisme, zoals digitale watermerken, die kunnen bevestigen dat een bepaalde inhoud volledig door AI is gegenereerd. Hoewel enkele grote technologiebedrijven pogingen hebben gedaan om metadata of speciale markers in AI-creaties in te voegen, zijn er nog geen wereldwijde standaarden en volgen niet alle AI-ontwikkelaars deze methoden.
In deze zin zijn de bestaande detectietechnologieën nog niet volwassen genoeg om een duidelijke scheiding te maken tussen door mensen gemaakte inhoud en AI-inhoud. Detectiemodellen zoals GPTZero leveren nog steeds inconsistente resultaten, met fouten in de vorm van false positives en false negatives.
Handhaving van de Regelgeving
Wat betreft de handhaving vereist deze labeling een realistisch en effectief uitvoeringsmechanisme. AI-systemen kunnen worden gebruikt om verdachte inhoud vroegtijdig te filteren en te detecteren, maar moeten worden gecombineerd met gebruiker’s meldmechanismen en handmatige monitoring voor complexere gevallen.
Strategische samenwerking met sociale mediaplatforms zoals Facebook, X (voorheen Twitter), TikTok en YouTube is cruciaal, zodat labeling al in een vroeg stadium van de inhoudpublicatie kan plaatsvinden. Zonder betrokkenheid van de industrie is gebruikerslabeling onvoldoende om de verspreiding van risicovolle inhoud te beheersen.
Verhoogde Digitale Geletterdheid
Labeling van AI-inhoud kan ook het niveau van digitale geletterdheid in de samenleving verhogen. Wanneer gebruikers zich bewust zijn van het feit dat bepaalde inhoud is geproduceerd door een niet-menselijk systeem, zullen zij mogelijk voorzichtiger zijn bij het delen, geloven of handelen op basis van die inhoud. Echter, de effectiviteit van deze educatie hangt sterk af van de mate waarin de samenleving correct wordt geïnformeerd over de betekenis en implicaties van labeling.
Daarom moet de overheid duurzame en alomvattende bewustwordingscampagnes uitvoeren, zodat het publiek de functies en het belang van AI-generatieve labels binnen de huidige digitale context begrijpt.
Implicaties voor de Creatieve Industrie
Voor de creatieve sector heeft deze labeling zijn eigen implicaties. In domeinen zoals reclame, contentcreatie en digitale media publicatie is het gebruik van AI inmiddels een integraal onderdeel van de dagelijkse workflows. Veel bedrijven passen AI toe om ideeën te genereren, promotionele teksten te schrijven, visuele ontwerpen te creëren of audio en video te bewerken.
Een verplichte labeling voor elk element dat gebruikmaakt van AI kan verwarring veroorzaken, de industrie onder druk zetten op het gebied van naleving, en het risico met zich meebrengen om de reputatie van degenen die deze technologie gebruiken om hun efficiëntie te verbeteren te schaden.
Daarom zijn duidelijke en praktische richtlijnen nodig, zodat labeling innovatie niet in de weg staat of creativiteit niet belemmert.
Conclusie
Samenvattend, de voorstellen voor labeling van AI-gegenereerde inhoud zijn een belangrijke eerste stap in het aanpakken van de risico’s van misbruik van AI-technologie online. Het moet echter als onderdeel van een bredere aanpak worden gezien, die de ontwikkeling van robuuste detectietechnologie, voortdurende educatie in de samenleving, samenwerking met digitale platforms en een evenwichtig beleid omvat om de belangen van zowel gebruikers als de industrie te beschermen.
Alleen met een uitgebreide ondersteunende ecosysteem kan deze labeling een positieve en duurzame impact op de lange termijn hebben.







