Krista Pawloski herinnert zich het moment dat haar mening over de ethiek van kunstmatige intelligentie (AI) definitief veranderde. Als werknemer van Amazon Mechanical Turk, een platform dat bedrijven in staat stelt om freelancers voor verschillende taken in te huren, modereert en beoordeelt ze de kwaliteit van teksten, afbeeldingen en video’s die door AI zijn gegenereerd. Haar werk omvat ook dataverificatie.
Ongeveer twee jaar geleden, terwijl ze thuis aan haar eettafel werkte, nam ze een klus aan waarbij ze tweets moest labelen als racistisch of niet. Toen ze een tweet tegenkwam die de term “mooncricket” bevatte, was ze op het punt om op ‘nee’ te drukken, maar besloot ze de betekenis van het woord te controleren. Tot haar verrassing ontdekte ze dat het een racistische belediging was gericht tegen Afro-Amerikanen. “Ik zat daar en dacht na over hoeveel keer ik dezelfde fout misschien onbewust zou hebben gemaakt,” legt Pawloski uit. De potentieel schadelijke gevolgen van haar fouten en die van duizenden anderen werkten als een alarmbel voor haar.
Na jaren het interne functioneren van AI-modellen te hebben waargenomen, besloot Pawloski geen generatieve AI-producten meer voor persoonlijke doeleinden te gebruiken en adviseert ze haar familie om dit ook niet te doen. “Het is een absoluut ‘nee’ in mijn huis,” zegt ze, verwijzend naar het gebruik van tools zoals ChatGPT door haar tienerdochter.
Ze moedigt mensen in haar omgeving aan om AI vragen te stellen over onderwerpen waar ze zelf goed bekend mee zijn, zodat ze de fouten kunnen opmerken en begrijpen hoe feilbaar de technologie is. Telkens wanneer ze een lijst met nieuwe taken op de Mechanical Turk-platform ziet, vraagt ze zich af of wat ze doet gebruikt kan worden om mensen schade toe te brengen. Vaak, zo zegt ze, is het antwoord ja.
Amazon stelt in een verklaring dat werknemers zelf kunnen kiezen welke taken ze willen uitvoeren en dat ze de details van elke taak kunnen controleren voordat ze deze accepteren. Zowel tijdsduur, betaling als instructieniveaus worden vooraf vastgesteld door de bedrijven.
Pawloski is niet alleen in haar zorgen. Een aantal andere AI-evaluators, die de nauwkeurigheid van de antwoorden van deze systemen controleren, heeft ook aan The Guardian laten weten dat ze, na inzicht in hoe chatbots en beeldgeneratoren werken en hoe foutgevoelig hun resultaten zijn, hun vrienden en familie hebben aangespoord om generatieve AI niet of met veel voorzichtigheid te gebruiken.
Een AI-evaluator voor Google vertelt dat ze probeert AI zo min mogelijk te gebruiken, vooral toen ze merkte dat antwoorden op gezondheidsgerelateerde vragen vaak kritiekloos door collega’s werden geëvalueerd, terwijl ook zij geen medische opleiding heeft ontvangen.
“In huis heb ik mijn 10-jarige dochter verboden om chatbots te gebruiken. Ze moet kritisch leren denken, anders kan ze niet beoordelen of een resultaat goed is,” legt de evaluator uit.
AI-werknemers benadrukken dat er een gebrek aan kwaliteit en ondersteuning is in de huidige systemen. Ze moeten vaak met vage instructies, minimale training en onrealistische deadlines werken. Zoals Brook Hansen, een collega van Pawloski, opmerkt: “Als we niet goed zijn uitgerust met wat we nodig hebben, hoe kunnen dan de resultaten veilig, nauwkeurig of ethisch zijn?”
Het verspreiden van verkeerde informatie met een gevoel van zekerheid in plaats van het geven van geen antwoord wanneer er geen accurate informatie beschikbaar is, is een groot probleem voor generatieve AI. Een recente audit van toonaangevende AI-modellen toonde aan dat de kans op herhaling van foutieve informatie bijna verdubbelde.
Werknemers blijven waarschuwen voor deze tekortkomingen. Een evaluateur die werkt bij Google verhaalt dat hij er achter kwam dat hij geen vertrouwen meer had in de AI, vooral na negatieve ervaringen met de kwaliteit van de gegevens die werden gebruikt voor training. “Garbage in, garbage out,” zegt hij, verwijzend naar een bekend principe in de computerprogrammering.
De risico’s van AI en de verantwoordelijkheid voor de richting waarin deze technologie zich ontwikkelt, zijn nu onderwerp van discussie onder deze AI-werknemers. In een tijd waarin AI steeds meer invloed krijgt, pleiten zij voor meer transparantie en verantwoording binnen deze opkomende industrie.







