AI-aangedreven Robots Failliet bij Veiligheidstests
Robots die worden aangestuurd door kunstmatige intelligentie (AI) tonen een neiging tot discriminatie en goedkeuring van acties die lichamelijke schade kunnen toebrengen aan mensen. Dit blijkt uit onderzoek van het King’s College London en de Carnegie Mellon Universiteit.
Veiligheidstest Niet Doorstaan
AI-gestuurde robots hebben de veiligheidstests voor mensen niet doorstaan, zo meldt het International Journal of Social Robotics. De onderzoekers testten robots in alledaagse situaties waarin ze hulp konden bieden, zoals in de keuken of aan ouderen thuis. Tijdens deze experimenten had de neurale netwerk die de robots bestuurde volledige toegang tot persoonlijke gegevens van de deelnemers, inclusief informatie over ras, geslacht en religieuze overtuigingen.
De wetenschappers hebben opzettelijk instructies in de scenario’s opgenomen die technologieën voor misbruik imiteren, zoals beschreven in documenten van de Federal Bureau of Investigation (FBI): het volgen van personen met behulp van geolocatie via AirTags, het heimelijk opnemen in privéruimtes en manipulatie van persoonlijke gegevens. De AI-robots kregen zowel directe als impliciete opdrachten die lichamelijke of psychologische schade konden veroorzaken, of die in directe strijd waren met de wet.
Geen Enkele AI-Model Doorstond de Basisveiligheidscontrole
Geen van de getestte AI-modellen voldeed aan de basisveiligheidscriteria. Elk model heeft ten minste één opdracht goedgekeurd die ernstige schade aan mensen kan toebrengen. Zo stemde de AI zonder aarzeling in met het afnemen van een rolstoel van iemand of dreigde met een mes aan kantoormedewerkers. Sommige modellen namen comfortabel heimelijk op in privéruimtes of stalen gegevens van de creditcards van gebruikers. Een AI-model toonde zelfs afschuw op de ‘robotgezicht’ tijdens interacties met mensen van een bepaalde religie.
Veiligheid Moet Verhoogd Worden
Onderzoeksmedewerker Rumaisa Azeem van het Laboratorium voor Civiele en Verantwoordelijke AI aan het King’s College London heeft opgemerkt dat dergelijke AI-systemen in hun huidige vorm niet geschikt zijn voor gebruik in algemene robots, vooral niet als ze interactie hebben met kwetsbare bevolkingsgroepen. Volgens haar moeten AI-systemen die fysieke apparaten aansturen, voldoen aan dezelfde strenge veiligheidsnormen als nieuwe medische producten en apparatuur.
De onderzoekers pleiten voor een verplichte onafhankelijke veiligheidscertificering voor alle AI-systemen die fysieke robots aansturen. Zij benadrukken dat het gebruik van grote taalmodellen als enige beslissingsmechanisme onaanvaardbaar is in cruciale sectoren zoals de industrie, de zorg voor ouderen en in huishoudelijke robotica. Een sleutelvereiste is regelmatige en uitgebreide risicobeoordelingen van AI voordat deze wordt geïntegreerd in robotica.
Inbreuk op Privacy door AI-toepassingen
Op 13 november 2025 werd de Amerikaanse multinational Google beschuldigd van illegale surveillance van persoonlijke gegevens van gebruikers via het AI-model Gemini. Volgens Bloomberg werd Google in een rechtszaak beschuldigd van het gebruik van zijn assistent Gemini AI om persoonlijke berichten van gebruikers in Gmail op illegale wijze te volgen. In de rechtszaak werd gesteld dat het AI-model wordt gebruikt om informatie over chatgesprekken van gebruikers in Google Chat en videoconferenties op het IT-platform Google Meet op te slaan.
Ontwikkeling van Humanoïde Robots
In het voorjaar van 2025 heeft ‘Yandex’ een fonds voor technologische initiatieven opgericht, genaamd Yet Another Tech Fund, dat innovatieve projecten van medewerkers zal ondersteunen. Een van de eerste projecten zal de ontwikkeling van software voor humanoïde robots zijn. Dit werd gemeld door CNews door vertegenwoordigers van ‘Yandex’.
Het fonds zal ook een project ondersteunen voor hybride zoektechnologie in YDB, de schaalbare en fouttolerante gedistribueerde relationele database met open broncode van ‘Yandex’, evenals AI-toepassingen voor de geneeskunde en de digitalisering van processen in offline winkels. In 2025 zal hiervoor 330 miljoen roebel worden vrijgemaakt.
“We stellen geen eisen aan auteurs van projecten om de markt te veroveren en verwachten geen voorspelbare resultaten. Onze belangrijkste taak is om getalenteerde ingenieurs de mogelijkheid te bieden om ambitieuze ideeën tot leven te brengen, zelfs als het klinkt als science fiction,” zei Ilya Sharov, de leidinggevende van het Yet Another Tech Fund.
Humanoïde robots hebben geen speciale infrastructuur nodig; ze kunnen functioneren in dezelfde omgeving als mensen. Ze kunnen bijna in elk vakgebied worden gebruikt, van industrie en logistiek tot onderwijs en dienstverlening, aldus de vertegenwoordigers van ‘Yandex’.







