ChatGPT en andere AI-chatbots vervangen steeds vaker zoekmachines. In plaats van zelf informatie te verzamelen uit verschillende bronnen, geven deze krachtige taalmodellen je kant-en-klare antwoorden. Dit brengt echter de kleine, maar reële kans met zich mee dat deze antwoorden volledig verzonnen kunnen zijn.
Er blijkt nog een ander probleem te zijn: hoe handig het ook is, deze weg naar kennis leidt niet tot een dieper begrip. Dit blijkt uit een nieuw onderzoek gepubliceerd in PNAS Nexus.
“Wanneer mensen afhankelijk zijn van grote taalmodellen om informatie over een bepaald onderwerp te samenvatten, verwerven ze een oppervlakkiger begrip van de kennis dan wanneer ze een standaard zoekopdracht in Google uitvoeren,” schrijft co-auteur Shiri Melumad, professor aan de Wharton School van de Universiteit van Pennsylvania, in een artikel voor The Conversation.
De conclusies zijn gebaseerd op zeven studies met meer dan 10.000 deelnemers. De mensen kregen de opdracht om iets te leren over een bepaald onderwerp en werden willekeurig verdeeld in twee groepen. De eerste groep mocht alleen gebruikmaken van een AI-chatbot zoals ChatGPT, terwijl de tweede groep op een traditionele manier via Google zocht. Aan het einde moest iedereen een advies aan een vriend schrijven over wat ze hadden geleerd.
Het resultaat is duidelijk. De groep die op AI vertrouwt, geeft kortere en algemenere aanbevelingen, met minder feitelijke diepgang. De deelnemers die via Google zoeken, formuleren uitgebreidere en zinvollere richtlijnen. Het verschil blijft bestaan, zelfs wanneer de onderzoekers de condities gelijkstellen – bijvoorbeeld door beide groepen dezelfde informatie te verstrekken of de tools die zij gebruikten te controleren.
“De data bevestigen dat zelfs bij gelijke feiten en platforms, leren van gesynthetiseerde antwoorden de eerste groep leidt tot oppervlakkigere kennis in vergelijking met zelfstandig informatie verzamelen, interpreteren en samenvatten via standaard weblinks,” legt Melumad uit.
De langetermijneffecten van AI op de hersenen worden nog steeds onderzocht, maar de opkomende bewijsstukken suggereren al zorgwekkende trends. Groot onderzoek van teams van Carnegie Mellon en Microsoft laat zien dat bij mensen die AI als onfeilbaar beschouwen, het kritisch denken begint af te nemen. Een ander onderzoek verbindt een ernstige afhankelijkheid van studenten van ChatGPT met slechtere geheugenprestaties en lagere cijfers.
“Een van de basisprincipes van leren is dat we het beste begrijpen wanneer we actief met het materiaal werken,” benadrukt Melumad. “Zoeken via Google creëert meer ‘frictie’. We openen verschillende links, lezen, vergelijken, interpreteren en synthetiseren zelf de informatie.”
Bij blind vertrouwen op AI wordt dit proces in plaats van door de gebruiker uitgevoerd, waardoor leren een passieve activiteit wordt, voegt ze toe.
Terwijl wetenschappers de risico’s blijven onderzoeken, dringt technologie al snel door in het onderwijs en wordt ze massaal gebruikt voor afschrijven en bedrog. OpenAI, Microsoft en Anthropic investeren miljoenen in trainingen voor docenten over hoe ze met AI in de klas kunnen werken, terwijl universiteiten samenwerken met deze bedrijven om eigen chatbots voor studenten te ontwikkelen – zoals het DukeGPT-project van de Duke University.







