Onderzoek van OpenAI heeft zorgen geuit over het gebruik van Chat-GPT en de mogelijke toename van gevoelens van eenzaamheid onder gebruikers die intensief met de chatbot communiceren. In maart dit jaar, juist voordat sociale media werden overspoeld met anime-achtige afbeeldingen gemaakt met Chat-GPT, publiceerde OpenAI twee interessante artikelen die weinig aandacht kregen. Deze artikelen, geschreven in samenwerking met onderzoekers van het Massachusetts Institute of Technology (MIT), onderzoeken de emotionele gevolgen van het gebruik van de chatbot, vooral bij zware gebruikers.
Eén van de onderzoeken was een soort veldonderzoek dat reguliere gesprekken analyseerde tussen gebruikers en de chatbot. De onderzoekers bestudeerden ongeveer drie miljoen gesprekken en gebruikten een automatisch systeem om de identiteit van gebruikers en de inhoud van de gesprekken vertrouwelijk te houden. Daarnaast werd ongeveer 4.000 gebruikers gevraagd een vragenlijst in te vullen over hun emotionele toestand. Het tweede onderzoek was een gecontroleerd experiment waarin duizend deelnemers dagelijks een maand lang met de chatbot praatten over persoonlijke onderwerpen, niet-persoonlijke onderwerpen en onderwerpen naar keuze, terwijl ze ook rapporteerden over hun emotionele toestand. Beide studies waren bedoeld om elkaar aan te vullen: het eerste gaf inzicht in het reguliere gebruik van de chatbot zoals weerspiegeld in dagelijkse gesprekken, terwijl het tweede het effect onder gecontroleerde omstandigheden bestudeerde.
De onderzoekers bestudeerden de impact van de gesprekken op vier gebieden met betrekking tot het mentaal welzijn van gebruikers: eenzaamheid, sociale betrokkenheid bij familie en vrienden, emotionele afhankelijkheid van de chatbot en problematisch gebruik. Problematisch gebruik werd gedefinieerd op basis van symptomen van onthouding bij gebrek aan toegang tot de chatbot, verlies van controle over het gebruik en stemmingswisselingen veroorzaakt door het gebruik ervan. Er werden ook verschillen onderzocht tussen de geschreven versie van de chatbot, de neutrale spraakversie en de geavanceerde spraakversie met emotionele nuancering.
De studies suggereren dat er een verband bestaat tussen langdurig gebruik van de chatbot en de ontwikkeling van verhoogde emotionele afhankelijkheid, een afname van sociale betrokkenheid en een toename van problematisch gebruik van Chat-GPT, zoals gerapporteerd door gebruikers zelf.
De onderzoekers concentreerden zich vooral op mensen die veel tijd besteden aan gesprekken met de geavanceerde spraakchat. Deze gebruikers hebben de neiging om de chatbot als een vriend te beschouwen en geven vaak aan dat ze zich comfortabeler voelen om met de chatbot te praten dan om face-to-face te communiceren met andere mensen. Veel van hen vrezen dat ze gefrustreerd raken als er veranderingen optreden in de eigenschappen van de chatbot.
Bovendien onderzochten de onderzoekers ook de inhoud van de gesprekken en analyseerden ze patronen in het gedrag van gebruikers, bijvoorbeeld gebruikers die emotionele steun zochten of genegenheid voor de chatbot uitten. De impact van de spreekstijl van de chatbot werd ook bekeken: toonde de chatbot interesse in de gebruiker, stelde hij persoonlijke vragen of gebruikte hij koosnaampjes? Dit suggereert dat niet alleen gebruikers de emotionele inhoud van communicatie aandrijven, maar dat de kunstmatige intelligentie zelf daar ook actief bij betrokken is.
De conclusies van de onderzoekers over de communicatiestijlen – geschreven, neutrale spraak of geavanceerde spraak – waren gemengd. Korte interacties met de spraakchat waren gerelateerd aan een beter mentaal welzijn vergeleken met de geschreven chat, maar bij langdurig gebruik draaide deze trend om. Het leek erop dat ook de oorspronkelijke mentale toestand van de gebruikers hierbij een rol speelde: gebruikers die van tevoren eenzaamheid rapporteerden, vertoonden lagere mentale welzijnswaarden aan het eind van het gecontroleerde experiment.
De onderzoekers concludeerden dat deze studies slechts een eerste verkenning zijn van de mentale impact van het gebruik van AI-gebaseerde chatbots. De data-analyse onthult een verband tussen de toestand van de gebruikers en de aard van hun gebruik, maar biedt geen causaal verband aan. Alle gegevens werden verzameld van volwassen gebruikers, dus de effecten op jongeren vereisen verdere aandacht. Bovendien duurde het gecontroleerde onderzoek slechts een maand, terwijl Chat-GPT en vergelijkbare kunstmatige intelligenties ons al meer dan twee jaar omringen. Daarom zijn aanvullende onderzoeken nodig om de effecten van langdurig gebruik van de chatbot verder te bestuderen, evenals de potentiële lange termijn gevolgen.
De onderzoekers merkte op dat de zorgwekkende gedragingen die werden vastgesteld, alleen kenmerkend waren voor een kleine, afwijkende groep gebruikers en dat, zoals ze het formuleerden, dit “onevenredige activiteit van een kleine groep gebruikers” betreft. Voor zowel goed als slecht hebben bedrijven zoals OpenAI, met ongeveer 400 miljoen gebruikers per week, een significante impact op de menselijke samenleving. De dagelijkse toegang tot zo’n enorme gebruikersgroep legt een verantwoordelijkheid op hen om veilig gebruik van chatbots te waarborgen, richtlijnen te definiëren voor gesprekken die voordelen bieden aan de gebruikers, en om beleid te voeren ter monitoring van problematisch gedrag. Tot dat moment, laat schattige anime-illustraties je niet afleiden van de zorgwekkende gevolgen van het gebruik van kunstmatige intelligentie.







