Een toonaangevende expert op het gebied van kunstmatige intelligentie heeft zijn voorspellingen over het einde van de mensheid herschikt, en gesteld dat het meer tijd zal kosten dan aanvankelijk verwacht voor AI-systemen om zelfstandig te coderen. Dit zou hun ontwikkeling naar superintelligent gedrag kunnen versnellen.
Daniel Kokotlajlo, een voormalig werknemer van OpenAI, heeft in april een levendige discussie op gang gebracht met zijn “AI 2027” scenario. Dit scenario schetst een oncontroleerbare ontwikkeling van AI die leidt tot de creatie van superintelligentie, die uiteindelijk de wereldleiders te slim af is en de mensheid uitroeidt. Al snel kreeg dit scenario zowel aanhangers als critici.
De vice-president van de Verenigde Staten, JD Vance, lijkt “AI 2027” te hebben genoemd in een interview waarin hij sprak over de wapenwedloop tussen de VS en China op het gebied van kunstmatige intelligentie. Gary Marcus, een gerenommeerd professor in de neurologie aan de New York University, omschreef het als “een werk van fictie”, terwijl hij andere conclusies als “pure sciencefiction onzin” bestempelde.
De tijdslijnen voor transformerende kunstmatige intelligentie, soms aangeduid als AGI (Artificial General Intelligence), die in staat is om mensen in de meeste cognitieve taken te vervangen, zijn een integraal onderdeel geworden van gemeenschappen die zich bezighouden met de veiligheid van AI. De lancering van ChatGPT in 2022 heeft deze tijdlijnen aanzienlijk versneld, met voorspellingen over de opkomst van AGI binnen enkele tientallen jaren of zelfs jaren.
Kokotlajlo en zijn team hebben 2027 als het jaar vastgesteld waarin AI “volledig autonoom kan coderen”, hoewel ze opmerkten dat dit een “waarschijnlijk” scenario is en dat sommigen van hen langere tijdlijnen voor waarschijnlijker houden. Er lijken nu twijfels te rijzen over de nabijheid van AGI en of de term in feite enige betekenis heeft.
“Veel mensen hebben hun tijdlijnen het afgelopen jaar verder uitgesteld, omdat ze zich realiseerden hoe onvoorspelbaar de prestaties van AI zijn,” zegt Malcolm Murray, een expert in risicobeheer met betrekking tot AI. “Voor een scenario zoals AI 2027 heeft AI veel meer praktische vaardigheden nodig die nuttig zijn in complexe echte situaties. Ik denk dat mensen beginnen te beseffen welke enorme inertie er in de echte wereld bestaat die de volledige sociale verandering zal vertragen.”
“De term AGI maakte zin in het verleden, toen AI-systemen zeer gespecialiseerd waren, zoals schaken en Go,” voegde Henry Papadatos, directeur van de Franse non-profitorganisatie SaferAI, toe. “Tegenwoordig hebben we systemen die al behoorlijk algemeen zijn, waardoor de term minder betekenisvol is geworden.”
Kokotlajlo’s “AI 2027” is gebaseerd op de gedachte dat AI-agenten in staat zullen zijn om het coderen en R&D-werk in kunstmatige intelligentie volledig te automatiseren tegen 2027, wat zal leiden tot een “explosie van intelligentie”. Dit houdt in dat AI-agenten steeds slimmer versies van zichzelf zullen creëren, wat mogelijk leidt tot de uitroeiing van de mensheid tegen het midden van de jaren 2030 voor meer zonnepanelen en datacenters.
Echter, in zijn laatste update herzien Kokotlajlo en zijn co-auteurs hun verwachtingen over wanneer kunstmatige intelligentie zelfstandig kan coderen, en stellen ze nu dat dit waarschijnlijk pas begin jaren ’30 van de 21e eeuw zal gebeuren. De nieuwe voorspelling plaatst 2034 als de nieuwe horizon voor “superintelligentie” zonder een specifieke hypothese over wanneer AI de mensheid zou kunnen vernietigen.
“De zaken lijken iets langzamer te verlopen dan het AI 2027-scenario. Onze tijdlijnen waren al langer dan 2027 toen we publiceerden, en nu zijn ze nog iets langer,” schreef Kokotlajlo in een bericht op X.
Het creëren van kunstmatige intelligentie die in staat is om onderzoek te doen naar kunstmatige intelligentie blijft een stevige doelstelling voor de leidende AI-bedrijven. De CEO van OpenAI, Sam Altman, verklaarde in oktober dat het hebben van een geautomatiseerde AI-onderzoeker tegen maart 2028 een “interne doelstelling” is, maar voegde eraan toe: “We kunnen volledig falen in dit doel.”
Andrea Castagna, een beleidsresearcher op het gebied van kunstmatige intelligentie, gevestigd in Brussel, merkte op dat er verschillende complicaties zijn die de dramatische tijdslijnen van AI niet in overweging nemen.
“Het feit dat je een superintelligente computer hebt, gericht op militaire activiteiten, betekent niet dat je deze kunt integreren in de strategische documenten die we de afgelopen 20 jaar hebben opgesteld. Naarmate we kunstmatige intelligentie verder ontwikkelen, zien we dat de wereld niet sciencefiction is. De wereld is veel gecompliceerder dan dat.”







