Twee jaar geleden zaten een paar 22-jarige vrienden, die elkaar in de middelbare school in Michigan ontmoet hadden, binnen in het hersenlab van de Tsinghua Universiteit in Beijing, terwijl ze een multimiljoen aanbod van Elon Musk overwegen.
De twee hadden iets ongewoons gedaan: ze bouwden een klein groot-taalmodel (LLM) dat niet was getraind op enorme internetdata, maar op een zorgvuldig geselecteerde set van hoogwaardige gesprekken. Ze leerden het model zichzelf te verbeteren via reinforcement learning (RL), een techniek waarbij een model leert zoals een mens of dier: door beslissingen te nemen, feedback te ontvangen en vervolgens gedrag te verfijnen door beloningen en straffen.
Tijdens die periode was bijna niemand hiermee bezig. De enige andere groep die RL voor LLM’s onderzocht, was DeepSeek, de Chinese concurrent van OpenAI die later Silicon Valley zou doen schrikken.
De studenten, William Chen en Guan Wang, noemden hun model OpenChat, en ze maakten het open source uit een impuls. Tot hun verbazing ging OpenChat viraal.
“Het werd erg beroemd,” vertelde Chen aan Fortune. Onderzoekers van Berkeley en Stanford namen de code over, bouwden daarop voort en begonnen het werk te citeren. In academische kringen werd het een van de vroegste voorbeelden van hoe een klein model dat op goede data was getraind, in staat was om boven zijn gewicht te presteren.
Toen belandde het op een plek waar Chen het nooit had verwacht: in Elon Musk’s inbox. Musk stuurde een e-mail via zijn nieuwe bedrijf, xAI, dat de studenten wilde aantrekken met een multimiljoen betaald pakket. Het was een soort aanbod waar jonge oprichters van dromen.
Ze aarzelden. Toen weigerden ze het aanbod. “We besloten dat groot-taalmodellen hun beperkingen hebben,” zei Chen. “We willen een nieuwe architectuur die de structurele beperking van [groot-schalige machine learning] zal overwinnen.”
In plaats van de deal te accepteren, lieten ze het comfortabele momentum van OpenChat achter zich en streefden ze iets veel ambitieuzers na: een “hersengeïnspireerd” redeneringssysteem waarvan zij geloofden dat het huidige AI-modellen zou overtreffen.
Die beslissing leidde, twee jaar later, tot Sapient Intelligence — en tot een model dat sommige van de grootste AI-systemen ter wereld overtrof in tests van abstract redeneren. Ze zijn ervan overtuigd dat hun model de eerste zal zijn die “AGI” of “artificiële algemene intelligentie” bereikt, de zogenaamde heilige graal in AI-onderzoek, waarbij de intelligentie van een machine kan concurreren met of zelfs de menselijke intelligentie kan overtreffen in elke cognitieve taak.
Tussen Twee Werelden
Chens pad naar het afwijzen van Musk begon niet in Beijing, maar in Bloomfield Hills, Michigan, met een jeugdobsessie die zijn ouders gek maakte. “Toen ik jong was, nam ik dingen uit elkaar en zette ze nooit meer in elkaar,” zei hij. “Dat is wat me begon te interesseren.”
William Chen werd geboren in China, groeide deels op in San Diego en Shenzhen, en werd uiteindelijk naar de Cranbrook Schools gestuurd – een prestigieuze privé-internaat in Michigan – rond de tijd dat hij Wang ontmoette, een jongen van zijn leeftijd die naar een andere school ging maar een even ongebruikelijke obsessie had.
Op de eerste dag dat ze elkaar ontmoetten, raakten de twee verwikkeld in een lang gesprek over wat Chen hun “metadoelen” noemt, het ultieme doel van hun leven.
Voor Wang was dat metadoel AGI, lang voordat de term populair werd. Hij beschreef het in de middelbare school als een “algoritme dat elk probleem oplost.” Chens metadoel was anders maar complementair: alles optimaliseren, van technische problemen tot werkelijke systemen.
“Het was een onmiddellijke afstemming,” zei Chen. Tegenwoordig vragen ze elke persoon die ze aannemen wat hun metadoelen zijn.
Chen richtte de droneclub van de school op, verzocht de administratie studenten toestemming te geven om quadcopters op de campus te vliegen, en bracht uren door met prutsen in robotica-laboratoria. Ze waren de kinderen die laat bleven, hardware kapot maakten en bleven experimenteren.
“Het was een geweldige tijd,” zei Chen.
Toen de toelatingen voor de universiteit binnenkwamen, werd Chen geaccepteerd aan Carnegie Mellon en Georgia Tech — de voor de hand liggende, prestigieuze paden voor een getalenteerde robotica-student. Wang was ondertussen toegelaten tot de Tsinghua Universiteit, China’s elite engineering powerhouse, vaak beschreven als “China’s MIT.”
Chen bezocht de campus in Beijing, maakte een rondleiding door de laboratoria en maakte een beslissing die maar weinig Amerikaanse middelbare scholieren zouden nemen: hij volgde Wang naar Tsinghua.
De overgang was niet gemakkelijk. Het studieprogramma was intensief, en de twee hadden het moeilijk, sommige vakken haalden ze niet.
“De meeste Chinese kinderen zijn echt — ik haat het om stereotypisch te zijn — maar ze zijn echt goed in studeren,” lachte Chen. “Ze zijn echt scherp.” Toch was hij verrast door hoe ondersteunend zijn docenten waren toen ze hoorden wat hij en Wang aan het bouwen waren.
“Ze zeiden: ‘Hé, ik weet wat je probeert te maken — het is een heel goed idee. Ik geloof eigenlijk in het concept van AGI,’” zei hij.
Bijna iedereen in het Brain Cognition and Brain-Inspired Intelligence Lab van Tsinghua wist wat de twee studenten aan het proberen waren: een nieuwe benadering van machine-intelligentie die de dominante aannames van het veld uitdaagde.
Een Doorbraak om 3 uur ’s Nachts
Het was in het hersenlab van Tsinghua waar ze het Hiërarchisch Redeneringsmodel (HRM) ontwikkelden, de architectuur waarvan ze geloven dat deze transformers volledig kan overtreffen. Als OpenChat hun bewijs van concept was, was HRM de moonshot waar ze naartoe hadden gewerkt. Het moment waarop het zich bewezen had, kwam, toepasselijk genoeg, midden in de nacht.
Op een willekeurige vroege ochtend in juni dit jaar, om 3 uur ’s nachts, staarden Chen en Wang naar de benchmarkresultaten die door hun kleine experimentele model waren teruggegeven. Hun tiny HRM-prototype — slechts 27 miljoen parameters, microscopisch in vergelijking met GPT-4 of Claude — overtrof systemen van OpenAI, Anthropic en DeepSeek op taken die specifiek waren ontworpen om redeneringen te meten.
Het loste Sudoku-Extreme op, vond optimale passages door 30×30 doolhoven en behaalde verbluffend hoge prestaties op de ARC-AGI benchmark — alles zonder chain-of-thought prompting of brute-force scaling.
“Het was gek,” zei Chen. “Slechts met een verandering in de architectuur gaf het model veel van wat we ‘redeneringsdiepte’ noemen.”
In tegenstelling tot een transformer, die het volgende woord voorspelt op basis van statistische patronen, gebruikt HRM een tweeledige recurrente structuur die losjes is gemodelleerd naar hoe de menselijke hersenen trage, doordachte gedachten mengen met snelle reflexmatige reacties. Het systeem kan plannen, problemen ontleden en redeneren met interne logica in plaats van imitatie. “Het is niet gokken,” zei Chen. “Het is denken.”
Chen zegt dat hun modellen veel minder hallucineren dan traditionele LLM’s en al presteren op het hoogste niveau in taken van tijdreeksvoorspelling, zoals weersvoorspelling, kwantitatieve handel en medische monitoring. Ze werken nu aan het opschalen van HRM tot een algemeen redeneringsmotor, met een eenvoudige maar radicale these: dat AGI niet zal komen van grotere transformers, maar van kleinere, efficiëntere architectuur.
De huidige frontiermodellen zijn enorm — in sommige gevallen honderden miljarden parameters — maar zelfs hun makers geven toe dat ze worstelen met redeneren, plannen en het ontleden van meerstaps problemen, zegt Chen. Hij gelooft dat die beperking structureel is, niet tijdelijk. “Je kunt meer lagen stapelen,” zegt hij. “Maar je raakt nog steeds de grenzen van een probabilistisch model.”
Sapient is nu van plan om binnen een maand een kantoor in de VS te openen, extra financiering te werven en misschien hun naam te veranderen om de tweede versie van hun model in te zetten. De oprichters geloven dat continue leren — het vermogen voor een model om nieuwe ervaringen veilig op te nemen, zonder opnieuw vanaf nul te trainen — de volgende grote frontier is.
“AGI is de heilige graal van AI,” zegt Chen. En hij verwacht dat het in het volgende decennium zal opkomen. “Op een dag gaan we een AI hebben die slimmer is dan mensen,” zei Chen. “Guan en ik zeggen altijd: het is als Pandora’s doos, als wij het niet gaan maken, dan zal iemand anders het wel doen. Dus we hopen dat wij de eersten zijn die dat werkelijkheid maken.”







