Google DeepMind Introduceert SIMA 2: De Toekomst van Algemeen Kunstmatige Intelligentie
Google DeepMind heeft SIMA 2 onthuld, een universele AI-agent die in staat is om zich als een mens te gedragen in een 3D virtuele omgeving. Deze ontwikkeling markeert een significante vooruitgang in het onderzoek naar Algemene Kunstmatige Intelligentie (AGI). SIMA 2 is geëvolueerd van eenvoudige opdrachtuitvoering naar een AI die kan interageren met mensen, doelen kan beoordelen en in staat is tot zelfverbetering.
Op 13 oktober heeft Google DeepMind een voorproefje gegeven van de next-gen universele AI-agent SIMA 2, die in staat is om te redeneren en te handelen in een virtuele wereld. Een gedetailleerd technisch rapport zal binnenkort worden gepubliceerd.
De vorige versie, die in maart werd onthuld, genaamd Scalable Instructable Multiworld Agent, was ook een universele agent die games speelde. De geüpgradede versie integreert het ‘Gemini’ model als de belangrijkste motor, waardoor het verder gaat dan alleen het opvolgen van opdrachten. Nu kan het ook de omgeving begrijpen en zelf actieplannen opstellen door na te denken en te redeneren.
Door de combinatie met het wereldmodel ‘Genie 3’, toont de agent de haalbaarheid van AI die vergelijkbaar is met menselijke intelligentie aan. Demis Hassabis, CEO van DeepMind, legt uit: “Door SIMA te integreren met het wereldmodel Genie 3, kan de ene AI actief zijn in de geest van de andere AI.” Dit betekent dat beslissingen die door grote taalmodellen worden genomen, via simulaties in de echte wereld worden gevalideerd.
SIMA 2 opereert op basis van ‘Gemini 2.5 Flash-light’ en kan tijdens het spelen de omgeving in natuurlijke taal beschrijven en zelf beslissingen nemen over de volgende actie. DeepMind benadrukt dat het systeem nu niet alleen games speelt, maar ook begrijpt wat er gebeurt en redelijke interpretaties maakt van gebruikersbehoeften.
Bijvoorbeeld, wanneer de instructie “Ga naar het huis van de kleur van een rijpe tomaat” wordt gegeven, kan het zelf het redeneermodel uitleggen en de rode kleur identificeren voordat het het juiste huis vindt. Het kan ook schakelen tussen verschillende taken, zoals het vinden van een boom om deze met een bijl om te zagen, aan de hand van emoji-instructies.
Bovendien heeft SIMA 2 de capaciteit voor zelfgestuurd leren ontwikkeld. Het breidt de in het verleden verworven vaardigheden, meer dan 600 taalgebaseerde gedragingen, uit en kan zich aanpassen aan nieuwe game-omgevingen zonder voorafgaande training. Dit stelt het in staat om geleerd gedrag van bijvoorbeeld ‘mijnbouw’ over te dragen naar andere taken zoals ‘oogsten’, wat zijn vermogen tot generalisatie naar mensenniveau vergroot.
In het begin leert SIMA 2 via menselijke demonstraties, maar daarna kan het zelfstandig en zonder extra menselijke gegevens leren in nieuwe game-omgevingen. Nieuwe taken worden gegenereerd door het Gemini-model en andere beloningsmodellen evalueren de resultaten van eerdere pogingen, waardoor SIMA 2 deze ervaringen kan gebruiken om zijn prestaties te verbeteren.
DeepMind verklaart dat SIMA 2 de kerntechnologieën voor de implementatie van AI in robotica en de echte wereld heeft gelegd door zijn vermogen om te leren, te redeneren en samenwerkingsopdrachten uit te voeren in verschillende game-omgevingen. Het benadrukt ook dat vaardigheden zoals beweging, gereedschapgebruik en het uitvoeren van samenwerkingsopdrachten cruciaal zijn voor de ontwikkeling van toekomstige AI-assistenten.
Onlangs heeft een team onder leiding van professor Fei-Fei Li ook een commerciële wereldmodel genaamd ‘Marvel’ gelanceerd, wat veel aandacht trok. Net als SIMA 2, vereist dit model een combinatie van wereldmodellen en agenten om de beperkingen van grote taalmodellen die alleen op tekst zijn gebaseerd te overstijgen. Google heeft beide elementen al in huis.
Demis Hassabis werkt sinds het begin van 2010 aan game-agenten die zijn gebaseerd op versterkend leren en Q-learning, waarbij hij Atari-games automatisch speelt.







