OpenAI: Is de Toekomst van Kunstmatige Intelligentie Veilig?

OpenAI waarschuwt voor de gevaren van superintelligentie en roept op tot internationale samenwerking voor veiligheidsstandaarden. Terwijl kunstmatige intelligentie (KI) al in verschillende gebieden, zoals tekstverwerking en data-analyse, de menselijke intelligentie overtreft, staat de ontwikkeling nog lang niet stil. In een recent blogbericht benadrukt OpenAI het belang van nauwe samenwerking tussen grote KI-bedrijven en de politiek om veiligheidsnormen te definiëren.

De Versnelling van KI-ontwikkeling

Het tempo van de KI-ontwikkeling is extreem hoog. Volgens OpenAI zijn de kosten voor kunstmatige intelligentie de afgelopen jaren met veertig keer gedaald. Tegenwoordig kan KI in seconden of minuten taken uitvoeren die vroeger uren duurden. Naarmate we dichter bij Artificial General Intelligence (AGI) komen, zullen deze systemen in staat zijn om taken uit te voeren die anders dagen of weken zouden vergen.

AGI vs. ASI – Wat is het Verschil?

AGI, ofwel Artificial General Intelligence, verwijst naar een KI die menselijke intelligentie bereikt. Deze kan verschillende taken op menselijk niveau oplossen, leren en zich aanpassen, vergelijkbaar met een mens die zich in nieuwe gebieden verdiept. Belangrijk om te vermelden: AGI is nog niet bereikt.

Naast AGI is er ASI, ofwel Artificial Superintelligence, die in vrijwel alle gebieden duidelijk slimmer zou zijn dan de slimste mensen. Een ASI zou problemen kunnen oplossen die voor ons onvoorstelbaar complex zijn en zou zich exponentieel kunnen doorontwikkelen.

Veranderende Werkgelegenheid

Er is geen twijfel over mogelijk dat het werklandschap verandert. We zien al eerste tekenen hiervan. Mogelijk zijn er in de toekomst nieuwe regels nodig voor hoe werk en inkomen worden verdeeld, bijvoorbeeld in de vorm van een onvoorwaardelijk basisinkomen. In het beste geval leidt deze ontwikkeling tot een wereld waarin het leven van mensen veel beter en makkelijker is dan nu, volgens OpenAI.

De Toekomst van KI: Vertrouwen en Veiligheid

OpenAI voorspelt dat KI net zo vanzelfsprekend zal worden als elektriciteit of water. Het moet alle mensen in staat stellen om hun eigen doelen te bereiken. Om dit vertrouwen op te bouwen, is er echter een digitaal beschermingsschild nodig tegen misbruik. De privacy moet worden beschermd en de KI moet zich kunnen verdedigen tegen aanvallen van kwade opzet.

Waarom Samenwerking Onmisbaar is

Volgens OpenAI is het duidelijk waarom bedrijven en onderzoeksinstituten moeten samenwerken: de risico’s van superintelligente systemen kunnen catastrofaal zijn. Een ASI zou bijvoorbeeld in milliseconden operaties kunnen uitvoeren waarvoor mensen uren of dagen nodig hebben. Tijdens discussies zou de ASI al handelingen hebben verricht, waardoor wij letterlijk te langzaam zouden zijn om in real-time te reageren.

De Complexiteit van ASI

De strategieën en denkpatronen van een ASI zouden zo complex kunnen zijn dat ons brein deze niet kan begrijpen, zelfs niet als ze ons worden uitgelegd. Dit maakt het probleem bijzonder verraderlijk: We hebben geen betrouwbare manier om te controleren of een KI slechts op AGI-niveau functioneert of al superintelligent is en zich voordoet als minder capabel.

Oproep tot Actie vanuit de KI-Gemeenschap

Deskundigen bij OpenAI doen daarom een oproep: Leidinggevende ontwikkelaars zoals OpenAI, Anthropic, Google en andere grote spelers moeten gezamenlijk veiligheidsprincipes vaststellen en de resultaten van hun veiligheidsonderzoek uitwisselen. Er zijn standaarden nodig, vergelijkbaar met bouw- of brandveiligheidsvoorschriften, die al talloze levens hebben gered. Net zoals de opkomst van het internet nieuwe veiligheidsmaatregelen vereiste, is dat nu ook noodzakelijk voor KI.

De Rol van de Politiek

Volgens OpenAI staat de politiek voor een dilemma: als superintelligentie zich extreem snel verspreidt, is traditionele regulering niet meer voldoende. Beleidsmakers moeten sneller en innovatiever zijn, in nauwe internationale samenwerking met KI-bedrijven zoals OpenAI of Google. Om deze ambitieuze doelen te bereiken, moeten alle bevindingen transparant zijn, en moeten regeringen en bedrijven de impact van KI meten en duidelijk rapporteren over de gevolgen, vooral voor de werkgelegenheid.