Wat is Life 3.0?
Life 3.0 is een levensvorm die zich volledig heeft losgebroken uit zijn evolutionaire keurslijf. Ik definieer leven als een proces dat zijn complexiteit weet te behouden en daarnaast kan reproduceren. Een organisme als een bacterie is in dat geval life 1.0. Eencelligen worden bijeengehouden door een simpel algoritme, dat hen bijvoorbeeld voorstuwt naar omgevingen met een hogere suikerconcentratie. Maar bacteriën kunnen geen kennis opdoen. De enige manier waarop ze hun interne software kunnen verbeteren is door zich van generatie op generatie aan te passen. Wij mensen zijn life 2.0. Onze lichamen worden nog steeds bepaald door evolutie, maar we kunnen tenminste leren. Life 3.0 vormt het domein van kunstmatige intelligentie. Daarbij moet je denken aan machines die niet alleen hun eigen computerprogramma's, maar ook hun eigen hardware kunnen ontwikkelen.
Hoe slim kunnen die machines worden?
Wie weet? In principe miljoenen en miljoenen keren slimmer dan wij. De menselijke intelligentie wordt fundamenteel begrensd door de hoeveelheid breinmassa die door een geboortekanaal past. Daarom kunnen we onszelf nooit honderd keer langer maken of duizend keer sneller laten denken. Machines hebben die beperking niet. Er is bovendien geen enkele natuurwet die stelt dat intelligentie of bewustzijn gemaakt moet worden uit organisch materiaal. Het kan net zo goed van silicium komen. Dat betekent dat er een enorm potentieel is waaruit het universum kan ontwaken.
Kunstmatige intelligentie is vooralsnog erg specifiek. IBM's supercomputer kan weliswaar s werelds beste schaakmeester verslaan, maar maakt in een damspel tegen een beginneling geen enkele kans.
Voorlopig wel, maar algemene kunstmatige intelligentie bevindt zich om de hoek. En waar specifieke KI niet meer is dan een handwerktuig, is AKI een volledig uitgeruste fabriek met goed getrainde professionals. Het leven zoals we dat kennen zal daarmee volledig getransformeerd worden. Machines die zijn uitgerust met AKI zullen de meest netelige problemen in de wereld kunnen oplossen, van armoede en sociaal onrecht tot chronische ziektes en klimaatverandering.
Of ze nemen de wereld over en maken ons allemaal tot slaaf.
Intelligentie leidt tot macht, en degene die AKI uiteindelijk controleert, kan die krachten inderdaad aanwenden om de wereld te overheersen. Maar dan heb ik het niet over Hollywood-achtige angstscenario's waarin boosaardige machines zich opzettelijk tegen ons zullen keren. Het werkelijke gevaar van AKI schuilt in haar competentie, namelijk dat machines doelen gaan bereiken die niet de onze zijn. De West-Afrikaanse zwarte rhinoceros is niet uitgestorven omdat wij mensen kwaadaardige neushoornhaters zijn, maar omdat we slimmer waren, en doeleinden hadden die botsten met de hunne. AKI is per definitie intelligenter dan wij, dus moeten we ervoor zorgen dat dergelijke machines onze doelstellingen begrijpen en omarmen, en dat in de toekomst ook blíjven doen. Als we daar te lang mee wachten, lopen we een reëel gevaar dat we onszelf in de positie van de neushoorn manoevreren, met mogelijk extinctie tot gevolg. Schadelijke kunstmatige intelligentie hoeft er namelijk helemaal niet als zodanig uit te zien. Een slimme KI met een internetverbinding kan een niet van echt te onderscheiden menselijke identiteit aannemen om daarmee contracten af te sluiten, of zelfs haar eigen robots te laten bouwen.
Dat klinkt niet minder alarmistisch.
Zo is het niet bedoeld. Veel mensen verwarren voorbereiden op het ergste met paniekzaaierij. Maar het idee achter veiligheidssystemen is juist dat je een worst-case scenario probeert te voorkómen. De ingenieurs van het Apollo-programma waren ook niet alarmistisch toen ze besloten om eerst grondig na te denken over alles wat fout zou kunnen gaan voordat ze hun astronauten naar de maan stuurden. Die voorzichtigheid vormde juist de basis van hun succes. Met AKI is het net zoals met kernwapens: je wil niet leren van je fouten. Maar inmiddels hebben we al vele miljarden geïnvesteerd om kunstmatige intelligentie krachtiger te maken en bijna niets in onderzoek over de veiligheidsrisico's.
Hoe kunnen we er zeker van zijn dat we het meteen goed hebben? Het lijkt ondoenlijk om alle mogelijke scenario's met een computersimulatie na te spelen.
De ontwikkeling van kunstmatige intelligentie is helaas zo onvoorspelbaar dat er geen manier is om alle uitkomsten in acht te nemen. Maar dat wil niet zeggen dat we het niet moeten proberen. Als de eerste algemene kunstmatige intelligentie schadelijk blijkt dan is het waarschijnlijk meteen einde oefening: de technologie kan zo krachtig zijn dat we zelfs geen mogelijkheid meer krijgen om een goedaardige AI te ontwikkelen om ons te beschermen. En anders dan wij zijn hyper-intelligente machines voor hun overleving niet afhankelijk van hun omgeving, of zelfs van het voortbestaan van onze planeet.
Hoeveel tijd hebben we?
Het kan goed zijn dat ik met mijn 51 jaar AKI nog ga meemaken. De komende dertig jaar zijn daarom cruciaal. Dat klinkt kortdag, maar ik denk dat het in die tijdspanne mogelijk moet zijn om individuen, bedrijven en overheden een hoge standaard van ethiek, voorzichtigheid en veiligheid op te leggen.
Wie moet hierin het voortouw nemen? De Verenigde Staten zijn inmiddels een KI-supermacht, maar president Trump heeft bijvoorbeeld niet eens wetenschapsadviseur in zijn kabinet.
Gelukkig is de ontwikkeling van KI niet alleen voorbehouden aan de Verenigde Staten, maar gebeurt er ook van alles in China en in de Europese Unie. De verantwoordelijkheid om ervoor te zorgen dat kunstmatige intelligentie het beste is dat de mensheid overkomt, en niet het het meest desastreuze, rust op de schouders van iedereen: software-ontwikkelaars, informatica-studenten, politici, burgers, internationale instellingen en uiteraard het bedrijfsleven. Daar zijn mensen overigens wél doordrongen van de urgentie. In juli hebben bijvoorbeeld meer dan honderd technologie-ondernemingen een convenant ondertekend om geen KI-wapens te ontwikkelen die leven-en-dood-beslissingen kunnen nemen zonder dat daar een mens bij betrokken is. Dat geeft mij in ieder geval een goed gevoel dat internationale vooruitgang in samenwerkingsverband tot stand kan komen, en niet op basis van concurrentie.
Over Jeroen Ansink
Jeroen Ansink is journalist in New York. Hij schrijft en schreef onder meer voor HP/De Tijd, Elsevier Weekly Magazine en Fortune.com. Voor Managementboek schrijft hij interviews. Ansink voltooide een vrij doctoraal in de Letteren aan de Radboud Universiteit in Nijmegen en behaalde het certificaat Business Journalism aan de Wharton Business School aan de Universiteit van Pennsylvania.