‘Artificial intelligence' (of AI, zoals het doorgaans genoemd wordt) zal volgens velen een nieuwe technologische revolutie veroorzaken. Dat computers behalve productietaken ook kennisgerelateerde taken kunnen uitvoeren en autonoom kunnen denken, is eigenlijk al decennialang in ontwikkeling, maar wordt zo langzamerhand ook voor de buitenwacht steeds duidelijker zichtbaar. Precies die ontwikkeling is het terrein waar Lauren Waardenburg, promovendus aan het KIN Center for Digital Innovation aan de Vrije Universiteit in Amsterdam, onderzoek naar doet. Ze maakt deel uit van een onderzoeksgroep van zo'n veertig wetenschappers, die onder leiding staat van professor Marleen Huysman, tevens medeauteur van S.L.I.M. managen van AI in de praktijk. De andere medeauteur, Marlous Agterberg, houdt zich als onderzoeks- en valorisatiemanager bezig met de vertaling van het wetenschappelijk onderzoek naar de praktijk. Waardenburg richt zich vooral op de vraag wat de komst van AI betekent voor de manier waarop wij werken, en voor de manier waarop organisaties zijn ingericht.
Profiling
Drie jaar liep ze mee met de politie, om onderzoek te doen naar predictive policing, de inzet van een algoritme waarmee de politie probeert te voorspellen waar en wanneer misdaden zoals inbraken en straatroven gepleegd zullen worden. Dat algoritme is niet onomstreden, erkent Waardenburg. ‘Het kan werken als een self fulfilling prophecy: als je vooral hebt gepatrouilleerd in bepaalde wijken, zul je daar ook de meeste misdaad tegenkomen. En als je die data invoert in een algoritme, zal er alleen maar meer nadruk op die wijken komen te liggen.' Vandaar dat het van belang is dat de juiste data worden gebruikt en dat de mensen die het algoritme opstellen, hun voordoordelen zoveel mogelijk terzijde schuiven. Waardenburg is tamelijk optimistisch over de manier waarop de politie dat aanpakt. ‘We weten dat profiling nog steeds voorkomt, dus we moeten hier scherp op zijn. Het moreel-ethische aspect zal altijd meespelen, want het zijn mensen die het systeem maken en gebruiken. Niet eens alleen vanwege de profiling, ook vanwege de gebruikers zelf. Als je alle macht aan het systeem toekent, zullen de politiemensen het gevoel krijgen als robots te worden behandeld. Dat wil je natuurlijk voorkomen. De vraag is: gaan wij linksaf als het systeem dat ons vertelt? Of blijven we zelf ook nadenken?'
Eigen data
Dat zijn vragen die nadrukkelijk gemanaged moeten worden, vindt Waardenburg. ‘Het doel moet blijven dat de uitkomsten van het systeem goed zijn voor de samenleving. Daarom vind ik het ook verstandig dat de politie zelf een AI-systeem heeft ontwikkeld, en er niet voor heeft gekozen bijvoorbeeld een Amerikaans systeem in te kopen. In de Verenigde Staten wordt toch meer naar individuele kenmerken van personen gekeken. In Nederland ligt de nadruk gelukkig op andere patronen en kiezen we voor meer algemene data.' De mensen die het AI-systeem ontwikkelen en voeden, krijgen bovendien een goede opleiding, heeft ze tijdens haar onderzoek geconstateerd. ‘We duiken echt heel diep onder in zo'n organisatie, als een etnograaf', vertelt ze. ‘Ik heb in totaal drie jaar met de politie gewerkt, ik ben zelfs een jaar full-time mee de straat opgegaan. Alleen op die manier leer je zo'n organisatie echt goed kennen.'
Piloot
Het AI-systeem van de politie is een van de acht - voornamelijk Nederlandse - cases die aan bod komen in het boek dat Waardenburg met haar co-auteurs schreef, S.L.I.M. managen van AI in de praktijk. ‘Het was de hoogste tijd dat er eens een boek werd geschreven over AI voor een breed publiek', zegt ze. ‘AI is nu nog vooral het domein van wetenschappers en ontwikkelaars, maar het gaat een grote impact op ons leven krijgen. Als je naar het AI-systeem van de politie kijkt: het kan geweldige resultaten opleveren als alle lokale kennis wordt samengevoegd en de politie in staat is patronen te herkennen die zij tot nu toe niet hadden gezien. Het zoeken naar patronen werd normaal gesproken gedaan door analisten, en het is nog maar de vraag of dit soort AI-systemen het werk van de menselijk analisten helemaal zullen overnemen. Sommige taken zullen zeker worden overgenomen door AI, maar er komen weer andere taken voor terug.'
Auto-piloot
Ironisch genoeg was het juist de manier waarop haar eigen werk veranderde, die Waardenburg bij het KIN Center deed belanden. Oorspronkelijk is ze opgeleid als piloot. Al op jonge leeftijd leerde ze grote vliegtuigen te besturen. ‘Maar juist in dat werk wordt steeds meer werk geautomatiseerd. De autopilot is beter in staat een vliegtuig aan de grond te zetten in de mist dan een mens. Kleine vliegtuigen zijn wel leuk, daar moet je echt werken. Maar vliegen in grote verkeersvliegtuigen vond ik niet interessant: tijdens bepaalde manoeuvres mag je als mens volgens de regels niet eens ingrijpen. Een groot deel van het werk is geautomatiseerd. Heel stom, vond ik. Toen ik mijn vader uitlegde wat mij dwarszat, zei hij: als je je in dit onderwerp wilt verdiepen, zou je eigenlijk bedrijfskunde moeten gaan studeren. Ik ben vlieginstructeur gebleven en ben inderdaad tegelijkertijd bedrijfskunde gaan studeren. En zo ben ik uiteindelijk hier terechtgekomen.'
Structuurverandering
Het is nu nog nauwelijks voorstelbaar welke mogelijkheden AI in de toekomst zal hebben. Dat brengt ook risico's met zich mee: dat onze fantasie met ons op de loop gaat en dat onze verwachtingen onrealistisch worden, zoals ook zichtbaar is bij Big Data. ‘Het is niet voor niets dat wij daar een heel hoofdstuk aan gewijd hebben', zegt Waardenburg. ‘Het beeld is ontstaan dat je allerlei data in een systeem kunt proppen en dat er vervolgens vanzelf iets werkbaars uitrolt. Dat is natuurlijk niet waar. Als je veel data in een systeem stopt, moet je dat goed organiseren. Je moet scherp omlijnde ideeën hebben wat je ermee wil doen. Als je niet de juiste keuzes maakt, zal de uitkomst heel beperkt of zelfs bevooroordeeld zijn. En dat betekent dus ook dat er binnen de organisatie, en vooral bij het management, kennis van AI aanwezig moet zijn. Het is onvermijdelijk dat AI de structuur van organisaties gaat veranderen.'
Werkproces essentieel
Voor een succesvol AI-systeem hoefje ook helemaal niet extreem veel data te hebben, stelt Waardenburg. ‘Het maakt niet uit, als het maar veel is, leken veel mensen te denken. Maar dat is niet juist. Het kan juist heel effectief zijn als de data vanuit de eigen organisatie komen. Je moet weten wat ze representeren, wat de werkprocessen zijn. Je kunt niet zomaar AI inzetten zonder een idee van de bestaande werkprocessen waar het een bijdrage aan moet gaan leveren. Daarom is het vaak ook een slecht idee om een AI-systeem van de plank te kopen. Die systemen zijn zo breed opgezet dat de toegevoegde waarde voor jouw eigen organisatie gering zal zijn. Wat heb je aan generieke inzichten als je een specifiek probleem probeert op te lossen?'
Meals on Board
Een mooi voorbeeld is het algoritme dat KLM gebruikt voor het Meals on Board-systeem (MOBS). Tot de introductie van dit algoritme werkte KLM met een externe partij, die de bezettingsgraad van de vliegtuigen tot op het laatste moment bijhield. Dat systeem kostte de vliegmaatschapppij vierhonderdduizend euro op jaarbasis. De data voor MOBS zijn relatief eenvoudig te betrekken, dus een slim algoritme moest enorme verbeteringen kunnen opleveren. Het pakte goed uit. Niet alleen is de voedselverspilling met vijftig procent verminderd, het grondpersoneel hoeft zich in de laatste hectische fase voor vertrek niet meer met dit probleem bezig te houden. ‘Dit AI-systeem is echt een succesverhaal. Maar het is duidelijk dat het een heel narrow systeem is, een systeem met een specifieke, beperkte taak. Een goed werkend voorbeeld van artificial general intelligence, een systeem dat verschillende taken tegelijk kan vervullen, is er nog niet. Stel je eens voor dat het MOBS ook het vliegtuig kan besturen en de pasagiers kan bedienen. Dat is wat artificial general intelligence zou benaderen, en daar kun je natuurlijk het een en ander tegenin brengen, bijvoorbeeld op het gebied van de veiligheid. Het is dus niet zo gek dat we daar nog lang niet zijn.'
Geen panacee
Dat lijkt een toekomstdroom, en of het dichterbij zou kunnen zijn dan we denken dat durft ook Waardenburg niet te zeggen. ‘Bij AI moet je altijd een beetje oppassen dat je het niet als een tovermiddel gaat zien. Er is altijd een gevaar dat er een hype ontstaat. Maar het is onontkoombaar dat AI de komende jaren een grote rol gaat vervullen in veel organisaties. En dan moeten managers wel weten waar zij het over hebben. De ontwikkelaars zullen altijd meer verstand hebben van de techniek, maar dat betekent niet dat je alles maar aan hun kunt overlaten. De manier waarop AI in de organisatie wordt gebruikt, is een zaak van het management. En dan heb ik het niet alleen over de ethische en de socio-technische kant. Dat zijn belangrijke aspecten, maar uiteindelijk draait het om het gebruik van AI. Daarom wil ik duidelijk maken hoe belangrijk het is dat managers op de hoogte zijn van wat de AI-systemen doen en wat zij kunnen. Want één ding is zeker: AI gaat in organisaties grote veranderingen teweegbrengen.'
Over Hans van der Klis
Hans van der Klis is freelance journalist. Hij schrijft regelmatig artikelen voor Managementboek.