Wereldwijd vindt er een verschuiving plaats in de manier waarop mensen tegemoet komen aan de eisen en mogelijkheden van technologische systemen. We leven met deze geautomatiseerde, op data gebaseerde systemen die onze persoonlijke relaties, de machtsdynamiek op de werkplek en onze relaties met de overheid bepalen. De opkomst van generatieve AI versterkt dit proces. Het schraapt al onze kennis en creaties om vervolgens verbasterde versies te maken van creatieve producten die ons in vervoering brengen. Murgia hoopte met haar onderzoek op verhalen te stuiten over hoe technologie oplossingen voor allerlei uitdagingen had gebracht. Dat was immers de belofte. Het beeld dat ze schetst is hooguit gemengd te noemen. Technologie brengt tot op zekere hoogte verbetering, maar intussen leveren de gemarginaliseerde gebruikers de data en doen ze het vuile werk, terwijl de technologiebedrijven er werkelijk beter van worden.
Het publieke geheim van AI
AI heeft iets magisch. ChatGPT geef je een opdracht, en er rolt een creatief product uit. Variërend van een tekst tot zelfs een kant en klare website. Intussen zitten er achter deze zelflerende systemen echte mensen die alle informatie deeltje voor deeltje duiden. Mensen vertellen AI wat wat is, zodat AI een analyse kan maken. Deze kant van het verhaal vertellen de techbedrijven niet graag. In lagelonenlanden wereldwijd zijn bedrijven of stichtingen gevestigd die in opdracht van de techbedrijven mensen voor zich laten werken om data te labelen. Voor jongeren in de sloppenwijken van Nigeria is dit een route weg uit de armoede. Hetzelfde geldt voor Syrische vluchtelingen in Bulgarije. Maar de lonen zijn zeer laag en als data-labeller heb je weinig te zeggen.
Datakolonialisme
Op het platteland van India is de medische zorg beperkt en zijn de ziekenhuizen doorgaans onderbemand. Een AI-tool die diagnoses stelt kan het verschil maken. De techbedrijven leveren deze tools, omdat het in hun voordeel is. Ze zijn hongerig naar data om hun systemen te trainen. Mensen in ontwikkelingslanden geven gemakkelijk data, vaak uit onwetendheid of omdat er een klein beetje tegenover staat. Zo worden ze testcase voor producten die uiteindelijk voor een rijke Westerse markt zijn bedoeld. Het profiteren van de data van kwetsbare, gemarginaliseerde groepen voor het trainen van AI kun je datakolonialisme noemen.
Stigmatisering
Murgria vertelt het verhaal van een moeder wier kind in de Top-400 van criminele Amsterdamse kinderen is geplaatst. Haar veertienjarige zoon had een leeftijdsgenoot bedreigd met een mes. Het gezin met een alleenstaande moeder en een Surinaamse achtergrond werd als risicovol bestempeld en de jongen had statistisch gezien een grote kans om uit te groeien tot een crimineel. Daarom werd het gezin onder een vergrootglas geplaatst en kreeg het een stortvloed van hulpverleners over zich heen. Het was heel moeilijk om van het label Top-400 af te komen en leidde tot tal van problemen. Zulke AI-systemen als het Amsterdamse ProKid zijn niet empathisch maar bestraffend. Politiewerk en hulpverlening op basis van AI voorspellingen zijn geen benadering van zorg en vergiffenis, maar een koele berekening van de kans dat je weer de fout in gaat. Vergissingen zijn daarbij zeer goed mogelijk en gebeuren bovenmatig bij mensen met een migratieachtergrond en een zwakke positie in de samenleving. En dan kost het heel veel moeite om die vergissing recht te zetten en het label verwijderd te krijgen.
Halfbakken creativiteit
De meest ultieme vorm van datakolonialisme vindt plaats in de creatieve sector. Het grote publiek is vol bewondering voor de creatieve prestaties van AI, en maar weinigen realiseren zich dat AI dit alleen maar kan door zich vol te zuigen met het werk van echte kunstenaars. Het werk van (stem)acteurs, grafisch ontwerpers, copywriters en componisten wordt gebruikt om AI te trainen. Deze kunstenaars leveren werk om zichzelf vervolgens overbodig te maken, of enkel het correctiewerk te mogen doen op de producten die met AI zijn gecreëerd. Precies zoals de data-labellaars in Nigeria en Bulgarije zichzelf op een gegeven moment overbodig maken. Maar feitelijk is AI geen kunstenaar. Het is een voorspelmodel dat statistiek bedrijft en een verwrongen beeld van de kunsten neerzet. ChatGPT heeft geen emoties en vindt niets leuk. Het is wezenloze statistiek die niet is niet gericht op interactie met mensen. Misschien is dat juist waarom mensen graag met AI-systemen spreken. Ze hoeven niks van je, en ze stellen je niet teleur zoals mensen dat wel kunnen doen. Murgia vreest dat we in het post-waarheid-tijdperk toegaan naar een vage versie van de realiteit, waarin AI veelal incorrecte en bevooroordeelde content voortbrengt. Murgia’s analyse is intrigerend en ontnuchterend. Haar verhaal brengt je op plekken waarover weinig wordt geschreven. Dit is de andere kant van de AI-revolutie. Het is fijn dat het in het Nederlands is vertaald.
Over Freija van Duijne
Freija van Duijne was van 2013 tot 2018 voorzitter van de Dutch Future Society. Zij heeft meer dan tien jaar werkervaring als toekomstverkenner en strateeg in diverse overheidsorganisaties. Freija werkt vanuit haar bedrijf Future Motions en geeft trainingen en lezingen op gebied van toekomstverkennen.