Kunstmatige Intelligentie en het gevaar van reductionisme – Henk Jochemsen en Hugo Peters

Dit artikel verscheen in het thema nummer “Artificial Intelligence – tussen feit en fictie” in het blad Radix. “Radix is het wetenschappelijk kwartaaltijdschrift van ForumC. Het tijdschrift biedt een platform voor artikelen op het snijvlak van geloof, wetenschap en samenleving. Het blad wil vanuit christelijk perspectief een bijdrage leveren aan het gesprek tussen academici die op zoek zijn naar kritische reflectie en intellectuele vorming rond deze thema’s.

Abstract Kunstmatige intelligentie (AI) is een sterk opkomende techniek met legio nuttige toepassingsmogelijkheden. Tegelijkertijd maakt AI commerciële en politieke beïnvloeding van grote
groepen mensen mogelijk. Daarnaast dreigen de beperkingen van AI over het hoofd te worden gezien. Informatie is nog geen kennis en zonder context is er nog geen werkelijk inzicht. Met behulp van inzichten uit de filosofie van Herman Dooyeweerd wordt uiteengezet dat het gebruik van AI
zonder nader inzicht in de betekenisan onderliggende data leidt tot een reductie van de werkelijkheid.

1. Introductie
Volgens veel filosofen wordt onze (post)moderne samenleving gekenmerkt door de dominante aanwezigheid van wetenschap en technologie (Schuurman, 2013). In deze cultuur bepaalt de technologische gerichtheid het referentiekader waarbinnen vraagstukken geïnterpreteerd en opgelost worden. Door deze focus op technologie leven we in een technologische cultuur (Godin, 2000). Dat is een cultuur die niet alleen doordrongen is van technologische apparaten, maar waarin de leidende politieke en economische machten vertrouwen op technologie als hét middel om problemen op te lossen en om een glorieuze toekomst te creëren (Barbour, 1993). Eén van de uitingen van een technologische cultuur is een snelle ontwikkeling van nieuwe technologieën, waarvan sommige een potentieel ontwrichtend effect hebben op de heersende sociale structuren. Dit artikel bespreekt één van de meest in het oog springende technologieën van de afgelopen jaren: kunstmatige intelligentie of artificial intelligence (in het vervolg afgekort als AI). Deze technologie kent vele krachtige toepassingen zoals het creëren van virtuele
omgevingen waarmee internetgiganten als Google, Apple en Facebook wereldwijd mensen hun diensten aanbieden. Enerzijds geeft dit aan mensen een vorm van vrijheid in bijvoorbeeld zelfexpressie en communicatie. Maar tegelijkertijd oefenen deze diensten een openlijke of meer heimelijke vorm van controle uit over mensen (Harari, 2016).

Wat betekent dit voor de beoordeling van deze technologieën en hun rol in het menselijk leven? Welke aspecten van onze technologische cultuur moeten we bevragen om recht te doen aan ons streven naar zowel beheersing als vrijheid? Of is dat een spanningsveld wat we moeten ontstijgen? Deze vragen gaan over een visie op technologie en de plaats daarvan in de moderne cultuur in het algemeen, en een visie op AI in het bijzonder. Dit artikel bespreekt deze vragen vanuit het perspectief van de techniekfilosofie zoals uitgewerkt binnen de Reformatorische wijsbegeerte. Maar eerst kijken we naar wat toepassingen, verwachtingen en uitdagingen van AI.

2. Een eerste verkenning van AI

Enkele toepassingen van AI Hoewel verre van volledig volgen hieronder enkele illustratieve voorbeelden van ontwikkelingen in AI. In veel gevallen maakt AI gebruik van algoritmes om analyses uit te voeren op wat big data genoemd wordt. Volgens Philips spelen AI-gebaseerde spraakdiensten, virtuele assistenten en chatbots een belangrijke rol bij het stimuleren van 24/7 toegang tot de gezondheidszorg en meer betrokkenheid van patiënten (ICT&health, 2021). De beloftes over het gebruik van AI in de gezondheidszorg bevatten daarnaast de ontwikkeling en productie van effectievere, meer gepersonaliseerde geneeskunde en betere diagnoses (Dana-Farber Cancer Institute, 2019; Lant, 2017). AI kan zelfs worden ingezet om door middel van zogenaamde deepfake technologie een interactief videogesprek te hebben met een overleden dierbare (Nederlandse Publieke Omroep, 2021).

AI vormt serieuze uitdagingen voor een samenleving die menselijk wil blijven

Ook zou AI ingezet kunnen worden voor een betere rechtsbedeling door het opstellen van meer consistente vonnissen en voor een efficiënter en effectiever bestuur van bedrijven (SAS, 2018). Om toeslagen te controleren op fouten en fraude maakte de Belastingdienst ook gebruik van een op AI gebaseerd zelflerend algoritme. Dit algoritme selecteerde echter vooral de lage inkomens voor controle (Kleinnijenhuis, 2021). Ook is het de verwachting dat de complexe bestuurlijke en logistieke processen die plaatsvinden binnen steden, bijvoorbeeld met betrekking tot sociale zekerheid, woningbouw, afvaldiensten, beter beheerst kunnen worden met behulp van big data analyses (Mattern, 2017).
Binnen de industrie wordt het aan AI gerelateerde idee van machine learning toegepast om in een vroeg stadium veel voorkomende mechanische en elektrische defecten op te sporen (Samotics). Hiermee komen concepten als voorspellend onderhoud binnen handbereik. Machine learning wordt ook toegepast om algoritmes die gebruikt worden bij bodemclassificaties te verbeteren aan de hand van data uit een groot aantal grondboringen (Vink, 2019). Binnen de landbouw kan AI gebruikt worden om structuurafwijkingen en nutriëntentekorten in de bodem te identificeren (Jain, 2020). Verder biedt AI de belofte van veilige zelfrijdende auto’s waarvan Tesla enkele jaren geleden de eerste veelbelovende demonstraties heeft laten zien (Vimeo, 2017). AI wordt zelfs toegepast binnen wapensystemen, wat resulteert in raketten, geweren en drones die voor zichzelf denken, doden en met mensen vechten (De Vynck, 2021). Bovenstaande illustreert de toenemende technologische capaciteit om modellen te maken van alledaagse processen, van zowel de fysieke alsook van de sociale aspecten. Deze capaciteit verbetert nu al de levensomstandigheden van mensen en zij belooft dit te blijven doen, maar misschien wel op een revolutionaire manier.

Hooggespannen verwachtingen van AI
Sommige toonaangevende ontwikkelaars op het gebied van AI hebben hoge verwachtingen uitgesproken over de revolutie die AI teweeg zal brengen. Mark Bergman van IBM, een van de eerste grote IT-bedrijven, heeft bijvoorbeeld over computers gezegd: “De computer moet worden als God: alomtegenwoordig maar onzichtbaar.” (Niemeijer, 2018) Voormalig Google-medewerker Anthony Levandowski richtte een kerk op met de naam ‘Way of the future’ (WotF, Weg van de toekomst) (Harris, 2017). Deze kerk heeft als missie om bij te dragen aan een verbeterde samenleving door een goddelijkheid te ontwikkelen op basis van AI die begrepen en aanbeden kan worden. In beide voorbeelden is er een vergelijking tussen AI en goddelijke vermogens.

Een andere expert die optimistisch is over de mogelijkheden van AI is Raymond Kurzweil die een invloedrijke positie heeft binnen Google. Hij is auteur van de bestseller The age of spirtual machines waarin hij de visie presenteert dat de menselijke persoonlijkheid, gevat in informatie in de hersenen, overgedragen kan worden op een computer en op die manier onsterfelijk gemaakt kan worden. In een Nederlands onderzoek naar trends die in de (nabije) toekomst waarschijnlijk de vormgevende krachten van de samenleving zullen worden, staat: “We moeten erkennen dat de steeds intiemere relatie tussen mens en technologie één van de grote verhalen van onze tijd is” (Trendrede, 2019).

De spectaculaire resultaten van AI doen sommige onderzoekers uitroepen: “Laat de data
voor zichzelf spreken. We hebben geen psychologie, sociologie en theologie nodig om te weten
wat we willen weten.” Deze uitspraak verraadt een gevaarlijke overschatting van data die te
maken heeft met gebrek aan inzicht in de epistemologie (kennisleer) (Debackere, 2016). Hoe-
wel die extreme verwachtingen misschien nooit uitkomen, vormen sommige ontwikkelingen
van AI wel degelijk serieuze uitdagingen voor een samenleving die menselijk wil blijven. Het
beantwoorden van deze uitdagingen vereist een duidelijk beeld van het karakter van dergelijke
technologieën en natuurlijk een visie op wat het betekent om mens te blijven.

Uitdagingen rondom AI
Algemeen wordt erkend dat AI vooral drie grote uitdagingen met zich meebrengt (Wright, 2018). Dit is in de eerste plaats de mogelijkheid van een singulariteit waarbij een vorm van AI de menselijke intelligentie overstijgt, ontsnapt aan menselijke controle en een onvoorspelbare impact heeft. Illustratief voor deze mogelijkheid is een uitspraak van Stephen Hawking die hij deed in een BBC-interview: “De ontwikkeling van een complete AI zou het einde van het menselijke ras kunnen betekenen […]” (Cellan-Jones, 2014).

De tweede grote uitdaging stelt dat AI zorgt voor een nieuwe machinerevolutie die de mens vervangt in (bijna) elk gebied van de samenleving, van transport tot leger tot gezondheidszorg (Brynjolfsson en McAfee, 2015). Dit zou leiden tot massale werkloosheid, sociale onrust en ontwrichting. Deze kwestie krijgt waarschijnlijk de meeste aandacht in het publieke debat.

De derde uitdaging, die bijvoorbeeld is uitgewerkt in een Wright’s Foreign Affairs-publicatie (Wright 2018), is dat AI overheden in staat stelt haar burgers nauwgezet te volgen, patronen te herkennen en te controleren. De auteur stelt dat AI autoritaire landen een aantrekkelijk alternatief zal bieden voor de liberale democratie. Een vroege waarschuwing voor uitdagingen die nieuwe technologieën met zich meebrengen werd gegeven door Billy Joy (2000), in zijn artikel in Wired. Joy realiseerde zich dat de
voordelen van nieuwe technologieën gepaard gaan met een prijs, en hij vraagt zich hardop af of die prijs misschien te hoog is. Tegelijkertijd is hij niet optimistisch over de mogelijkheden om de toepassing van die technologieën te reguleren. Ook de historicus Yuval Harari (2016) schreef recent over dit onderwerp in zijn bestseller Homo Deus. Aan het einde van zijn boek formuleert hij enkele gedachten die vrij geformuleerd in de geest van het boek neerkomen op het volgende:
• De mens is, net als alle andere levende organismen en van AI gebruikmakende apparaten, uiteindelijk een set van algoritmes;
• Het leven bestaat uit het verwerken van gegevens en informatie; deze visie impliceert de ontkenning van een speciale status of waardigheid van mensen;
• Intelligentie komt meer en meer los te staan van bewustzijn. Dit impliceert dat computers veel intelligenter kunnen worden dan mensen, ook al hebben ze misschien geen bewustzijn in die zin als waarin wij bewustzijn nu begrijpen;
• Deze niet-bewuste intelligentie ‘kent’ ons binnenkort mogelijk beter dan dat wij ons-
zelf kennen.

Een veelzeggend citaat uit een internetrecensie van dit boek stelt: “In de eenentwintigste eeuw zullen degenen die op de trein van de vooruitgang rijden goddelijke vermogens van creatie en vernietiging verwerven, terwijl degene die achterblijven met uitsterven zullen worden bedreigd” (Recensie Made You Think).

Ook hier zien we dezelfde apocalyptische, religieuze taal die ook wordt gebruikt door Mark Bergman en Anthony Levandowski. Wat betekenen deze verwachtingen en waarschuwingen voor ons nadenken over AI? Moeten ze serieus genomen worden of niet? De vraag hoe wij mens moeten blijven in dit technologische tijdperk wordt hiermee steeds urgenter. Om hierop antwoorden te formuleren werpen we eerst een blik op technologie vanuit een perspectief van antropologie en techniekfilosofie.

3. De rol van technologie in het menselijk leven
Van nature – of door schepping? – zijn mensen culturele wezens. We gebruiken in deze context de volgende definitie van cultuur: het totaal van verworven en sociaal overgeleverde gedragingen (de levensstijl), inclusief de bijbehorende materiële en conceptuele verworvenheden (Stanford). Ook religie heeft in deze kijk op cultuur een plek in het menselijk leven. In de culturele antropologie komt men voortdurend het fenomeen religie tegen. Kühn (1959) karakteriseert het wezen waarvan we archeologische sporen vinden als homo religiosus: “[…] Nooit is een mens geweest zonder religie […] al in de ijstijd is religie de ondersteunende kracht geweest en leidt het tot het creëren van kunstwerken”.

De mens is een ‘religieus’ wezen in die zin dat hij op zoek is naar een kader van waaruit hij zijn leven en de werkelijkheid interpreteert en waarbinnen hij daaraan betekenis geeft. Zo’n kader is geïnspireerd door een diepgewortelde toewijding van ieder mens, bewust of onbewust, aan wat wordt gezien als de onvoorwaardelijk niet-afhankelijke realiteit (Clouser, 1995). In deze antropologische zin kan religiositeit geïnterpreteerd worden als een structureel kenmerk van het menselijke bestaan. Die menselijke zoektocht naar zin en betekenis wordt geleid door de diepste, uiteindelijk religieuze overtuigingen in culturen, gemeenschappen en individuen. Vanuit dit perspectief zijn atheïsten en seculiere mensen ook ‘religieus’.

Een seculier-humanistisch wereldbeeld is geen religieus neutrale positie van waaruit men onafhankelijk religies kan beoordelen, maar dat wereldbeeld zelf belichaamt een religieuze positie. De gedachte dat de wetenschappelijke en technische rationaliteit in de publieke sfeer neutraal gebruikt kan worden berust dan ook op een misvatting.

Religie biedt niet alleen een kader om het leven te interpreteren, maar ook een basis voor het vormgeven van het leven door in te grijpen in iemands sociale en natuurlijke omgeving. In deze visie is de ontwikkeling en het gebruik van technieken onderdeel van de cultuur en heeft deze ook een religieuze bijbetekenis. Techniek is bedoeld om de religieus gewortelde visie op cultuur en de daarmee verbonden doelen in het leven te realiseren. Mensen zijn in kracht, snelheid en gevoeligheid van de zintuigen inferieur of ondergeschikt aan veel dieren (Gehlen 1961; De Graaff 1970), maar mensen kunnen zich een
toekomst voorstellen die anders is dan het heden met beelden van dingen en situaties die nog niet bestaan.

Techniek als onderdeel van de cultuur heeft altijd een religieuze lading

Mensen kunnen heel goed de werkelijkheid om hen heen bewerken, door in te grijpen met gecreëerde technieken, om veranderingen teweeg te brengen en om beschermende structuren te construeren. In traditionele religieuze culturen hebben techniek, ambachten en kunst op hetzelfde betrekking; ze zijn allemaal bedoeld om het leven in deze wereld te relateren aan de spirituele wereld. Om hiermee zekerheid, veiligheid en betekenis na te streven.

In de Europese cultuur is de nauwe band tussen de empirische en de spirituele wereld losser geworden. Hoewel dit al herkenbaar was bij de natuurfilosofen in de Griekse oudheid, is de scheiding radicaler geworden sinds de zestiende eeuw. Religiositeit in antropologische zin is echter een menselijke eigenschap gebleven. Daarmee zijn technieken en technologie als wetenschap van de technische ontwikkeling een uitdrukking gebleven van de manier waarop mensen binnen de (post)moderne cultuur zekerheid, veiligheid en betekenis nastreven in het openbare leven. De kijk op technologie in onze cultuur biedt een venster op de bronnen van betekenis van deze cultuur. Aan de hand van bovenstaande reflecties komen we tot de volgende visie op de rol van technologie in onze (post)moderne cultuur:

• Techniek/technologie blijkt die dimensie van de cultuur te zijn, die voor groepen mensen zowel het antwoord is op de eisen die het leven stelt, als op het vormgeven en beschermen van dit leven en de wereld;
• Moderne technologie is een uitdrukking van doelgerichte rationaliteit die kenmerkend is voor de gangbare benadering op individuele en gemeenschappelijke uitdagingen. Het kent grote prestaties die gunstig zijn voor veel mensen, maar die vooruitgang heeft een hoge prijs op spiritueel, sociaal en ecologisch gebied;
• Technologie representeert en geeft uiting aan specifieke waarden en opvattingen;

• In het openbare leven van de (post)moderne seculiere cultuur is de traditionele religie vervangen door een technicistische houding op de werkelijkheid die tegelijkertijd een overheersende manier werd waarop mensen zekerheid, veiligheid en betekenis nastreefden (Noble, 1997);
• Nieuwe technologieën genereren nieuwe sociale en professionele praktijken (bijvoorbeeld ICT, media en biotechnologie) en een nieuwe verdeling van macht, verantwoordelijkheden en verantwoording;
• Bovenstaande betekent dat technologie een normatief kader in acht zou moeten nemen dat gerelateerd is aan dimensies van betekenis-ervaring (zingeving) in het menselijk leven en de normatieve structuur van de praktijk waarin de techniek is geïntegreerd.

4. Normatief kader vanuit de Reformatorische wijsbegeerte

Voor het ontwikkelen van een normatieve kijk op AI maken we gebruik van de Christelijke filosofie 2 in de lijn van Herman Dooyeweerd (1894 – 1977). Deze filosofie onderscheidt in de werkelijkheid een vijftiental modale aspecten. In dit verband duidt het woord aspect op een onherleidbare menselijke ervaringswijze, wat wil zeggen dat iets op verschillende wijzen kan worden bekeken of beleefd. Zo kan bijvoorbeeld
een handeling als fluitspel fysisch worden beschouwd, maar ook esthetisch en economisch. Ook alle dingen, zoals een boom, een computer, de praktijk van techniekontwikkeling en de mens, fungeren in al de onderscheiden aspecten.

De werkelijkheid kan niet gereduceerd worden tot een enkel op zichzelf staand gezichtspunt of principe

De werkelijkheid is veelkleurig en veelzijdig en kan niet tot een allesbeheersend op zichzelf staand gezichtspunt of principe herleid worden. Die aspecten vormen tegelijkertijd gezichtspunten van waaruit het menselijk handelen en ook de beoefening van een praktijk als techniekontwikkeling, beoordeeld kan worden. Een dergelijke praktijk kan beoordeeld worden vanuit, onder andere, het biotische, het psychische, het logisch-analytische, het formatieve of technische, het sociale, het economische, het juridische, het esthetische en het ethische gezichtspunt. De beoordeling vanuit deze gezichtspunten vereist principes en normen als criteria. Elk van die aspecten/beoordelingswijzen draagt zelf een normatief principe aan dat voor dat aspect kenmerkend en bepalend is. Dooyeweerd spreekt hier over de ‘zinkern’ van een bepaald aspect. Wij willen hier spreken van een normatief principe. Deze benadering is door Dooyeweerd en, in zijn lijn, door anderen uitgewerkt voor een visie op een mensvisie, een antropologie (Glas, 1996).

Wijsgerige mensvisie
Dooyeweerd onderscheidt in de mens vier verschillende substructuren (zie figuur 1), die in
het organisme evenwel zijn vervlochten tot één geïntegreerd geheel (Glas, 1996; Jochemsen,
2000). Die substructuren zijn geen aanwijsbare onderdelen van een organisme maar zijn als
het ware vier invalshoeken van waaruit de mens bekeken kan worden. De vier substructuren
vertegenwoordigen vier zijnswijzen met de bijbehorende aspecten, die in de werkelijkheid on-
derscheiden kunnen worden en die niet tot elkaar herleidbaar zijn. Maar al die aspecten zijn in
de mens tot één geheel geïntegreerd.

De eerste substructuur is de fysisch-chemische. Deze heeft betrekking op de moleculen waaruit het lichaam van het organisme is opgebouwd, en de reacties daartussen. Een voorbeeld hiervan is het DNA-molecuul als chemische verbinding. De tweede substructuur is de biotische. Deze wordt gekenmerkt door het biologische leven, waarvan de levende cel met al de daarin voorkomende processen de primaire manifestatie is. Mensen hebben deze substructuur gemeenschappelijk met bacteriën, planten en dieren. Het DNA als drager van erfelijke informatie is een voorbeeld van deze substructuur. De derde substructuur, die niet bij planten maar wel bij dieren onderscheiden kan worden, is de sensitieve. Deze kenmerkt zich door het gevoel. In mensen heeft deze substructuur betrekking op het psychische leven. Deze substructuur omvat al die functies die het organisme als een eenheid doen functioneren. Centraal hierin staat het zenuwstelsel met het daarmee verweven hormonale systeem. In de mens kan nog een vierde substructuur worden waargenomen, de zogenaamde actstructuur. Deze structuur uit zich in datgene wat het menselijk leven kenmerkt, namelijk dat mensen handelen en verantwoordelijk zijn. Deze actstructuur manifesteert zichzelf in een veelheid van handelingen, waartoe ook denken en willen behoren, die onderworpen zijn aan een diversiteit van normatieve principes. Hierin staat het menselijk ‘ik’, zo men wil, ‘de geest’, centraal. Deze laatste substructuur is het meest typerende voor de mens, in de zin dat het niet bij andere levende organismen voorkomt en de mens tot mens maakt.

Ter verduidelijking nog enkele opmerkingen over dit model. Voor de vier onderscheiden substructuren zijn twee kenmerken wezenlijk. In de eerste plaats zijn ze niet tot elkaar te herleiden en ten tweede zijn ze in het menselijke bestaan tot een geïntegreerd geheel vervlochten (zie figuur 2). We lichten de betekenis hiervan toe. Dat de verschillende substructuren niet tot elkaar te herleiden zijn, betekent dat de levende cel (de primaire gestalte van de tweede substructuur) niet te verklaren is op basis van eigenschappen en interacties van moleculen (vgl. de eerste substructuur), dus met de wetten van natuur- en scheikunde. Zo is ook het functioneren van het menselijk lichaam niet te verklaren vanuit de eigenschappen en werking van cellen, en het menselijk handelen en de menselijke verantwoordelijkheid zijn niet volledig verklaarbaar vanuit het functioneren van het lichaam.

Dat de substructuren niet tot elkaar te herleiden zijn, neemt niet weg dat ze onderling vervlochten en nauw op elkaar betrokken zijn. Van de fysisch-chemische substructuur, waartoe het DNA-molecuul behoort met zijn specifieke nucleotidenvolgorde, die drager is van erfelijke informatie, gaat invloed uit op het lichamelijk, psychisch en geestelijk functioneren. De hogere niveaus van psychisch en geestelijk functioneren moeten, om het zo te zeggen, roeien met de riemen – dat zijn de lagere substructuren – die ze hebben. Deze roeispanen krijgen, in lijn met het beeld, weliswaar pas hun betekenis als ermee geroeid wordt, maar met slechte riemen is het slecht roeien. Maar slechte riemen bepalen niet in welke richting wordt geroeid. Dus hoewel genen wel de mogelijkheden die iemand heeft kunnen beïnvloeden –
soms zelfs drastisch –, bepalen ze niet wat iemand daarmee doet en al zeker niet de betekenis en de bestemming van dat levensbootje.

Omgekeerd worden ook stofwisselingsprocessen en cellulaire processen beïnvloed door (deels onbewuste) psychische processen en door de wijze waarop de persoon zichzelf ervaart en zijn omstandigheden interpreteert; dus door de sensitieve substructuur en de actstructuur. Over ziekten kunnen we zeggen dat mensen ze niet alleen ondergaan, maar ze reageren ook daarop en proberen die te plaatsen in hun levensverhaal; ze proberen er op één of anere manier betekenis aan te geven of weigeren dat te doen (Balner, 1990; Foss, 1989; Levin en Solomon, 1990). Ook religieuze, levensbeschouwelijke en normatieve overtuigingen en houdingen spelen daarin een rol (Jochemsen en Van Leeuwen, 2005). Daardoor zullen ook religieuze overtuigingen ten aanzien van AI een rol gaan spelen wanneer toepassingen van AI het menselijk leven binnendringen.

We hebben dit tamelijk uitvoerig beschreven om duidelijk te maken dat een reductie van mensen tot een set van data verwerkende algoritmen met zekerheid een enorme reductie inhoudt van de mens die aan het volle menselijke bestaan geen recht doet. Ingrijpen in de mens op basis van die reductie kan niet anders dan leiden tot een vorm van geweldpleging tegen mensen (Nijhoff en Jochemsen, 2006). We gaan dit nu na voor mogelijke reductionistische toepassingen van AI.

5. Naar een normatieve benadering van AI
Met name wanneer AI direct verband houdt met de analyse van big data, geeft ze al snel een gereduceerd beeld van het menselijke lichamelijke en sociale leven. AI richt zich vooral op kwantitatieve gegevens. Zoals hierboven besproken wordt de realiteit vaak beschreven door verschijnselen die worden gekwalificeerd door andere aspecten, bijvoorbeeld psychische of sociale. Toch worden die fenomenen bij de analyse van big data vanuit een kwantitatief perspectief bekeken. Big data geven statistische correlaties die zeer nuttig kunnen zijn, maar die op zichzelf geen betekenis geven aan de verschijnselen die waargenomen zijn. Een gemakkelijk te maken fout is om van correlaties naar causaliteit te springen.

De focus van big data op correlaties zonder aanwezigheid van causaliteit leidt gemakkelijk tot verkeerde conclusies

Om de waargenomen fenomenen te begrijpen, is een breder begrip nodig. Causaliteit komt in primaire zin voor in het fysieke aspect maar heeft een analoge manifestatie in elk van de andere aspecten. Juridische causaliteit betreft bijvoorbeeld de vraag of er een juridisch causaal verband bestaat tussen twee gebeurtenissen. Als een fysieke vorm van causaliteit wordt toegepast op verschijnselen die niet fysiek gekwalificeerd zijn, vertoont de verklaring al snel een ongerechtvaardigde vorm van zekerheid en duidelijkheid. De focus van big data op correlaties en het gebrek aan causaliteit kan gemakkelijk tot
verkeerde conclusies leiden. Een voorbeeld hiervan is de voorspelling van griepepidemieen door Google Grieptrends (Madsbjerg, 2017). In 2008 voorspelde “Google Flu Trends” griepepidemieën twee weken voordat de overheidsinstellingen dit deden door zoektermen gerelateerd aan griep te tellen. Maar in 2009 misten ze de Mexicaanse griep en daarnaast overschatten ze de epidemieën van 2012/13. De algoritmen van Google reageerden wel op termen die correleren met griep (zoals kippensoep), maar die bleken achteraf niet indicatief te zijn voor een griepepidemie. Dus ze hadden wel kwantitatieve gegevens, maar onvoldoende betekeniscontext.

Een ander interessant voorbeeld is het idee van ‘slimme steden’. Met behulp van big data en geschikte algoritmen zou het beheer van complexe processen binnen steden ondersteund kunnen worden. In deze benadering is de computer de leidende metafoor voor de stad. Deze kijk op de stad wordt gedreven door het streven naar controle zoals weergegeven in het volgende citaat: “Ons huidige paradigma, de stad als computer, spreekt aan omdat het de rommeligheid van het stadsleven neerzet als programmeerbaar en onderworpen aan rationele orde” (Mattern, 2017). Shannon Mattern wijst er echter op dat dit concept misleidend is. Goed stadsbestuur vereist niet alleen data die op een toegankelijke manier is opgeslagen op servers, maar het vereist ook vormen van stedelijke intelligentie die niet zomaar kunnen worden ingeperkt, ingekaderd en gecatalogiseerd, zoals niet-tekstuele vormen van cultureel geheugen. Dit bewustzijn is vooral relevant voor gemarginaliseerde bevolkingsgroepen, inheemse culturen en ontwikkelingslanden.

Christendom biedt hoop die nodig is om sterfelijkheid te integreren in onze kijk op het leven

Om deze te begrijpen zijn de historische, taalkundige, sociale, economische en juridische aspecten ook cruciaal. We kunnen concluderen dat aan de ontwikkeling van AI een manier van denken ten grondslag ligt die gekenmerkt wordt door een reductie van de werkelijkheid tot data en ruimte, de eerste twee aspecten zoals onderscheiden binnen de Reformatorische wijsbegeerte. Die zienswijze reduceert de werkelijkheid tot samenwerkende bouwblokken die met behulp van data begrepen en geïmiteerd kan worden door algoritmen. Denk hierbij aan de eerdergenoemde uitspraak van Harari dat alle organismen algoritmes zijn.

Van data tot wijsheid
Wat is de rol van data in de bredere context van informatie en kennis over het menselijke bestaan? Toonaangevend hierin is de kennishiërarchie, zoals opgesteld door Russell Ackhof (1989), die kan worden aangeduid als: data – informatie – kennis – (begrip) – wijsheid. Hoewel begrip hierin niet altijd een plaats heeft, lijkt het een nuttige tussenfase tussen kennis en wijsheid. Elke overgang naar het volgende niveau impliceert een afleiding van het niveau ervoor. De negatief geformuleerde vuistregel is: begrip kan niet gereduceerd worden tot kennis, kennis niet tot informatie, en informatie niet tot data. Er is nogal wat discussie over de vraag hoe je van het ene niveau naar een hoger niveau kunt gaan (Rowley, 2007). Er komt iets bij, maar wat? Vanuit het perspectief van de Reformatorische wijsbegeerte kunnen we zeggen dat het terugbrengen van alle modale aspecten tot data en ruimte impliceert dat het biotische, sychische, etc. niet als onderscheiden kwalitatieve aspecten van de werkelijkheid worden erkend en de werkelijkheid gereduceerd wordt. Deze reductie bevat ook een interne tegenstrijdigheid. Als alles gereduceerd zou kunnen worden tot een ordening van bouwstenen (cijfers, reeksen van 0 en 1), waar komen algoritmes dan vandaan? Een algoritme bestaat uit een set instructies die als zodanig al informatie behelst. Maar om tot informatie te komen zou je een algoritme nodig hebben – het kip-en-ei-probleem. Een kijk op de werkelijkheid is nodig waarin betekenis, interpretatie en begrip op één of andere manier kunnen worden geïdentificeerd. In deze context citeert Schultze (2002) een veelzeggende uitspraak van Vaclav Havel: “We moeten het arrogante geloof loslaten als zou de wereld slechts een puzzel zijn die opgelost moet worden, […] een hoeveelheid informatie die in een computer moet worden ingevoerd in de hoop dat zij vroeg of laat een universele oplossing uit zal spugen.” Madsbjerg (2017) heeft overtuigend laten zien dat de data die in de wereld van AI wordt gebruikt, tekortschiet in het geven van richtlijnen voor beslissingen in het dagelijks leven.

Achter deze fundamenteel reducerende benadering van de werkelijkheid onderscheiden we de eerdergenoemde technicistische houding. Deze houding is in onze (post)moderne cultuur het overheersende uitgangspunt geworden om de werkelijkheid te interpreteren. In de hierboven genoemde antropologische zin heeft deze houding een religieus karakter gekregen. Deze houding en het bijbehorende wereldbeeld doen alsof technologie al onze problemen kan oplossen. Dit zou echter volledige controle over de werkelijkheid vereisen.

Vrijheid en beheersing
In onze cultuur kan een onbeperkt streven naar beheersing waargenomen worden wat een drang naar vrijheid van natuurlijke beperkingen en zelfbeschikking belichaamt. Controle en vrijheid zijn twee centrale waarden van de (post)moderne cultuur die voor veel mensen absolute waarden geworden zijn. Aan de ene kant hebben deze twee waarden elkaar nodig. Beheersing heeft vrijheid nodig om in te grijpen en vrijheid heeft beheersing nodig om gerealiseerd te worden. Aan de andere kant echter elimineren ze elkaar. Om volledig vrij te zijn, hebben kwetsbare mensen een vorm van (technologische) beheersing nodig, maar deze (technologische) beheersing over het menselijk leven verkleint tegelijkertijd de persoonlijke vrijheid.

Gegeven de religieuze taal van sommige experts op dit gebied zien we in de moderne technologie ook een utopische dynamiek, die probeert te bewijzen dat het leven zonder God goed geleefd kan worden. De mate van controle die effectief mogelijk is, kan een tijdlang suggereren dat zo’n ‘goed leven’ zonder God mogelijk is. Vroeg of laat echter zal dit een illusie blijken te zijn, vaak en vooral in het aangezicht van lijden en dood. Ons streven naar beheersing laat het onvermogen van onze cultuur zien om onze kwetsbaarheid en sterfelijkheid onder ogen te zien op een manier die niet wordt bepaald door technologische (medische) beheersing. Het toont ons groeiende onvermogen om sterfelijkheid te integreren in onze kijk op het leven. Hiervoor is hoop voorbij de dood nodig. Het christendom biedt een dergelijke, gegronde hoop. Deze kritische opmerkingen betekenen niet dat big data en AI geen enorme kansen bieden voor verbetering van de levensomstandigheden. Auteurs als Fry en Madsbjerg hebben daar veel voorbeelden van gegeven. Maar een dergelijk gebruik moet wel rekening houden met een
veelzijdig mensbeeld, waarin de relatie tot God en alle andere betekenisdimensies gezien en erkend worden. Alleen hierdoor kunnen we mens blijven in dit technologische tijdperk.

Over de auteurs:

Prof. dr. ir. H. (Henk) Jochemsen is emeritus bijzonder hoogleraar Christelijke filosofie aan de ageningen Universiteit en Research en (tot 1 juli 2022) onderzoekshoogleraar Ethiek van de zorg aan de Theologische Universiteit Kampen/Utrecht.


Dr. ir. H.J. (Hugo) Peters is werkzaam in het bedrijfsleven en aangesloten bij de denktank Techthics.
hpeters@techthics.nl

ForumC – Radix – Kunstmatige Intelligentie: en het gevaar van reductionisme – Henk Jochemsen en Hugo Peters
ForumC – Radix – Kunstmatige Intelligentie: en het gevaar van reductionisme – Henk Jochemsen en Hugo Peters
ForumC – Radix – Kunstmatige Intelligentie: en het gevaar van reductionisme – Henk Jochemsen en Hugo Peters
ForumC – Radix – Kunstmatige Intelligentie: en het gevaar van reductionisme – Henk Jochemsen en Hugo Peters
ForumC – Radix – Kunstmatige Intelligentie: en het gevaar van reductionisme – Henk Jochemsen en Hugo Peters
ForumC – Radix – Kunstmatige Intelligentie: en het gevaar van reductionisme – Henk Jochemsen en Hugo Peters
ForumC – Radix – Kunstmatige Intelligentie: en het gevaar van reductionisme – Henk Jochemsen en Hugo Peters

Literatuur

Ackoff, R. (1989). From Data to Wisdom. Journal of Applied Systems Analysis 16, 3-9.
Balner, H. (ed.) (1990). A New Medical Model: A Challenge for Biomedicine? Taylor & Francis, Helen
Dowling Institute Series, 1.
Barbour, I. (1993). Ethics in an age of technology. New York: HarperOne.
Brynjolfsson, E. en McAfee, A. (2015). Will Humans Go the Way of Horses? Labor in the Second
Machine Age. Foreign Affairs, juli / augustus 2015. <foreignaffairs.com/articles/2015-06-16/will-humans-
go-way-horses > [18 maart 2022].
Cellan-Jones, R. (2014). Stephen Hawking warns artificial intelligence could end mankind. BBC. 2 de-
cember 2014.
Clouser, R. (1995). The myth of religious neutrality. Notre Dame: Notre Dame University Press, 23.
Dana-Farber Cancer Institute (2019). Big data takes on cancer (advertisement feature). <na-
ture.com/articles/d42473-019-00035-5?utm_source=twitter&utm_medium=social&utm_%20
c a m p a i g n = b c o n – D a n a _ F a r b e r _ C o n f _ % 2 0 Report_2019&utm_term=Q1_2019> [18 maart 2022].
Debackere, K. (2016). Let the Data Speak for Themselves: Opportunities and Caveats. Journal of Data
and Information Science 1 no. 1: 3-5. < sciendo.com/article/10.20309/jdis.201602 > [18 maart 2022]
De Vynck, G. (2021). The U.S. says humans will always be in control of AI weapons. But the age of au-
tonomous war is already here. The Washington Post. 7 juli 2021.
Foss, L. (1989). The challenge to biomedicine: A foundations perspective. J Med Philosophy 14, 165-
191.
Gehlen, A. (1961). Anthropologische Forschung. Hamburg: Rowolt, 14-21.
Glas, G. (1996). Filosofische antropologie. In: R van Woudenberg (ed.), Kennis en werkelijkheid. Tweede in-
leiding tot een christelijke filosofie. Amsterdam: Buijten & Schipperheijn, 86-142.
Godin, B. en Gingras, Y. (2000). What is scientificand technological culture and how is it measured? A
multidimensional model. Public Understand. Sci. 9, 43-58.
Graaff, F. de. (1970). Als goden sterven. Rotterdam:Lemniscaat (2 e druk), 26,27.
Harari, Y.N. (2016). Homo Deus. A brief history of tomorrow. London: Vintage, 462.
Harris, M. “Inside The First Church Of Artificial Intelligence”, 2017; <wired.com/story/anthony-levandows-
ki-artificial-intelligence-religion/> [23 maart 2022].
ICT&health (2021). Philips gebruikt AI voor spraaktoepassingen e-health. < icthealth.nl/nieuws/philips-
gebruikt-ai-voor-spraaktoepassingen-e-health/> [18maart 2022].
Jain, P. (2020). Artificial Intelligence in Agriculture: Using Modern Day AI to Solve Traditional Farming
Problems. Analytics Vidhya, 4 November. < analytics-vidhya.com/blog/2020/11/artificial-intelligence-in-
agriculture-using-modern-day-ai-to-solve-traditional-farming-problems/> [18 maart 2022].
Joy, B. (2000). Why the future does not need us. Wired Magazine 8.04, april 2000. < wired.com/wired/ar-
chive/8.04/joy_pr.html> [18 maart 2022].
Jochemsen, H. (2000). Hoe humaan is het humaan genoom project? Radix 26 (3), 137-158.
Jochemsen, H. en Leeuwen, E. van (2005). Zinervaring in de zorg. Assen: Van Gorcum.
Kleinnijenhuis, J. (2021). Belastingdienst ging vooral achter lage inkomens aan. Trouw. 22 november 2021.
Kühn, H. (1959). De opgang der mensheid. Utrecht: Prisma, 177.
Lant, H. (2015). Confirmed: AI Can Predict Heart Attacks and Strokes More Accurately Than Doctors.
<futurism.com/neoscope/confirmed-ai-can-predict-heart-attacks-and-strokes-more-accurately-than-
doctors> [18 maart 2022].
Levin, D.M. en Solomon, G.F. (1990). The discursive formation of the body in the history of medicine.
J Med Philosophy 15, 530-535.
Madsbjerg, C. (2017). Sensemaking: the power of thehumanities in the age of algorithm. New York: Ha-
chette books, hoofdstuk 2.
Mattern, S. (2017). A City Is Not a Computer. Places Journal, Februari 2017. <doi.org/10.22269/170207>
[18 maart 2022]
Nederlands Publieke Omroep (2021). Praten met je overleden geliefden: hoe ‘deepfakes’ je dierbaren
weer tot leven wekken. < npo3.nl/brandpuntplus/overleden-geliefden-deepfakes> [18 maart 2022].
Niemeijer, T. (2018). De robot als vervanger van God? CIP. < cip.nl/70859-de-robot-als-ver-
vanger-van-god?utm_source=newsletter&utm_medium=email&utm_campaign=2018Dec12> [18
maart 2022].
Nijhoff, R. en Jochemsen, H. (2006). Informatie: sleutelbegrip tussen materie en meer? Ethische Per-
spectieven 16 (4), 51-65.
Noble, D. (1997). The Religion of Technology: The Divinity of Man and the Spirit of Invention. London:
Pengium books.
Polanyi, M. (1968). Life’s irreducible structure. Science, 160: 1308-1312.
Made You Think. When Man Becomes God: Homo Deus by Yuval Noah Harari. Recensie, < madey-
outhinkpodcast.com/homo-deus-by-yuval-noah-harari/> [18 maart 2022].
Rowley, J. (2007). The wisdom hierarchy: representations of the DIKW hierarchy. Journal of Information
Science 33, 163. Samotics <samotics.com> [18 maart 2022].
SAS (2018). AI Momentum, maturity & models for succes. <branden.biz/wp-content/uploads/2018/10/
ai-momentum-maturity-success-models-109926.pdf> [18 maart 2022].
Schultze, Q.J. (2002). Habits of the high-tech heart. Living virtuously in the information age. Grand Rapids:
Baker Academic, 21, 26.
Schuurman, E. (2003). Faith and hope in technology. Toronto: Clements publishing.
Trendrede (2019). Het vuur van verandering. Trendrede, 2019. < trendrede.nl/wp-content/up-
loads/2015/10/Trendrede-2019.pdf > [18 maart 2022].
Stanford University, Culture: Everything, we as people, are. <web.stanford.edu/~hakuta/www/archives/
syllabi/E_CLAD/sfusd_cult_03/melissa/Culture%20Defined.htm> [26 maart 2022].
Vimeo (2017). < vimeo.com/192179726?embedded =true&source=video_title&owner=128712855> [18
maart 2022].
Vink, R. (2019). Fully automated soil classification with a Convolutional Neural Network and Location embeddings. < ritchievink.com/blog/2019/04/02/
fully-automated-soil-classification-with-a-convolutional-neural-network-and-location-embeddings/> [18
maart 2022].
Wright, N. (2018). How Artificial Intelligence Will Reshape the Global Order. The Coming Competition
Between Digital Authoritarianism and Liberal Democracy. Foreign Affairs, 2018. < foreignaffairs.com/
articles/world/2018-07-10/how-artificial-intelligence-will-reshape-global-order > [18 maart 2022

Back to Top