
Algoritmes, kunstmatige intelligentie en ethiek – Een atechnische inleiding – Reinoud Kaasschieter
Dit artikel verscheen in het thema nummer “Artificial Intelligence – tussen feit en fictie” in het blad Radix. “Radix is het wetenschappelijk kwartaaltijdschrift van ForumC. Het tijdschrift biedt een platform voor artikelen op het snijvlak van geloof, wetenschap en samenleving. Het blad wil vanuit christelijk perspectief een bijdrage leveren aan het gesprek tussen academici die op zoek zijn naar kritische reflectie en intellectuele vorming rond deze thema’s.“
Abstract De laatste tijd verschijnen er regelmatig berichten in de media dat algoritmes een bedreiging (en een kans) vormen. Maar wat is eigenlijk een algoritme en waarvoor worden zij gebruikt? En waarom zorgen juist slimme algoritmes voor problemen? In deze inleiding wordt beschreven wat algoritmes zijn, wat artificial intelligence is en welke ethische uitdagingen deze algoritmes hebben.
1. Wat is een algoritme?
Het woord algoritme roept al snel het beeld op van een computer die een moeilijk wiskundig probleem oplost. Maar in essentie is een algoritme niets anders dan een eindige set instructies voor het bereiken van een doel. Een stappenplan om van input tot output te komen (Dogger & Stouten, 2021).
Een kookrecept kan ook als een algoritme worden gezien. Een recept bestaat uit een ingrediëntenlijst en een kookinstructie. En die instructie kan je zien als algoritme. Met die instructie kan, als ze voldoende gedetailleerd is opgesteld, ook iemand zonder kookervaring het recept maken. Maar kookervaring is best handig om de instructies goed te kunnen interpreteren. En er mogelijk van af te wijken om een smakelijker resultaat te behalen.
Het hoeft geen betoog dat de opsteller van het recept wel die inhoudelijke kennis en ervaring moet hebben. En dat de schrijver van het recept een goed beeld heeft van de omstandigheden waaronder het recept gemaakt moet worden, de middelen, zoals kookgereedschappen die beschikbaar zijn, de kennis en ervaring van de kok/kokkin, enz. Dat maakt het recept minder strikt, maar dat geeft wel flexibiliteit. Een wijziging van een ingrediënt hoeft het recept niet direct waardeloos maken.
Meestal worden algoritmes gebruikt in een wiskundige context. Het algoritme is een manier om de best mogelijke oplossing te vinden. Een goed algoritme heeft als kenmerken dat het zowel correct is als efficiënt. Maar die efficiëntie heeft als prijs dat het algoritme weinig flexibel is. Het algoritme is maar voor één doel gemaakt. Wil je een ander doel bereiken, dan zal je het algoritme moeten aanpassen.

Als voorbeeld wil ik een sorteeralgoritme gebruiken (figuur 1). Met dit algoritme kan je Nederlandstalige woordenlijsten alfabetisch sorteren (figuur 2). Zonder op de inhoud van het algoritme in te gaan, kunnen we wel enkele kenmerken opnoemen:
1. Het algoritme bevat conventies. Bijvoorbeeld over hoe te alfabetiseren. Bijvoorbeeld waar de letter (digraaf ) IJ in het alfabet moet worden geplaatst.
2. Het algoritme kent ontwerpbeperkingen. Het algoritme zal werken voor Nederlandse woorden, misschien voor Engelse woorden, maar niet voor Griekse woorden, omdat Grieks simpelweg andere lettertekens kent.
3. De uitkomst van het algoritme is voorspelbaar. We kunnen de resultaten controleren, testen. Door de invoerwoordenlijst en uitvoerlijst te bekijken, kunnen we nagaan of het algoritme correct – naar verwachting – werkt.
4. Het algoritme is onveranderlijk. De werking blijft door de tijd hetzelfde. Of ik nu vandaag of over twee jaar het algoritme gebruik, met dezelfde invoerlijst zal dezelfde uitvoerlijst worden gegenereerd.
Artificial intelligence heeft daarentegen tot doel lerende algoritmes te maken. Algoritmes die veranderen met wat ze geleerd is. Dit leren gebeurt vooraf en tijdens het gebruik. Hier kom ik later op terug.
In het vervolg van dit artikel zal ik beschrijven wat de consequenties zijn van deze eigenschappen. Voor nu volstaat de constatering dat algoritmes worden gezien als generiek en algemeen toepasbaar. Maar ieder algoritme heeft een beperkt gebruiksdoel. Het is gemaakt voor dat ene doel en kan en mag niet voor een ander doel worden ingezet. Het sorteeralgoritme voor woorden kan je niet zomaar gebruiken voor het sorteren van reeksen getallen.
Formele systemen
In het eerste voorbeeld was er een kookrecept als algoritme genomen. Als we een slordig of
onnauwkeurig recept hebben, kan een ervaren kok de fouten in het recept zien en deze corigeren. Maar een onervaren persoon kan de mist ingaan en niet het gewenste doel bereiken.
Waar recepten meestal door mensen worden uitgevoerd, worden algoritmes uitgevoerd
door computers. Computers noemen we formele systemen, omdat computers alleen eendui-
dige instructies kunnen uitvoeren. Simpel gezegd moet alles expliciet voor hen worden uitge-
speld. Er is geen ruimte voor een eigen interpretatie. Een A komt altijd voor een B. Dat moet
je een computer instrueren, een computer weet dat niet uit zichzelf. Computers kunnen we zien als zeer onervaren koks. Wanneer we een algoritme aan een computer geven, zal deze het algoritme klakkeloos uitvoeren. In de praktijk zal de bouwer van een algoritme tegen de ergste fouten worden beschermd door een beschermingssysteem. Maar dat beschermingssysteem, ook een algoritme, wordt dan weer niet gecontroleerd. Een slecht recept of slechte ingrediënten zorgen voor een slechte maaltijd. Of zoals ze in de IT-industrie zeggen: ‘Garbage in, garbage out’.
Voor de eenvoud gaan we ervan uit dat een algoritme gewoon doet wat het gevraagd wordt. Dat is op zich mooi, want dan kunnen we ervan uitgaan dat het algoritme altijd hetzelfde doet. Wanneer ik een sorteerprogramma op de computer steeds voer met dezelfde woordenlijst, zal ik iedere keer hetzelfde resultaat krijgen. Dat is ook een van de redenen waarom we computers en computeralgoritmes zo graag gebruiken. Menselijke fouten en willekeur worden uitgesloten. Alles en iedereen wordt in principe gelijk behandeld. Maar dat betekent wel dat de maker van het algoritme heel goed moet nadenken hoe hij een foutloos algoritme opstelt. En hoe complexer het algoritme, hoe ingewikkelder dat wordt.
Computers kunnen we zien als zeer onervaren koks
De maker zal alle mogelijke vormen van invoer, waarvoor het algoritme wordt gebruikt, moeten kunnen analyseren. Dat is voorlopig nog mensenwerk. En het mag niet verbazen dat daar regelmatig fouten bij optreden. De updates die u ontvangt voor uw computer of mobiele telefoon bevatten veel correcties van menselijke programmeerfouten.
Een algoritme wordt als correct geclassificeerd wanneer het voldoet aan de specificatie. Maar het waterdichte bewijs van deze correctheid is moeilijk te verkrijgen. Programmeurs gebruiken vaak een empirische analyse om fouten in een algoritme te vinden. Om volledige juistheid te controleren, zijn formele redeneringen nodig (Fox, 2020). Het verkrijgen van een formeel, mathematisch bewijs van correctheid is erg ingewikkeld. Het bedrijfsleven volstaat met het doen van een empirische analyse, waarbij het algoritme wordt blootgesteld aan testcases. Ik ga hier verder niet in op het testen van algoritmes of software, maar ik volsta met te zeggen dat deze testmethode relatief snel en efficiënt is, maar nooit volledig. In software komen altijd fouten voor. Deze fouten kunnen hinderlijk zijn, maar ook ronduit schadelijk. Als software bijvoorbeeld gevoelig is voor hackeraanvallen, kunnen er rampen gebeuren.
2. Kenmerken van softwareapplicaties
Zoals hierboven gebruik ik de woorden software en algoritme door elkaar heen. Om het eenvoudig te houden, stel ik dat computeralgoritmes worden gerealiseerd als software. Deze software kan op hardware – de computer of ‘machine’ zelf – worden geladen. Op die manier kan het algoritme worden uitgevoerd. Moderne software bestaat uit veel algoritmes: algoritmes voor de afhandeling van de gebruikersinterface, zoals Windows; algoritmes voor het doen van berekeningen; algoritmes voor zoeken op het internet enz. Wie het heeft over het algoritme, maakt eigenlijk een grote vereenvoudiging. Het is vooral het samenspel van de verschillende algoritmes binnen software dat voor problemen kan zorgen. In het vervolg praat ik nu over software, of beter softwareapplicaties. Een softwareapplicatie is een samenstel van algoritmes
waarmee een (bedrijfs-)functie kan worden uitgevoerd. Zoals bijvoorbeeld de berekening van het recht, de duur en de hoogte van een socialezekerheidsuitkering. Hieronder beschrijf ik enkele belangrijke kenmerken van algoritmes, zoals die worden toegepast in softwareapplicaties.
1. Generiek versus specifiek. Zoals gezegd is een algoritme generiek. Een sorteeralgoritme moet alle mogelijk woordenlijsten kunnen sorteren, niet alleen een paar woordenlijsten die we van tevoren hebben uitgewerkt. Maar algoritmes zijn ook specifiek. Ze zijn ontworpen om aan van tevoren opgestelde specificaties te voldoen, zoals het sorteren van Nederlandse woordenlijsten. En daarmee sluiten we het sorteren van anderstalige woordenlijsten uit. Daarvoor is het algoritme niet gemaakt. Deze redenering geldt ook voor softwareapplicaties.
2. Scheiding van procedures en data. Omdat een algoritme in bovengenoemde zin generiek is, willen we de software zo opbouwen dat we gemakkelijk verschillende invoer kunnen gebruiken. In dit geval verschillende woordenlijsten. Dit noemen we de data, de gegevens, die het algoritme moet kunnen verwerken. Door de data buiten de softwareapplicatie op te slaan, kunnen we de software instrueren data op te halen en te verwerken. We kunnen onze sorteerapplicatie opdragen een woordenlijst, die we klaar hebben gezet, op te halen, te verwerken en de uitvoer te tonen. Op deze wijze wordt een softwareapplicatie beter inzetbaar voor allerlei soorten invoergegevens of data.
3. Voorspelbaarheid en traceerbaarheid. Zoals we hierboven hebben besproken, moet het gedrag van software ook voorspelbaar zijn. We moeten van tevoren weten hoe de software reageert op verschillende soorten invoer. Dit voorspelde gedrag kunnen we dan testen. We moeten kunnen nagaan waarom de softwareapplicatie zich op een bepaalde manier gedraagt. Gedraagt een applicatie zich ongewenst, dan moeten we kunnen nagaan hoe dat komt en hoe we dat kunnen repareren.
Helaas worden slimme softwareapplicatie en algoritme in het publieke debat vaak met elkaar verward. Het begrip algoritme wordt tegenwoordig vaak gebruikt voor de combinatie van zelflerende software en de data waarmee het getraind is. Dat wordt in de informatietechniek een model genoemd.
3. Gebruik van software
Voordat we verder gaan met zelflerende software, Machine Learning of artificial intelligence, wil ik het eerst hebben over het gebruik van software. Zoals gezegd dient software om data te verwerken zodat bepaalde doelstellingen worden gehaald. Of dat nu een salarisrekening is, het schrijven van een artikel of het spelen van een game – het maakt wat dat betreft niet uit wat het doel is. Omdat zelflerende systemen en artificial intelligence ook gewoon software zijn, spelen de problemen rondom het gebruik van software ook voor deze intelligente systemen. Natuurlijk heeft software ons heel veel gebracht en ook veel dagelijkse problemen opgelost. Onze huidige samenleving kan niet zonder software. Software en algoritmes zijn overal aanwezig. Softwareapplicaties zitten in uw computer, koffiezetapparaat of auto. Softwareapplicaties maken het mogelijk te bellen, spullen te kopen (fysiek en online), weer gezond te worden en te bewegen (bijvoorbeeld op een elektrische fiets). Wat zijn dan enkele belangrijke eigen-
schappen van software?
Omnipresent. Zoals gezegd is software overal aanwezig, niet alleen in computerapplicaties maar ook in allerlei apparaten. Dit maakt dat we erg afhankelijk zijn van softwareapplicaties. Deze software is ook nog eens in netwerken, zoals het internet, opgenomen. Dit maakt softwareapplicaties niet alleen gevoelig voor misbruik, zoals hackeraanvallen, het betekent ook dat applicaties van elkaar afhankelijk worden. Het goed functioneren van een applicatie betekent niet alleen dat die applicatie zelf goed in elkaar moet steken, maar ook dat alle applicaties waarmee het communiceert goed moeten functioneren.
Complexiteit. De software van een modern jachtvliegtuig als een F35-jet heeft 25 miljoen regels programmacode, een luxeauto heeft 100 miljoen regels (figuur 3, Ruffo, 2020)

Ook al zeggen deze aantallen in absolute zin weinig, ze zijn wel een indicatie dat software tegenwoordig heel complex is. Die complexiteit maakt het moeilijk om fouten te vermijden en op te sporen. En, wat nog zorgelijker is, we kunnen niet meer voorspellen hoe die software zich gaat gedragen onder onvoorziene omstandigheden. Of beter gezegd, in een samenloop van omstandigheden die niet voorzien is.
Onbekendheid. Omdat het ondoenlijk is complexe software van de grond af aan op te bouwen, worden veel softwarecomponenten hergebruikt. Dat bespaart tijd, maar heeft wel het risico dat de ontwerper of programmeur de interne werking van zo’n component niet hoeft te begrijpen. Zolang het werkt volgens specificatie, is het bruikbaar en in orde. Maar onder welke omstandigheden de software zich onjuist gedraagt, is meestal niet bekend. We noemen dit soort software black boxes, ondoorzichtige dozen. We zien aan de buitenkant wat het doet maar de interne werking is ons onbekend. Dus kunnen we niet volledig voorspellen hoe die software zich onder alle omstandigheden gaat gedragen.
Overschatting. Het laatste probleem is wat optimism bias wordt genoemd. In ons brein worden de positieve eigenschappen van technologie benadrukt, terwijl we de negatieve gevolgen wegdrukken (Clark et al., 2016). Ik noem dat ook wel ‘techno-optimisme’. Dit maakt dat we de ‘donkere’ kanten van een technologisch product, zoals software, eigenlijk negeren. De positieve kanten zijn zo aanlokkelijk, dat we vergeten dat het ook mis kan gaan. Softwareontwikkelaars, en hun opdrachtgevers, hebben ook vaak de neiging de goede werking van hun applicaties te overschatten. De praktijk van alle dag, waarin de softwareapplicatie moet werken, is ingewikkelder, onvoorspelbaarder en rommeliger dan we van tevoren kunnen bedenken.
4. Zelflerende systemen en artificial intelligence
Tot nu toe hebben we ‘normale’ of ‘domme’ computeralgoritmen besproken. ‘Dom’ in de zin van dat de intelligentie erin is gestopt door een mens, een programmeur. Het algoritme zelf is niet in staat zelf iets te leren tenzij dat expliciet is geprogrammeerd. Maar wat betekent ‘lerend’ in deze zin? Wat zijn dan slimme algoritmes? Slimme algoritmes worden vaak onder de noemer artificial intelligence (AI) geschaard. Onder AI worden meestal modellen (programmacode plus data) verstaan die problemen kunnen oplossen die mensen niet kunnen oplossen. Slimme algoritmes leren patronen in de data te herkennen. En kunnen dan die patronen gebruiken om beter te functioneren. Vanwege de grote hoeveelheid data kunnen mensen die patronen niet zelf zien. Ons menselijk brein heeft zo zijn beperkingen.
Een computer heeft tenminste 1000 voorbeelden nodig om te beginnen iets te herkennen
De meeste artificial intelligence floreert met grote hoeveelheden data. Zonder die data kan het niet leren. Waar mensen soms met enkele voorbeelden al een patroon herkennen, kunnen computers dat pas na heel veel voorbeelden te hebben verwerkt. Als vuistregel wordt gebruikt dat een computer tenminste 1000 voorbeelden nodig heeft om iets te beginnen te herkennen. Maar dat is een optimistische schatting (Melvin, 2021).
Dat de data representatief moet zijn voor het probleem dat opgelost moet worden, lijkt vrij logisch. Toch ligt hier vaak een probleem, omdat van tevoren niet goed bepaald kan worden welke ‘databrokken’ die informatie bevatten die niet alleen nuttig en actueel is, maar ook zonder vooroordelen (bias). De datakwaliteit van de gegevens die AI gebruikt voor leren is een belangrijk probleem.
Lerende algoritmes passen hun gedrag aan naar gelang de data die ze verwerken. Het gedrag van domme algoritmes blijft stabiel, zoals we gezien hebben. Iedere keer wanneer ik dezelfde data invoer, krijg ik dezelfde uitkomst. Maar bij slimme algoritmes kunnen die uitkomsten gaan verschillen. We hopen dat het algoritme steeds beter wordt, dat wil zeggen, steeds nauwkeuriger gaat voorspellen en beslissen. Maar het kan helaas ook de andere kant op gaan, waarbij het algoritme steeds fouter gaat beslissen, bijvoorbeeld omdat het vooroordelen overneemt en (zichzelf ) bevestigt (Kwan, 2018).
Voorbeeld: AI leert spelletjes spelen
Er verschijnen regelmatig berichten dat een AI-systeem computerspelletjes leert spelen en dan beter wordt dan mensen. Simpel gezegd leert de computer als volgt. Het programma probeert verschillende stappen uit, zoals zetten in een schaakspel. Dit natuurlijk binnen de regels die het spel oplegt. Steeds bekijkt de computer of die stap leidt tot een positief eindresultaat. Zo niet, dan wordt die stap afgekeurd. Bij een spel is het natuurlijk niet één stap die tot resultaat leidt, maar een keten van stappen. Maar met veel proberen wordt toch die volgorde van stappen gevonden die leidt tot winst. Wie wint is natuurlijk
ook door regels bepaald (Comi, 2018).
Als het resultaat zelf door de computer kan worden beoordeeld, kan het algoritme zelfstandig gaan leren. We noemen dit unsupervised learning. Wanneer een mens nodig is om te controleren of er werkelijk goed resultaat is behaald, noemen we dat supervised learning. Het oordeel van de menselijke beoordelaar wordt weer teruggekoppeld aan het algoritme. Dat met unsupervised learning snelle en belangrijke resultaten worden behaald is niet verwonderlijk. Al voeren ze een voor mensen omslachtige manier van leren uit, door hun snelheid wordt toch resultaat behaald. Maar ze werken alleen goed in gesloten systemen met duidelijke spelregels, zoals een computer- of bordspel. De wereld buiten is veel complexer en onvoorspelbaarder. Dan blijft menselijke supervisie nodig omdat AI eigenlijk geen benul heeft van de wereld om zich heen: de (morele) waarden die samenlevingen koesteren, de doelen die we stellen en onze ervaringen uit het verleden. In die situaties neemt AI wel eens een verkeerde beslissing. Een beslissing die formeel genomen misschien wel juist is, maar niet aanvaardbaar voor mens, natuur en samenleving (Buijsman, 2021). Gewoonweg omdat deze beslissing niet ethisch is binnen de kaders waar het gebruikt wordt, zoals ons christelijke waardensysteem.
De beste controlevorm is controle tijdens het beslissingsproces
Voorbeeld: AI selecteert sollicitanten
Artificial intelligence wordt gebruikt voor het scannen van sollicitatiebrieven en CV’s. Men hoopt dat een algoritme dit objectiever kan doen dan een menselijke functionaris. Maar deze systemen hebben een belangrijk probleem. Ze hebben geleerd teksten te beoordelen op basis van historische data, de brieven en CV’s van personeel dat in het verleden is aangenomen. In dat aannamebeleid zaten de vooroordelen van de personeelsafdeling uit het verleden verstopt. Vooroordelen over gender, afkomst en opleiding. AI kan deze verstopte indicatoren er genadeloos uithalen en zelf gebruiken. Dus worden deze systemen niet objectiever, maar herhalen ze de fouten uit het verleden omdat we ze die fouten hebben geleerd en ze die hebben overgenomen (Mujtaba & Mahapatra, 2019). 5. Gebruik van artificial intelligence Artificial intelligence kan voor allerlei doelen worden ingezet. In alle industriesectoren en overheidsinstellingen worden toepassingen gevonden. Enkele belangrijke toepassingen zijn: online winkelen en adverteren, zoeken op het internet, digitale persoonlijke assistenten, machinevertalingen, slimme huizen, steden en infrastructuur, (zelfrijdende) auto’s, cyberbeveiliging.
Voor mij is, naast waarvoor artificial intelligence gebruikt wordt, vooral belangrijk hoe het gebruikt wordt. Hieronder worden de ethische kanten van artificial intelligence kort beschreven. Binnen het domein van de artificial intelligence is de ethiek van de toepassingen van AI belangrijk. Bijvoorbeeld: Zijn slimme wapensystemen ethisch? Maar in de huidige discussie komt vooral naar voren dat er problemen zijn met de manier waarop artificial intelligence wordt toegepast. Bijvoorbeeld: Zijn autonome (slimme) wapensystemen ethisch? Mogen we een wapensysteem zelf zijn doelen laten uitzoeken en uitschakelen, of moet er altijd een militair de finale beslissing nemen?
De kernvraag is voor mij: in hoeverre willen of kunnen we artificial intelligence zelfstandig beslissingen laten nemen zonder menselijke controle? (Dignum, 2017) In de markt zien we twee richtingen voor het gebruik van artificial intelligence. De eerste is automatisering, waarbij taken uit de handen van de mens worden genomen door algoritmes. Hierdoor krijgen mensen meer tijd om zich met andere, meer creatieve zaken bezig te houden (Su, et al., 2020). De tweede is het ondersteunen van menselijke taken door de mens en het algoritme een dialoog aan te laten gaan. In de hoop dat de uitvoering van die taak – of uiteindelijk de levenskwaliteit van de mens – beter wordt. Dit wordt ook wel augmentation genoemd (Miller, 2018).
Automatisering
In het bedrijfsleven wordt vooral uitgekeken naar de mogelijkheden om artificial intelligence in te zetten voor automatisering van taken en processen (European Commission, et al., 2019). Door automatisering kan een hogere productiviteit worden bereikt. Het toepassen van AI is een van de middelen die beschikbaar staan om beslissingen automatisch te laten nemen. Eigenlijk hoeft de software daarvoor niet slim te zijn, ook ‘domme’ algoritmes kunnen automatisch beslissen. Denk bijvoorbeeld aan het automatisch afhandelen van hypotheekaanvragen, het controleren op fraude en het stellen van diagnoses. Men denkt tot honderdvoudige productiviteitverhogingen te kunnen krijgen door automatisering (Rikert, 2017). Dat gebeurt vooral door mensen uit het controleproces, de loop, te halen. Machines nemen automatisch beslissingen zonder dat er menselijke controle of ingrijpen bij nodig is. Maar of dit verstandig is, is nog maar de vraag. Zeker zolang AI niet goed de menselijke maat kan houden. Het is een moeilijke opgave om de menselijke controles zo te organiseren dat deze controles ook goed gaan werken (Kaasschieter, 2020).
Augmentation
Op dit moment blijft het nodig om de beslissingen genomen door artificial intelligence in de gaten te houden. De beste controlevorm is controle tijdens het beslissingsproces. Dus liever niet achteraf als het ‘kwaad’ al geschied is. Dit heeft tot gevolg dat de mens ook eindverantwoordelijkheid blijft dragen voor de beslissing. Voor fabrikanten van slimme systemen, zoals zelfrijdende auto’s, is dit handig omdat dit het aansprakelijkheidsvraagstuk voor hen eenvoudiger maakt (Villasenor, 2019).
Vanuit mens-machine perspectief is het noodzakelijk om, als de mens al de verantwoordelijkheid draagt, dan ook optimaal ondersteuning te bieden om deze verantwoordelijkheid waar te maken. Daarbij zal de slimme software niet beslissen, maar adviseren. Dit klinkt nobel en menselijk, maar of het in de praktijk gaat werken is nog maar de vraag. Ik denk dat augmentation niet leidt tot die mate van productiviteitsverhogingen die automatisering wel kan bieden (Kaasschieter, 2018). Automatisering zal altijd een lonkend perspectief zijn in tijden van kostenconcurrentie en schaarste op de arbeidsmarkt.
6. Problemen met zelflerende systemen
Zelflerende systemen hebben zo hun nukken. Eigenlijk geldt dit ook voor ‘domme’ systemen. In de media worden fouten van algoritmes breed uitgemeten, zeker wanneer de gevolgen van foute beslissingen individuen hard raken. De vraag die dan rijst is: zijn algoritmes wel eerlijk? De ethische discussies rondom algoritmische beslissingen richten zich dan ook op fairness (eerlijkheid) en bias (vooroordelen). Het toeslagenschandaal is hier een prangend voorbeeld van. Zeker omdat de slachtoffers geen idee hebben waarom de betreffende beslissing is genomen. Dat wordt transparency (transparantie) genoemd. Systemen moeten duidelijk kunnen maken op welke gronden een individuele beslissing is genomen. Ook moet duidelijk zijn wie uiteindelijk verantwoordelijk en aansprakelijk voor de beslissing is, bijvoorbeeld de bezitter of de producent van AI (Pels Rijcken & Droogleever Fortuijn, 2019).
Eerlijkheid en vooroordelen
In onze westerse samenleving willen we dat beslissingen van bedrijven en overheid eerlijk zijn, dat zonder aanziens des persoons geoordeeld wordt. In de praktijk betekent dit dat factoren die we maatschappelijk irrelevant achten niet mogen worden meegenomen in de beslissing. Wie beslist op basis van bijvoorbeeld gender, huidskleur of afkomst wordt verweten te discrimineren. Artificial intelligence kan ook discrimineren. De oorzaak is meestal dat de gegevens waarmee het zelflerende algoritme wordt gevoed niet representatief zijn voor wat men wil bereiken. We hebben al gezien dat data verouderd kan zijn, omdat die ‘foute’ beslissingen uit het verleden bevat. Ook kunnen bij de dataverzameling minderheidsgroepen vergeten worden. Een langlopende discussie die steeds weer opspeelt is of het intelligente systeem de huidige werkelijkheid – waarin discriminatie en achterstelling voorkomt – moet
nabootsen omdat dat nu de alledaagse werkelijkheid is, of dat het systeem een betere werkelijkheid moet creëren, door juist de huidige discriminatie en achterstelling te vermijden (Faggella, 2021).
Vooralsnog neigt de discussie naar het standpunt dat artificial intelligence eerlijk en zonder vooroordelen moet zijn. Dat legt een zware last op de schouders van de ontwikkelaars. Zij moeten bij hun dataverzameling op zoek gaan naar schone gegevens in grote hoeveelheden. En in de praktijk valt dat niet mee. Voorlopig zal artificial intelligence nog vaak vooroordelen bevatten (Susan, et al. 2020).
Transparantie
Algoritmen en modellen met artificial intelligence zijn vaak een black box. De werking van machine learning en deep learning is van buitenaf niet te doorgronden. Dat ligt niet alleen aan de complexiteit van het model, maar is inherent aan de manier waarop het algoritme werkt. Er is geen stukje code aan te wijzen waar een fout zit, wat in principe bij klassieke ‘domme’ algoritmes wel mogelijk is. Gesteld kan worden dat hoe simpeler het (zelflerende) algoritme,
hoe gemakkelijker is na te gaan op welke gronden een computerbeslissing is genomen. Maar simpele algoritmes zijn lang niet zo nauwkeurig in hun voorspellingen als complexere maar ondoorgrondelijke varianten.
Transparantie is moeilijk te creëren. Algoritmische transparantie, waarbij in technische termen beschreven wordt hoe een beslissing door het algoritme is gemaakt, is al ingewikkeld genoeg. Maar een dergelijke technische uitleg betekent nog niet dat de betrokkenen die ook kunnen begrijpen. Want als ik als leek bezwaar wil maken tegen een computergebaseerde beslissing, moet ik die beslissing wel kunnen doorgronden. Daarom wordt transparantie tegenwoordig meer geïnterpreteerd als uitlegbaarheid: explainability. Transparantie voor AI blijft complex omdat het zich als ethisch ideaal nog moeilijk laat omzetten naar praktische toepassingen (Felzmann et al., 2020).
7. Ethische aspecten van artificial intelligence
Het is eigenlijk vreemd dat de ethische discussies rondom artificial intelligence pas sinds een paar jaar de media halen. Technologie heeft altijd ethische aspecten gehad. Ook niet-intelligente technieken kunnen ethisch problematisch zijn. Ik denk dat deze discussies nu vooral opspelen omdat er veel geld mee gemoeid kan zijn. Leveranciers van informatietechnologie willen graag dat hun producten en diensten ethisch zijn. (Of dat ze als ethisch worden geafficheerd, zgn. ethics washing). Zonder dit stempel wordt de winstgevendheid bedreigd. Want diezelfde technologie maakt ook dat negatieve berichten over vooral sociale mediabedrijven zich razendsnel verspreiden.
Ethisch betere algoritmes kunnen tot paradoxen leiden
Aan de andere kant kan technologie zulke grote maatschappelijke consequenties hebben, dat deze discussies gerechtvaardigd zijn. Maar in wezen zijn de ethische discussies rondom artificial intelligence niet anders dan eerdere ethische discussies rondom andere technologie, zoals massaal autoverkeer, kernenergie en wapensystemen.
Wat maakt de ethische kwesties dan anders dan bij eerdere technologische ontwikkelingen? Ten eerste kan artificial intelligence worden toegepast zonder dat het beslag legt op de openbare ruimte. De discussie rondom zelfrijdende auto’s, datacentra en verdozing van het landschap laat zien dat een data-gedreven maatschappij wel in de publieke ruimte treedt. Maar dat is pas een recent verschijnsel. Artificial intelligence kan in ‘het verborgene’ worden toegepast. We weten eigenlijk niet waar allemaal deze algoritmes worden toegepast. En ik vrees dat veel organisaties ook zelf niet weten of zij artificial intelligence toepassen, omdat deze verborgen kan zijn in de door hen aangekochte software.
De maatschappelijke druk om ethisch goede algoritmes te ontwikkelen neemt toe. En dat is alleen maar aan te moedigen. Maar ethisch betere algoritmes kunnen tot paradoxen leiden. Wanneer bijvoorbeeld een algoritme duidelijk kan ‘vertellen’ hoe een beslissing is genomen, kan de organisatie die het algoritme gebruikt ook juridisch ter verantwoording worden geroepen. Ook zijn de algoritmes kwetsbaarder voor hackeraanvallen, omdat de werking door de uitleg wordt ‘onthuld’. Als die werking dan bekend is, kan dit weer leiden tot diefstal van bedrijfsgeheimen of intellectueel eigendom. Dit wordt de transparency paradox genoemd (Bunt, 2019).
Ethics by design
Alleen wanneer ethische aspecten vanaf het begin van het onderzoek en ontwerp van een algoritme worden meegenomen, is de kans groot dat het uiteindelijke resultaat ook ethisch verantwoord is. Net zoals bij privacy vanaf het begin gegevensbescherming op de voorgrond moet staan, geldt dit ook bij artificial intelligence. Ethiek kan niet als een kers op de taart geplaatst worden; ethiek is een hoofdingrediënt van de taart zelf. Ethics by design moet richtlijn zijn van de ontwikkeling van software.
Deze bestaat uit ethische richtlijnen voor (autonome)AI-systemen:
• AI-systemen mogen de menselijke autonomie, vrijheid of waardigheid niet negatief
beïnvloeden.
• AI-systemen mogen het recht op privacy en op bescherming van persoonsgegevens
niet schenden. Ze moeten gegevens gebruiken die noodzakelijk, onbevooroordeeld,
representatief en nauwkeurig zijn.
• AI-systemen moeten worden ontwikkeld met een inclusieve, eerlijke en niet-discri-
minerende agenda.
• Er moeten maatregelen worden genomen om ervoor te zorgen dat AI-systemen geen
individuele, sociale of milieuschade veroorzaken of gebaseerd zijn op schadelijke
technologieën. AI-systemen mogen anderen niet beïnvloeden om te handelen op ma-
nieren die schade toebrengen. AI-systemen moeten binnen hun specificaties blijven
functioneren.
• AI-systemen moeten zo transparant mogelijk zijn voor hun belanghebbenden en voor
hun eindgebruikers.
• Menselijk toezicht en aansprakelijkheid zijn vereist om naleving van deze principes te
verzekeren en niet-naleving aan te pakken. (European Commission, 2021)
Alleen wanneer we nu en in de toekomst slimme algoritmes ontwikkelen die voldoen aan
de ethische richtlijnen, kunnen algoritmes worden ingezet om een betere wereld te creëren.
Een wereld waarin wij ons ook thuis voelen omdat daar de zwakkeren en minderbedeelden
beschermd worden tegen uitbuiting. Een wereld waarin christelijke waarden als naastenliefde,
rechtvaardigheid en barmhartigheid aanwezig zijn en tot bloei komen.
Auteur: Ir. R.H. (Reinoud) Kaasschieter is managing consultant bij Capgemini en expert op het gebied van artificial intelligence en ethiek. E reinoud.kaasschieter@capgemini.com
Met dank aan Rick Bouter van Instituut Techthics voor zijn bijdrage.






Literatuur
Buijsman, S. (2021). Waarom het problematisch is dat algoritmes geen schuldgevoel hebben. Filosofie
Magazine 12 (december 2021).
Bunt, A. (2019). The AI Transparency Paradox. <hbr.org/2019/12/the-ai-transparency-paradox> [18-
02-2022].
Clark, B. B., Robert, C. & Hampton, S. A. (2016). The Technology Effect: How Perceptions of Technology Drive Excessive Optimism. Journal of Business and Psychology 31, 87-102.
Comi, M. (2018). How to teach AI to play Games: Deep Reinforcement Learning. < towardsdatascience.
com/how-to-teach-an-ai-to-play-games-deep-rein-forcement-learning-28f9b920440a> [17-02-2022].
Dignum, V. (2017). Responsible Autonomy. < arxiv.org/abs/1706.02513v1> [18-02-2022].
Dogger, J. & Stouten, E. (2021). Algoritme als con-tainerbegrip: waar hebben we het nu eigenlijk over? <
capgemini.com/nl-nl/2021/08/algoritme-als-contai-nerbegrip-waar-hebben-we-het-nu-eigenlijk-over/>
[18-02-2022].
European Commission (2021). Ethics By Design and Ethics of Use Approaches for Artificial Intelligence.
Brussel: Europese Commissie. European Commission, European Political Strategy Council & Servoz, M. (2019). AI, the future of work? : work of the future! : on how artificial intelligence, robotics and automation are transforming jobs and the economy in Europe. Brussels: Publications Office.
Europese Parlement (2021). What is artificial in-telligence and how is it used? < europarl.europa.eu/
news/en/headlines/society/20200827STO85804/what-is-artificial-intelligence-and-how-is-it-used>
[18-02-2022].
Faggella, D. (2021). Can Artificial Intelligence Make the World a Better Place? < emerj.com/ai-future-
outlook/can-artificial-intelligence-make-the-world-a-better-place/> [18-02-2022].
Felzmann, H., Fosch-Villaronga, E., Lutz, C. & Tamò-Larrieux, A. (2020). Towards Transparency
by Design for Artificial Intelligence. Science and Engi-neering Ethics, 16 11, Volume 26, p. 3333–3361.
Fox, P. (2020). Verifying an algorithm. < khanacade-my.org/computing/ap-computer-science-principles/
algorithms-101/evaluating-algorithms/a/verifying-an-algorithm> [04-03-2022]
Kaasschieter, R. (2018). Augmented artificial intel-ligence: Will it work? < capgemini.com/2018/10/
augmented-artificial-intelligence-will-it-work/> [18-02-2022].
Kaasschieter, R. (2020). Human-in-the-loop: een verantwoordelijk idee? < agconnect.nl/blog/human-
loop-een-verantwoordelijk-idee> [18-02-2022].
Kwan, N. (2018). The Hidden Dangers in Algorithmic Decision Making. < towardsdatascience.com/the-
hidden-dangers-in-algorithmic-decision-making-27722d716a49> [Accessed 17 2 2022].
Melvin, R. L. (2021). Sample Size in Machine Lear-ning and Artificial Intelligence. < sites.uab.edu/peri-
op-datascience/2021/06/28/sample-size-in-machine-learning-and-artificial-intelligence/> [04-03-2022]
Miller, S. M. (2018). AI: Augmentation, more so than automation. Asian Management Insights, 5, 5(1), 1-20.
Mujtaba, D. & Mahapatra, N. (2019). Ethical Con-siderations in AI-Based Recruitment. 2019 IEEE In-
ternational Symposium on Technology and Society(ISTAS), 1-7
Pels Rijcken & Droogleever Fortuijn (2019). Whitepaper: Juridische aspecten van AI & machine
learning. < kennisopenbaarbestuur.nl/media/257140/whitepaper-juridische-aspecten-van-ai-en-machine-
learning-v2-pels-rijcken.pdf> [04-03-2022].
Rikert, T. (2017). AI hype has peaked so what’s next? < insights.nextworldcap.com/ai-hype-has-peaked-
so-whats-next-8c72f5e28ea3> [17-02-2022].
Ruffo, Gustavo Henrique (2020). Computers On Wheels Are More Prone To Personal Data Hacking. <
insideevs.com/news/423074/computers-on-wheels-prone-hacking/> [04-03-2022]
Susan, L., Barry, O. & Siapera, E. (2020). Data, Power and Bias in Artificial Intelligence. < arxiv.org/
abs/2008.07341> [18-02-2022].
Su, Z., Togay, G. & Côté, A.-M. (2020). Artificial in-telligence: a destructive and yet creative force in the
skilled labour market. Human Resource DevelopmentInternational, 13 09, 24(13), 341-352.
Villasenor, J. (2019). Products liability law as a way to address AI harms. <brookings.edu/research/pro-
ducts-liability-law-as-a-way-to-address-ai-harms>[04-03-2022]
Wikipedia (2021). Bubblesort. <nl.wikipedia.org/wiki/Bubblesort> [17-02-2022].