ChatGPT – wat moeten we ermee? 

Door de digitale bomen die elke dag geplant worden dreigen we het bos van onze cyberwereld uit het oog te verliezen. ChatGPT, het spraakmakende taalmodel van Open AI, is zo’n boom. En die heeft al flink wat stof doen opwaaien. Onderwijzers, uitgevers en beleidsmakers zijn naarstig op zoek naar strategieën om met de nieuwe werkelijkheid van frauderende studenten, digitale ghostwriters en aanstormende generaties van taalarme burgers om te gaan.  

Gelukkig is daar het platform van Radboud Reflects. Zij organiseert namens de Faculteit voor Filosofie, Theologie en Religiewetenschappen (FTR) in Nijmegen actualiteitencolleges om de nieuwste trends in onze snel veranderende werkelijkheid in hapklare brokken op te dienen. Schrijver dezes was op de avond van 24 januari jongstleden aanwezig voor een snelcursus ChatGPT en haar maatschappelijke gevolgen. Filosoof en gedragswetenschapper Anco Peeters voerde het woord, gedragsfilosoof Jan Bransen reageerde met een contrapunt en Frank van Caspel, zelf ook filosoof, modereerde de avond. En o ja, ChatGPT zelf mocht ook meedoen. 

Filosofisch landschap 

In het kort dan. Een Large Language Model (LLM) als ChatGPT imiteert menselijke taal. Daarbij maakt het gebruik van de astronomische hoeveelheid gegevens (‘Big Data’) van menselijke interacties die via het Internet beschikbaar is. Verder is ChatGPT een chatbot die opdrachten uitvoert en vragen beantwoordt die gebruikers aan haar stellen. Daarbij genereert de bot uitspraken op basis van de kans dat de gebruiker daarin een adequaat antwoord herkent. En inderdaad, de uitspraken van ChatGPT zijn vaak griezelig menselijk. Op de vraag ‘ben je creatief’ antwoordde de aanwezige bot eerlijk (en in zijn moedertaal): “I am able to generate text that may appear creative to a reader, but it is based on patterns and information from the training data – not on my own imagination or original ideas.” Menselijke eerlijkheid? 

Spreker Anco Peeters bracht ‘het filosofisch landschap’ rondom ChatGPT in kaart. Van het verleden moeten we leren welke gebeurtenissen hebben geleid tot het ontstaan van technieken als ChatGPT. We moeten ons nu leren oriënteren op de manier waarop zij haar gebruikers en uiteindelijk iedereen beïnvloedt. Ten slotte proberen we voorzichtig te ontwaren wat er zou kunnen gebeuren als we daarin niet slagen. En natuurlijk wat voor goeds de chatbot ons nog kan brengen.  

Ethische hordes 

Dat er iets op het spel staat is duidelijk. Techgiganten schrappen duizenden banen en steken tegelijkertijd miljoenen in kunstmatige intelligentie (KI). Er wordt namelijk verdient aan de gebruikers die onbetaald de data genereren op basis waarvan de machine haar trucjes leert. Die data kunnen vooralsnog niet ingezien en desnoods teruggevraagd worden. Omdat de machine patronen van menselijke interactie herkent en reproduceert, neemt zij ook menselijke vooroordelen over. We zullen geneigd zijn ChatGPT te vermenselijken. Daarbij lopen we in de val van de zogenaamde ‘expertparadox’: om de gegenereerde uitspraken te controleren zul je zelf al boven de stof moeten staan. En dat is juist zo moeilijk: machines die werken op basis van big data zijn zwarte dozen. Dat betekent dat zelfs de makers niet helemaal kunnen weten hoe het algoritme functioneert. 

Omdat het niet eenvoudig is greep te krijgen op ChatGPT, is het ook moeilijk te zeggen wat we ermee aan moeten. Peeters sprak van de ‘ethische hordes’ die we zullen moeten nemen, willen we goed met het nieuwe medium kunnen omgaan. Traditioneel zouden we vragen of de gevolgen van een innovatie wel wenselijk zijn voordat we deze uitrollen in onze samenleving. Het probleem bij de meeste nieuwe innovaties, ChatGPT incluis, is dat de gevolgen simpelweg niet te voorspellen zijn. Een andere benadering zou vragen of ChatGPT wel tot meerdere glorie van de mens dient, of dat het medium vooral afbreuk doet aan menselijke waardigheid. Techbedrijven en beleidsmakers weten nog niet goed om te springen met de invloed van kunstmatige intelligentie op informatiestromen en de bezetting van de werkvloer; onderwijsinstellingen zijn evengoed bezig hun strategie te bepalen ten aanzien van studenten die de bot hun opstellen voor zich laat schrijven. Maar of ChatGPT intrinsiek afbreuk doet aan ons recht op een eerlijke kans in de samenleving enerzijds of het vermogen om voor onszelf na te denken anderzijds, is nog onduidelijk. 

Pleidooi voor ploeteren 

Volgens Peeters kunnen we onszelf het best de vraag stellen hoe ChatGPT ons kan helpen om goede mensen te worden. Wat verwachten we bijvoorbeeld van de goede leerling, en kan ChatGPT bijdragen aan diens vorming? Of staat de taalmachine goed onderwijs onomwonden in de weg? Hoe moeizaam het schrijfproces soms ook mag zijn, we leren onszelf ervan te corrigeren, ontdekken spelenderwijs nieuwe uitdrukkingswijzen en scherpen onze pen totdat we onze eigen stijl van schrijven ontdekt hebben. Maar dat dreigt allemaal in het niet te vallen bij de hoge output die de taalgenerende KI voor gebruikers mogelijk maakt. Zo komt de norm voor de snelheid waarmee informatie verwerkt dient te worden een stuk hoger te liggen.  

Gedragsfilosoof Jan Bransen legde in zijn discussie met Peeters sterk de nadruk op pragmatiek. Anders dan mensen kunnen taalmachines zich niet direct in het leven mengen en zich daarin bekwamen. Weliswaar volgen de teksten van ChatGPT keurig de regeltjes van de grammatica, maar alleen de gebruikers kunnen deze teksten ergens bij gaan gebruiken. Leerlingen moeten zich afvragen waar hun menselijke initiatief ligt buiten de bot om; onderwijsland moet zich afvragen of stamptoetsen nog wel zo’n zin hebben. Het bijzondere dat mensen kunnen zit ‘m namelijk niet in de reproductie van specialistische kennis – dat kan een computer ook. Het zit ‘m in de worsteling met allerlei indrukken; met wat de docent tijdens de les heeft meegegeven, de dingen die men heeft meegemaakt en nog hoopt te bereiken, enzovoorts. Die indrukken worden allemaal verwerkt tot een tekst van eigen hand, met bloed, zweet en tranen geschreven. Kortom, een mens kan ploeteren – de pruttelende computer kan dat niet. Dat maakt onze mededelingen authentiek en die van de computer zielloos. 

Radboud Reflects organiseert in samenwerking met diverse academici wekelijks lezingen, workshops en debatten voor het brede publiek over actuele wetenschappelijke vraagstukken.  

De lezing is hier terug te zien. 

Daniël Zevenhuizen is redacteur bij Techthics en student filosofie aan de Radboud Universiteit Nijmegen 

Back to Top