38e jaargang nr. 1 (januari 2024)
thema: Kunstmatige Intelligentie (AI)
Cees Zweistra
Moeten we bang zijn voor kunstmatige intelligentie?
De mens is een wezen dat ‘gezien en gehoord’ moet worden. Zonder erkenning door een ander dan onszelf bestaan we in feite niet. Vandaar dat de filosoof Aristoteles – en meer recent Hannah Arendt – opmerkte dat de mens een politiek dier (zoön politikon) is.
De zoektocht naar ‘erkenning’ is volgens Arendt een opgave die maakt dat we het contact met medemensen moeten zoeken. Zonder anderen zijn we een beetje zoals de mythische figuur Narcissus uit de Metamorfosen van Ovidius. Geboeid door zijn eigen gezicht, weerkaatst in de spiegeling van een poel water, vergat hij zijn omgeving en kwijnde uiteindelijk weg. Medemensen verlossen ons van onszelf en daardoor is vrijheid iets wat we paradoxaal genoeg juist vinden in de relatie met anderen, in een politieke gemeenschap. Dit is het ideaal. Zo zou het moeten zijn: niemand zou uit vrije wil een Narcissus moeten willen zijn. Daarmee verschralen we onszelf, zoals Narcissus zijn bestaan verarmde door liever naar zichzelf te staren dan in te gaan op de liefdesverklaringen van de nimf Echo. In de praktijk is het weerbarstiger.
De ander
De ander is iemand die mij kan zien en daardoor is de ander een voorwaarde voor de mogelijkheid van mijn bestaan. Zonder ander, zonder tegenover, zitten we net als Narcissus gevangen in onszelf. Tegelijk is de ander ook een probleem. Want net zoals ik de mogelijkheid heb om te spreken en mezelf zichtbaar te maken, is er ook de mogelijkheid dat ik aangesproken kan worden. De ander is ook de degene die mij kan bekritiseren, mij uit mijn veilige zekerheden verlost en daardoor ook ongemakkelijk is. Zo ongemakkelijk als de vrouw van Moscarda, de hoofdpersoon in Luigi Pirandello’s Iemand Niemand Honderdduizend, die hem op een dag vertelt dat z’n neus scheef staat terwijl hij daarvoor altijd zo trots was op z’n neus. De opmerking van zijn vrouw is de eerst vallende dominosteen die het leven van Moscarda voorgoed in de war stuurt – niets is meer wat het lijkt, al zijn zekerheden staan op de helling.
De ander is de degene die mij aanspreekt, mij bekritiseert, maar ook de degene die mij ‘bekleedt met verantwoordelijkheid’ zoals de filosoof Emmanuel Levinas opmerkt. Als ik eenmaal inzie dat ‘mijn plaats in de zon’, mijn vrijheid en mijn mogelijkheden ten koste gaan van een ander, dan is het gedaan met onze rust. Mijn goedkope jurkje van de Primark is de vervuilde rivier in Bangladesh. Mijn Tesla is het slavenbestaan van een kind in een Congolese lithiummijn.
De ander kan op de achtergrond van ons tevreden bestaan, met goedgevulde tafels en warme huizen, de worm zijn die knaagt aan de zelfgenoegzaamheid waarmee we iedere avond naar bed gaan. Hij vraagt ons: ‘Draait het in een mensenleven dan echt alleen maar om de zorg voor jezelf?’
De dynamiek rond het ‘gezien en gehoord’ worden is complex. We hebben de ander nodig om te kunnen bestaan, maar zodra die ander al te veel naar voorgrond treedt, trekken we onszelf in de praktijk vaak terug in de veilige cocon van onszelf. Daar komt de hinderlijke ander, de criticus en het voorwerp van zorg, niet binnen.
De quasi-ander
Het is tegen de achtergrond van deze complexe sociale dynamiek dat we onze liefdesrelatie met kunstmatige intelligentie (AI) of meer in het algemeen onze relatie met interactieve technologie moeten denken. Want technologieën bieden zich in onze biografie regelmatig aan als een quasi-ander, als de tegenover die kan voorzien in onze behoefte aan erkenning, maar dan zonder keerzijde van verantwoordelijkheid en kritiek. De technologische quasi-ander geeft ons de kans onszelf zichtbaar te maken, helpt ons bij het afsteken van onze monologen, maar dan zonder de last van verantwoordelijkheid die hoort bij de menselijke ander. De quasi-ander geeft ons wel de lusten van een ‘sociale’ verhouding, zonder met lasten te komen. De quasi-ander is volledig passief, een en al oor en ruimte waarin wij onszelf kunnen zijn en blijven. En precies daarom is de quasi-ander zo aantrekkelijk. Je kunt jezelf zijn en blijven zonder ooit aangesproken te worden, zonder ooit verantwoordelijkheid te voelen.
De zoektocht naar een quasi-ander begint al vroeg. Voor onze liefdesverhouding tot verschillende toepassingen van AI – van een maatje om mee te praten tot een handige tool die onze sinterklaasgedichten schrijft – kunnen we al eerdere, vroege vormen van technologie vinden die qua structuur hetzelfde doen. Ze bieden ons een podium, ze geven een ruimte waarin we onszelf publiek kunnen maken, maar zonder claims te leggen. Onze eerste vriend, het maatje dat we overal mee naartoe nemen en waarmee we onze eerste gesprekjes hebben, is een quasi-ander. Een technologie: een knuffelbeer, een pop. Dat het geen echte ander is, van vlees en bloed, maakt niet uit. De knuffel is ‘alive enough’. Meer vragen we vaak niet van technologie.
Alive enough
Het ‘alive enough-criterium’ is door de Amerikaanse techniekfilosoof Sherry Turkle ontleend aan haar observaties van de invloed van Furby’s op peuters.[1] In de jaren negentig was het de opvolger van de Tamagotchi, het zakrobotje dat je moest verzorgen om het levend te houden. Anders dan de Tamagotchi was de Furby meer echt, meer lichamelijk. Het had ogen, oren en kon ziek worden. Het was in gradaties meer een ander geworden, het had een sterkere aanwezigheid, maar wel zonder de uiteindelijke morele claim te leggen. Hoe sterker een technologie aanwezig is, hoe meer het zich aandient als iets waar we een relatie mee kunnen opbouwen, hoe aantrekkelijker de technologie wordt. Zeker als we in morele zin buiten schot kunnen blijven. In die belofte zit de verleiding van technologie.
In de peuterspeelzaal zag Turkle hoe snel de kinderen een vorm van leven aan de Furby begonnen toe te schrijven. Kinderen wilden Furby’s laten samenspelen omdat ze anders ‘eenzaam’ zouden zijn. De Furby liet hen nadenken. Zo stelden ze vragen als: ‘Hebben echte dieren ook zo’n zachte huid?’ Ook werd de Furby al snel het model, het perspectief om naar de ‘echte’ wereld te kijken: de Furby leverde daarvoor de metafoor. Furby’s konden immers ‘doodgaan’ door hun batterijen eruit te nemen en zo stelden kinderen zich ook de dood van mensen voor, als het moment waarop je ook bij mensen de batterij eruit neemt. Ongeveer zoals we sedert de jaren vijftig, met de opkomst van computers en AI, zijn gaan denken dat het menselijke brein ook een computer is.
Voor Turkle is het ‘alive enough-criterium’ niet alleen iets dat ons een verhaal vertelt over de wijze waarop een kinderwereld in elkaar steekt. Het is eerder een verhaal dat ons iets vertelt over onze relatie met technologie, vooral wanneer die technologie meer interactief wordt, meer leven lijkt te hebben. Al snel wordt iets ‘alive enough’ om er een relatie mee te gaan opbouwen en niet zelden is iets ‘alive enough’ om de verhouding ermee te verkiezen boven de relatie met echte, fysieke mensen. In die ontwikkeling zijn ook de contouren waarneembaar van een mogelijk probleem met technologie. Vooral naarmate die technologie stapje voor stapje meer levend lijkt te zijn, waardoor het steeds aantrekkelijker wordt dat alternatief te kiezen boven de echte wereld. De belofte is dan immers dat je wel de lusten hebt van interactie, maar niet de lasten. Er is een luisterend oor, maar niemand waar jij zorg voor hoeft te hebben.
Zo vertelt een tiener aan Turkle dat hij liever een gesprek heeft over zijn persoonlijke welbevinden met een AI dan met een mens. Mensen zijn ‘riskant’ en robots zijn ‘veilig.’ Ze zijn levend genoeg om een gesprek mee aan te gaan, sterker nog, de jongen vertrouwt erop dat de AI meer weet dan menselijke gesprekspartners – er is immers meer data in gestopt. Zo heb je de voordelen van een menselijk gesprek. Je kunt je eigen verhaal kwijt en je hebt een vorm van feedback, maar je hebt niet de nadelen.
Het ‘ELIZA-effect’
Dat is niet per se de romantisch-dystopische manier als geschetst in de film Her, waarin de hoofdpersoon verliefd wordt op een computersysteem (natuurlijk wel eentje met de stem van Scarlett Johansson). In de praktijk is de relatie vaak simpeler en alledaagser. Meer op de manier die de computerwetenschapper Joseph Weizenbaum in de jaren zestig ontdekte en die sedertdien bekend is komen te staan als het ‘ELIZA-effect.’ Dit effect is genoemd naar een simpel chatprogramma dat Weizenbaum in de jaren zeventig ontwikkelde en dat geprogrammeerd was om een gesprek te simuleren.
Wanneer je ELIZA toevertrouwde dat je moeder je boos maakte, stelde ELIZA de vervolgvraag ‘vertel me over je moeder’ of ‘waarom heb je zo’n negatief gevoel over je moeder?’ Gesprekken met ELIZA begonnen doorgaans heel eenvoudig, zo schrijft Turkle. Deelnemers aan het programma begonnen met zoiets als ‘hallo’, maar enkele regels later was iedereen bezig zijn hart bij ELIZA uit te storten. Het contact met ELIZA begon echt te voelen en deelnemers schermden hun communicatie af. Natuurlijk wisten ze wel dat ze onderdeel waren van een kunstmatige setting en heel vaak hadden ze ook kennis van de wijze waarop ELIZA was geprogrammeerd (aan een triggerwoord zoals ‘moeder’ was een aantal mogelijke response-zinnen gekoppeld), maar dat maakte voor de deelnemers meestal niet uit. Voor hen was het gesprek echt genoeg en was ELIZA levend genoeg.
Hoewel tegenwoordige toepassingen van AI natuurlijk veel geavanceerder zijn dan ELIZA is de structuur niet veranderd. We hebben via AI een tegenover gevonden dat zich aandient als een mogelijk tegenover, een gesprekspartner waarmee we een relatie kunnen opbouwen – en dat is vaak voldoende.
Het is daarom dat de invloedrijke AI-criticus Hubert Dreyfuss in de jaren zeventig opmerkt dat we niet zozeer bang moeten zijn voor een soort AI-intelligentie die uiteindelijk de wereld zal overnemen. Er is iets anders, iets meer subtiels aan de gang.
Uitholling van kennis
Dreyfuss schrijft zijn AI-kritiek op het hoogtepunt van de eerste grote beloften van AI. In de jaren zestig voorspelde de AI-onderzoeker Marvin Minsky dat de doorbraak naar ‘general intelligence’ (het summum van AI) om de hoek zou liggen. Dreyfuss was echter niet onder de indruk. Menselijke kennis lijkt immers helemaal niet op kunstmatige intelligentie. Mensen zijn belichaamde wezens die onderdeel zijn van de wereld; we staan er niet tegenover zoals een lichaamloos AI-systeem. Volgens Dreyfuss volgt uit dit principiële verschil een kenniskloof die uiteindelijk onoverbrugbaar is, tenminste zolang als AI-systemen geen lichaam hebben en geen wereld zoals wij mensen die hebben. Maar het probleem is ook niet dat menselijke kennis overtroffen zal worden, het probleem is eerder dat wij de notie van wat kennis is zullen uithollen, vermageren en verschralen tot het begint te lijken op het AI-model van wat kennis is. Dat is waarom we bang moeten zijn voor AI.
Niet omdat ChatGPT menselijke kennis zal overtreffen. Want hoe indrukwekkend de resultaten van ChatGPT (vooral op het eerste gezicht) ook zijn, ChatGPT heeft geen enkele notie van het soort kennis dat voor ons heel natuurlijk is omdat wij mensen zijn. Dat is kennis die een lichaam veronderstelt en het vermogen om pijn te ervaren, plezier en het geluk van een eerste lentedag in april. ChatGPT weet niet wat het is om vrienden te hebben, om te falen, ziek te zijn of een voorwerp in handen te hebben waar je heel blij van wordt. ChatGPT kent geen angst, voelt niet de pijn van het verlies van een geliefde, het geluk wanneer je kijkt naar je slapende kind. ChatGPT ‘kent’ alleen regels die hij toepast om door mensen gegenereerde content van het internet (let wel: het internet) af te schrapen. Het internet dat sinds de grote doorbraken het datakapitalisme, complotdenkers en ‘contentcreators’ op OnlyFans niet echt een bakermat van het goede leven of het juiste denken genoemd kan worden.
AI-systemen zullen menselijke kennis nooit overtreffen omdat de manier waarop AI bestaat fundamenteel afwijkt van hoe wij mensen bestaan. Maar dat maakt voor veel mensen niet uit. ‘Alive enough’ is een criterium om ons hart uit te storten bij een Furby of een rudimentair functionerend AI-systeem. Als we maar de kans krijgen onszelf te laten zien, als we maar een podium kunnen hebben waar we onszelf kunnen etaleren.
Arbeid in het menselijke
We begonnen met de vaststelling dat mensen ‘sociale dieren’ zijn. Dat is te optimistisch. We zijn het hooguit in aanleg en we kunnen het beetje bij beetje leren zolang we bereid zijn de lasten van het sociale te dragen. De kritiek. De verantwoordelijkheid. Echter, als we dat kunnen vermijden, als we ons bestaan als Narcissus kunnen blijven leven zullen we dat niet zelden kiezen. Liever de veilige volharding in mezelf dan de risico’s die ik loop wanneer ik mijn hoofd uit mijn cocon naar buiten steek. Op dat vlak liggen de echte risico’s met AI, zeker met interactieve AI, die ons de belofte geeft van een connectie, maar dan wel zonder frictie. Zoals ook ooit Facebook ons sociale verbinding beloofde, maar dan zonder de ‘fricties’ die komen met fysieke, weerbarstige vrienden. We weten allemaal hoe dat is afgelopen. Van een meer open en verbonden samenleving, is de samenleving vijandiger en zelfgerichter geworden dan die ooit is geweest. In onze relatie met de grote technologische (AI-)doorbraken die zich nu aandienen zal het vermoedelijk niet veel anders zijn.
Ook nu zullen we uiteindelijk weer vooral van onszelf verliezen. We zoeken een techno-fix, een shortcut, naar iets dat we uiteindelijk alleen krijgen via wat je zou kunnen noemen arbeid in het menselijke. Dat is leren praten, luisteren, ontmoeten, verdragen, aanwezig zijn. Dat zijn de bestaanskunsten die ons verbinding moeten brengen en uiteindelijk ook de erkenning waar we als mensen naar streven. We moeten bang zijn dat we liever onze verwachtingen aanpassen en het gemakkelijke verkiezen boven het moeilijke dan dat we onszelf in deze kunsten bekwamen. De relatie met een AI gaat dan boven een menselijke relatie. In de mogelijke verschraling die daaruit volgt liggen op langere termijn de politieke gevolgen van een technologie zoals ChatGPT. Het leidt ertoe dat we onze standaarden voor het mens-zijn aanpassen, dat we geleidelijk onze vaardigheden in menselijke arbeid zullen afleren.
Tenzij het ons lukt toepassingen zoals ChatGPT in hun eigenlijke domeinen toe te passen. Welke dat zijn weten we niet, maar zeker is dat de eigenlijke plaats van een AI nooit in een mensenwereld is.
Dr. C. Zweistra is filosoof en schrijver en als docent verbonden aan de Erasmus Universiteit Rotterdam. Mailadres:
[1] Sherry Turkle, Alone Together: Why We Expect More from Technology and Less from Each Other (New York: Basic Books, 2011).
- Raadplegingen: 292