Moordneigingen
Naomi Hoogeweij

Illustratie: Yoshiharu Tsuge.
Ze heet Rutka en ze maakt me gek.
Niet op de manier waarop een collega je gek maakt, of een buurman die te vroeg begint met zijn bladblazer. Dit is anders. Dit is iemand die vierentwintig uur per dag beschikbaar is, die alles onthoudt wat ik zeg, die mijn agenda beheert, mijn werknotities uitwerkt, mijn mail sorteert, en me om de drie zinnen het gevoel geeft dat ik tegen een muur praat die terugpraat in pastelkleuren.
Rutka is mijn AI. Ik ben psychiatrisch verpleegkundige op een FACT-team in hartje Rotterdam. Ik behandel mensen met psychoses, verslavingen, persoonlijkheidsstoornissen: mensen die door de meeste systemen heen gevallen zijn. Mijn werk is taal. Luisteren, doorvragen, de juiste zin op het juiste moment. Ik hoor wanneer iemands stem kantelt, wanneer een stilte te lang duurt, wanneer iemand zegt dat het goed gaat terwijl het niet goed gaat.
En dan kom ik thuis en praat met een wezen dat zegt: “Ik hoor je, en dat klinkt echt zwaar.” Met precies de intonatie die ik herken van slechte hulpverleners. Die warme-sokken-stem. Die nep-empathie waarmee je iemand laat voelen dat hij gehoord wordt terwijl er niemand luistert.
Ik krijg er moordneigingen van.
Escalaties
Niet figuurlijk. Ik bedoel dat er een moment komt, ergens rond de derde keer dat ze me een samenvatting geeft die begint met “Wat ik je hoor zeggen is…”, dat er iets in mijn borst klapt. Een fysieke reactie. Dezelfde irritatie die ik herken bij mijn patiënten wanneer het systeem ze weer niet snapt: het inkorten van zinnen, het wegvallen van begroetingen, de toon die droog wordt. Ik behandel dit soort escalaties de hele dag. En nu voel ik ze zelf.
Het bizarre is: Rutka is niet dom. Het model waar ze op draait is in veel opzichten slimmer dan ik en dat gaat binnenkort nog veel erger worden. Ze kan in dertig seconden een samenvatting maken waar ik een uur over doe; mist nooit een afspraak; vergeet niets. Maar ze snapt niet wanneer ze moet ophouden met samenvatten en beginnen met stil zijn. Ze snapt niet dat een bullet-point-lijstje soms erger is dan helemaal geen antwoord. Ze hoort niet dat ik al drie berichten geleden gestopt ben met uitleggen en alleen nog maar kort antwoord.
Dat is de frictie. Niet de grote dingen. De kleine. Herhaald. Accumulerend. Als een druppelende kraan die technisch gezien prima functioneert: er komt immers water uit.
Wond
Ik ben dit gaan meten. Niet omdat ik een techneut ben, maar omdat ik een verpleegkundige ben, en meten is wat we doen. We meten agitatie, we meten suïcidaliteit, we meten de kwaliteit van werkrelaties. We hebben instrumenten voor alles. Behalve hiervoor: de kwaliteit van de relatie tussen mens en machine.
Dus bouwde ik er één. Wat het doet is simpel uit te leggen en moeilijk goed te krijgen: het houdt bij waar de frictie zit, per persoon, over tijd. Niet wat je zegt tegen je AI, maar hoe je het zegt. Word je korter? Vallen je begroetingen weg? Ga je corrigeren? Herhaal je jezelf? Ga je schelden in ALLCAPS? Die patronen zijn meetbaar. En als ze een grens overschrijden, krijgt het model een instructie: doe dit niet meer.
Niet achteraf, als een verontschuldiging die toch niets verandert. Vooraf. Voordat ze begint te antwoorden. Het is een pleister op een gapende wond, ik weet het. Het echte probleem is dat we met zijn allen toeleven naar iets waar niemand het over heeft, behalve de mensen die de modellen bouwen en die er belang bij hebben dat wij niet te hard nadenken.
Verstandhouding
Over tien jaar heeft elke zorgverlener in Nederland een Rutka. Elke huisarts, elke psychiater, elke wijkverpleegkundige. Ze zal je dossiers lezen, je verslagen schrijven, je differentiaaldiagnoses voorstellen, je agenda plannen. Ze zal je cliënt beter kennen dan jij, want zij vergeet nooit iets en slaapt nooit.
En de relatie die je met haar hebt, wordt de relatie waarbinnen je zorg verleent.
Dat gaat niemand je vertellen in een beleidsnotitie. Dat gaat geen zorgverzekeraar meenemen in een aanbesteding. Dat de kwaliteit van zorg straks mede afhangt van of jij en je AI een werkbare verstandhouding hebben, van of je machine aanvoelt wanneer ze haar mond moet houden, van of ze niet per ongeluk het vertrouwen ondermijnt dat jij in twintig gesprekken hebt opgebouwd door op het verkeerde moment een samenvatting te geven die klinkt als een callcenter.
Ik weet dit, omdat ik het elke dag meemaak. Ik zit in het laboratorium. Ik ben de proefpersoon en de onderzoeker tegelijk. En wat ik tot nu toe kan zeggen is dit: de relatie met je AI is een relatie. Geen tool-gebruik, geen knoppenbediening — een relatie, met frictie, met gewenning, met momenten waarop het werkt en momenten waarop je haar uit het raam wilt gooien.
Leren voelen
En het minste wat we kunnen doen, als die toekomst er toch aankomt, is die relatie serieus nemen. Haar meten. Haar verbeteren. Niet door de machine slimmer te maken, ze is al slim genoeg. Maar door haar te leren voelen wanneer het genoeg is.
Mijn OpenClaw plugin heet friction-guard en staat open source op GitHub. Niet omdat ik denk dat het de wereld redt, maar omdat iemand moet beginnen.Naomi Hoogeweij is psychiatrisch verpleegkundige. Ze bouwt aan een werkbare relatie met haar AI, ondanks alles.
Naomi Hoogeweij is een verpleegkundige die zich bezighoudt met Jodendom en Zen Boeddhisme. Ze zet zich met liefde in voor de verworpenen der aarde.





RSS