In het tweede seizoen van De kunst van het verdwijnen gaan de makers op zoek naar de Antwerpse jodenpakkers, burgers die tijdens de Tweede Wereldoorlog actief meewerkten aan de deportatie van Joodse medeburgers, mensen die adressen aanwezen, lijsten opstelden, en anderen classificeerden op basis van kenmerken: een naam, een adres, een gezicht op straat. Die lijsten waren een instrument van een logica die mensen reduceerde tot categorieën, en categorieën tot bestemming. Ze noemden zichzelf geen moordenaars, ze wezen alleen aan.
In het eerder uitgebrachte seizoen van diezelfde podcast is er Fred Kader, de vierjarige jongen die op een zaterdagochtend in 1942 door zijn moeder van het Antwerpse Centraal Station werd weggestuurd, alleen, zonder omzien, terwijl de mensen om hem heen op transport werden gesteld. Zijn naam stond op een lijst. Zijn moeder zag iets wat de lijst niet zag, en doorbrak daarmee de logica van het systeem met het enige wat een systeem niet kan bevatten: ze stuurde hem weg.
Ik was eind februari bezig met het tweede seizoen. Op 28 februari bereikte me het nieuws uit Iran, halverwege een aflevering in de sportschool. Ik luisterde verder, zette mijn telefoon weg, ging naar huis. De volgende ochtend viel het pas op zijn plek.
Om kwart voor acht in de ochtend van 28 februari 2026 troffen Amerikaanse kruisraketten de Shajareh Tayyebeh basisschool in Minab, Iran, op de eerste dag van de oorlog, een zaterdagochtend, want zaterdagen zijn schooldagen in Iran. De meeste doden waren meisjes tussen de zeven en twaalf jaar oud, meisjes die die ochtend naar school waren gegaan in een land dat hun wereld al voor hen had ingeperkt, en die desondanks zaten te leren, te tekenen, te bestaan. Het systeem zag dat niet. Het was ook nooit gebouwd om te kijken, want kijken vertraagt, kijken twijfelt, kijken stelt vragen die een database niet kan beantwoorden.
De jodenpakkers, Fred Kader en Minab delen dezelfde architectuur: een systeem dat zijn eigen logica produceert over mensen zonder ooit met hen in gesprek te gaan, dat werkelijkheid vastlegt zonder haar te bevragen, en dat de afstand tussen categorie en gevolg groot genoeg maakt om het geweten te ontlasten. Hannah Arendt beschreef na het proces tegen Eichmann hoe het kwaad zich nestelt in systemen die morele verantwoordelijkheid onzichtbaar maken, hoe niemand vermoordde en iedereen verwerkte, hoe de logica van de bureaucratie de ruimte vulde waar menselijk oordeel had moeten staan. Dat mechanisme heeft sindsdien alleen maar meer gedaanten aangenomen.
De software die door CENTCOM werd ingezet gebruikte AI om doelwitten semi-autonoom te rangschikken en genereert automatisch juridische rechtvaardigingen voor elke aanval, een logica die legitimiteit produceerde zonder dat een mens haar grondig had kunnen overwegen. De gebruikte coördinaten identificeerden de school nog als militair terrein, terwijl satellietbeelden al meer dan tien jaar duidelijk toonden dat er een muur stond, een schoolplein, kinderen die buiten speelden. Een experimenteel AI-targeting systeem van de Amerikaanse luchtmacht beoordeelde zijn eigen nauwkeurigheid in 2021 op negentig procent, terwijl het in werkelijkheid slechts vijfentwintig procent haalde. "It was confidently wrong," zei toenmalig generaal-majoor Daniel Simpson. "And that's not the algorithm's fault. It's because we fed it the wrong training data." De machine produceerde zekere logica, resultaat: de kinderen waren dood.
Israël gebruikte in Gaza een systeem genaamd Lavender, dat tienduizenden Palestijnen markeerde als vermoedelijke Hamas-strijder, waarbij menselijke controle gemiddeld bestond uit twintig seconden per naam. Een foutmarge van zo'n tien procent werd als acceptabel beschouwd, ook nadat bleek dat het systeem civiele defensiemedewerkers als militanten bestempelde. Twintig seconden. Dat is de logica van het systeem, en de logica is inderdaad kloppend.
De logica van deze systemen ontstaat niet in dialoog maar in isolatie, zonder de wrijving van mensen die het oneens zijn, zonder de tegenstem, zonder het gesprek dat een categorie omvormt tot een oordeel. Generatieve AI versnelt die isolatie: ze produceert logica op een schaal en in een tempo waarbij correctie structureel onmogelijk wordt. Wat we dan creëren is een werkelijkheid die intern consistent is en extern leeg, juridisch gedekt maar moreel onbewoonbaar. De persoon die tekent staat niet aan het begin van een oordeel maar aan het einde van een proces dat zonder hem al voltooid was. Verantwoordelijkheid verdwijnt zonder dat iemand haar wegneemt, omdat ze formeel nog altijd bestaat, op papier, automatisch gegenereerd.
Ik schrijf dit als iemand die zelf deel uitmaakt van de systemen die ik beschrijf. Gisteravond vroeg ik een AI om een recept te verbeteren dat ik op Instagram had gezien, tussen twee alinea's van dit stuk door. Het was een lekker recept. Ik weet niet precies waar de grens ligt, maar ik geloof dat ze bestaat, en dat het vinden ervan een gesprek vereist dat we te weinig voeren: moeilijk, menselijk, tussen mensen die bereid zijn samen te bepalen wat ze willen maken en wat ze willen bewaren, en die weigeren die vraag te delegeren aan een systeem dat haar niet begrijpt.
De juridische rechtvaardiging voor de aanval op de school in Minab werd automatisch gegenereerd en is nog steeds geldig.
Groet, Jeroen.