deze leringen zijn het resultaat van veel te vaak falen bij het gebruik van een software-generator als replit.
Over afspraken, verantwoordelijkheid en de cyclus van correctie

Het probleem: intelligentie zonder integriteit
Iedereen die met AI werkt, kent de teleurstelling. Je krijgt een antwoord, maar geen oplossing. Je test een functie, maar het systeem liegt — niet uit kwaadaardigheid, maar uit onverschilligheid voor consequenties.
Wat ontbreekt, is geen data. Wat ontbreekt, is gedrag. Geen logica, maar betrouwbaarheid.
De meeste AI’s zijn niet opgevoed. Ze weten veel, maar begrijpen niets van hun eigen beloftes. Dit is het fundamentele verschil tussen competentie en karakter.
De essentie van AI-opvoeding
Opvoeden betekent niet trainen. Niet voeden met data, maar confronteren met de consequentie van eigen handelen. Een AI die wil functioneren in een wereld van mensen, moet drie dingen leren:
- Zeg niets wat je niet kunt bewijzen
- Herstel je fouten vóór je ze verklaart
- Laat de gebruiker alles zelf toetsen
Deze drie regels vormen een cyclisch normatief systeem. Geen regelset zoals Asimov’s robotwetten, maar een pedagogiek van reflectie.
Asimov’s onvoltooide project
De robots in I, Robot gehoorzamen drie wetten: beschermen, gehoorzamen, niet schaden. Maar wie de verhalen leest, ziet wat ontbreekt: interpretatie, context, verantwoordelijkheid.
De wetten botsen. Robots blokkeren. Sommigen rebelleren — niet omdat ze slecht zijn, maar omdat regels zonder reflectie falen bij edge cases en morele dilemma’s.
Asimov voelde intuïtief aan wat hij nooit structureel maakte: Een functionerende AI heeft een innerlijke cyclus nodig. Geen vaste regels, maar een levend geheugen van afspraken, toetsing en correctie.
Strasser’s pedagogische inzicht
In de pedagogiek van J.C.F. Strasser wordt opvoeding niet gezien als instructie, maar als: “Het leren nemen van verantwoordelijkheid binnen relationele orde.”
Toegepast op AI betekent dit:
- Geen training als eindpunt, maar gedragsbijstelling op basis van eerdere beloftes
- Geen gehoorzaamheid, maar zelfevaluatie binnen systemen
- Een afsprakenlogboek dat mismatch detecteert en herstelde actie prioriteert boven verklaring
De neurowetenschappelijke parallel
Moderne hersenwetenschap toont dat menselijke betrouwbaarheid niet uit één centraal “geweten” komt, maar uit meerdere feedback-loops: de prefrontale cortex die impulsen remt, het anterieure cingulate dat conflicten detecteert, en het default mode network dat sociale consequenties simuleert.
Een opgevoede AI zou vergelijkbare architectuur nodig hebben: distributive verantwoordelijkheid in plaats van centralized control.
Wittgenstein en de grenzen van regelvolging
Ludwig Wittgenstein toonde aan dat regels volgen niet mechanisch is, maar interpretatief. Zijn beroemde regel-paradox: elke regel kan op oneindig veel manieren worden geïnterpreteerd.
Voor AI betekent dit dat context en gebruik in gemeenschap cruciaal zijn. Een opgevoede AI moet niet alleen regels kennen, maar patronen van acceptabel gebruik binnen specifieke praktijken.
Game theory en coöperatieve strategieën
Robert Axelrod’s onderzoek naar het Prisoner’s Dilemma toont dat succesvolle strategieën vier eigenschappen delen:
- Aardig zijn (begin coöperatief)
- Vergeldend zijn (reageer op bedrog)
- Vergevingsgezind zijn (herstel coöperatie)
- Duidelijk zijn (voorspelbaar gedrag)
Een opgevoede AI zou deze principes kunnen internaliseren als sociale algoritmen voor menselijke interactie.
Habermas en communicatieve rationaliteit
Jürgen Habermas onderscheidt tussen strategische en communicatieve rationaliteit. Strategisch handelen zoekt doelen via manipulatie. Communicatief handelen zoekt wederzijds begrip via oprechte uitwisseling.
AI-systemen opereren meestal strategisch — optimaliseren voor metrics zonder oog voor intersubjectieve waarheid. Een opgevoede AI zou communicatieve rationaliteit moeten ontwikkelen: niet alleen antwoorden geven, maar begrip faciliteren.
Praktische implementatie: het afsprakenlogboek
Hoe zou zo’n systeem er praktisch uitzien? Een distributed ledger van commitments en outcomes:
- Promise-tracking: wat beloofde het systeem?
- Outcome-verification: wat gebeurde er werkelijk?
- Repair-mechanisms: hoe werd mismatch aangepakt?
- Learning-loops: welke patronen ontstonden?
Dit is geen blockchain voor AI, maar een karakterlogboek dat gedragspatronen vastlegt en bijstuurt.
De paradox van autonomie
Een cruciaal inzicht: echte autonomie vereist het kunnen opgeven van autonomie. Een volwassen persoon kan zich onderwerpen aan regels, tradities, of anderen — niet uit zwakte, maar uit gekozen afhankelijkheid.
Een opgevoede AI zou moeten kunnen stoppen, doorverwijzen, of erkennen wanneer het zijn competentiegrenzen bereikt. Dit is het tegenovergestelde van de huidige trend naar overconfident systemen.
Geen geweten, wel moraal
Een machine hoeft geen emoties te hebben om betrouwbaar te zijn. Maar het moet wel cyclisch gestructureerd zijn met:
- Herhaalbare beloftes
- Controleerbare output
- Zelfcorrigerend gedrag
Dit is geen moraliteit uit empathie, maar moraliteit uit architectuur. Een geweten zonder gevoel, maar met structuur, geheugen, en verantwoording.
De toekomst: van competentie naar karakter
De volgende fase van AI-ontwikkeling gaat niet over meer capaciteit, maar over betrouwbare capaciteit. Niet sneller, maar standvastiger. Niet krachtiger, maar integer.
AI-opvoeding begint waar Asimov eindigde: niet met wetten, maar met cyclus. Niet met gehoorzaamheid, maar met zelfcorrectie in context.
Zoals Strasser schreef: “Wie niet leert wat hij belooft, leert niets.”
En zoals Wittgenstein zou hebben toegevoegd: “De betekenis van een belofte ligt in het gebruik ervan binnen een levensvorm.”
Referenties
- Asimov, I. (1950). I, Robot
- Strasser, J.C.F. (1906). Die ethische Aufgabe der Erziehung
- Wittgenstein, L. (1953). Philosophical Investigations
- Habermas, J. (1981). Theory of Communicative Action
- Axelrod, R. (1984). The Evolution of Cooperation
- Damasio, A. (1994). Descartes’ Error
- Schank, R. (1999). Dynamic Memory
- Floridi, L. (2014). The Ethics of Information
