Ethische AI begint niet bij regels, maar bij reflectie (1 van 8)

Ethische AI begint niet bij regels, maar bij reflectie
Ethische AI begint niet bij regels, maar bij reflectie

In deze reeks verkennen we de rol van ethiek in het AI-tijdperk. Niet als sluitstuk, maar als beginpunt van vernieuwing. Want wat als technologie niet alleen vraagt om regels, maar om reflectie? Dit blog gaat over waarom Europa nu een ander pad moet durven kiezen

1. Waarom AI een technologische én een ethische revolutie is

Er wordt veel geschreven over hoe Europa achteropraakt in de wereldwijde AI-ontwikkelingen. Dat het tempo, het kapitaal, de schaal en de technologische voorsprong zich concentreren in de VS en China — en dat Europa vooral nu al regels maakt over een technologie die nog volop in ontwikkeling is.

Dat beeld is niet onwaar. Europa is minder snel, minder groots, minder agressief in opschaling. En misschien is dat een probleem. Maar misschien ook niet.

Want is AI enkel een technologische vernieuwing? Gaat het werkelijk alleen om rekenkracht, infrastructuur en algoritmische mogelijkheden? Of is er iets anders aan de hand — iets fundamentelers?

Wat deze transitie zo beladen maakt, is niet alleen de snelheid of complexiteit ervan, maar de manier waarop ze zich nestelt in onze samenleving: onzichtbaar, alomtegenwoordig, onomkeerbaar. En precies daar ontstaat spanning. Er is een groeiende groep mensen die zich ongemakkelijk voelt bij wat er gebeurt. Niet omdat ze technologie vrezen, maar omdat ze iets verliezen wat moeilijker te benoemen valt: het gevoel dat we niet meer precies weten waar we moreel in terechtkomen.

Dat ongemak is geen angst voor vooruitgang. Het is een vorm van existentiële verwarring. Want hoe reflecteer je op wat goed is, als een systeem zelf leert van gedrag en optimaliseert op basis van eerdere uitkomsten? Hoe bescherm je menselijke waardigheid, als modellen steeds beter worden in het voorspellen van ons handelen — en wij steeds minder ruimte ervaren om daarbinnen iets anders te kiezen?

2. De Amerikaanse benadering: ethiek als bijlage

Vanuit Silicon Valley en bredere Amerikaanse techcultuur zie je doorgaans een fundamenteel instrumentele kijk op technologie. Technologie is geen vraagstuk, maar een antwoord: op schaalbaarheid, op efficiëntie en vooral op marktsucces. De mens is in dat model geen moreel handelend wezen, maar eerder een gebruiker, een datapunt, een schakel in een optimaliseerbare keten.

Ethiek verschijnt hier niet als fundamentele vraag, maar als bijlage. Pas nadat het systeem functioneert — en liefst al verkoopt — wordt er een ethisch kader toegevoegd. Niet als fundament, maar als correctiemechanisme. Morele reflectie is een optionele toevoeging voor wie daar waarde aan hecht.

AI wordt niet gezien als een spiegel van menselijke complexiteit, maar als een fantastisch schaalbaar brein. Een systeem dat denkt, voorspelt en automatiseert. Veel AI-ontwikkeling vertrekt vanuit de logica van controle, van kostenreductie en versnelling. Wat onderbelicht blijft zijn de diepere lagen van het mens-zijn — innerlijke tegenstrijdigheid, waardenconflicten, ambiguïteit, zelfbeeld, context.

En wat onder deze gedachte ligt, is een diep geloof in de markt als toetssteen voor succes en waarde. Wat werkt, verkoopt. Wat verkoopt, wordt opgeschaald. Wat wordt opgeschaald, wordt waarheid. In zo’n model is succes de maatstaf voor morele legitimiteit. Niet of iets goed is, maar of het goed verkoopt.

De schade die deze logica aanricht wordt zelden onderdeel van het ontwerp. Denk aan hoe sociale media meisjes reduceren tot uiterlijk en aandacht, of hoe jongens zich verliezen in gamewerelden waarin controle, competitie en verslaving verweven raken met identiteit. Dat zijn geen incidenten, maar uitvergrotingen van een systeem dat optimaliseert op schermtijd — en dus niet toevallig uitkomt bij onze zwakke plekken, maar er systematisch op inzoomt.

3. China: ethiek als instrument voor controle

In China zie je een heel andere benadering. AI is hier niet primair een kwestie van marktwerking of gebruikservaring, maar een instrument voor maatschappelijke ordening. Technologie wordt niet los gedacht van politieke doelen, maar er juist mee vervlochten: stabiliteit, voorspelbaarheid, collectieve vooruitgang.

De burger verschijnt hier niet als consument of gebruiker, maar als functioneel onderdeel van een groter systeem. Gedrag is niet iets om te observeren, maar om te sturen. AI is geen individuele assistent, maar een middel om normatief gedrag te bevorderen — of af te leren.

Ethiek wordt in deze context niet genegeerd, maar functioneel ingekaderd. De vraag is niet: wat is goed?, maar: wat draagt bij aan orde? Moraliteit wordt herleid tot effectiviteit, en effectiviteit wordt gemeten binnen de doelen van het systeem. Denk bijvoorbeeld aan het sociale kredietsysteem, waarin gedragingen — van online uitspraken tot betalingsgedrag — worden meegewogen in een puntenscore die toegang geeft tot onderwijs, reizen of financiële diensten.

Ook dat is een vorm van betekenis geven — maar wel één waarin subjectieve ervaring, persoonlijke levenskeuzes of individuele afwegingen nauwelijks ruimte krijgen. De inzet van AI maakt deel uit van een infrastructuur die gedrag in kaart brengt, toetst en bijstuurt. Wie daarvan wil afwijken, raakt iets kwijt: toegang, vertrouwen, toekomst. En voor wie buiten het systeem valt, kan de sociale druk — en het gebrek aan ontsnappingsruimte — leiden tot een diepe, stille uitputting.

4. De Europese reflex: afvinken, afschuiven en afwachten

En dan Europa. Onze eerste reflex is vaak juridisch. We stellen regels op, trekken kaders, benoemen risico’s. Denk aan de AI Act, aan impactassessments, aan toezichtstructuren. Dat is niet verkeerd — regelgeving is nodig, zeker bij technologieën die ingrijpen op schaal, snelheid en diepte.

Tegelijkertijd ligt daar een spanning. Juist juristen — vaak de eersten die zich over technologie als AI mogen buigen — behoren tot de beroepsgroepen met de minste inhoudelijke affiniteit met de materie. Begrip van technologie, data of computermodellen is zelden onderdeel van hun opleiding. Dat leidt tot beleid dat vaak goed bedoeld is, maar te ver afstaat van hoe technologie werkt of hoe mensen zich gedragen — denk aan een cookiewet die niemand serieus neemt, of privacyregels die elke vernieuwing verdacht maken voordat er iets is geprobeerd.

Dit alles leidt tot een praktijk die vaak weinig met visie te maken heeft, en veel met institutionele reflexen. Niet wat men zegt, maar wat men doet, vertelt hier het echte verhaal:

  • Men organiseert workshops — en denkt dat daarmee het werk gedaan is. Innovatie wordt een agendapunt, geen praktijk.
  • Er worden taskforces opgericht — maar zonder mandaat, zonder middelen. Men ‘doet iets’, maar niemand is verantwoordelijk.
  • Landelijke overheden wachten op Brussel, lokale overheden op Den Haag — en iedereen wijst naar de privacy-autoriteit. Uiteindelijk wacht men vooral op elkaar.
  • AI wordt afgevinkt om aan de innovatiedoelstelling te voldoen — terwijl de systemen veranderen, maar het denken hetzelfde blijft.
  • Ethiek gaat naar de commissie, techniek naar de IT. Wat overblijft, is een schemergebied waar hete aardappels worden doorgeschoven.
  • Er wordt geëxperimenteerd — maar zonder richting, en vooral op terreinen die weinig raken aan de kern. Pilots zonder visie, prototypes die de status quo bevestigen.
  • Men spreekt over risico’s, over kansen op Brusselse financiering, over schade aan de planeet — maar tot handelen komt het vaak niet. De angst om een fout te maken is groter dan het verlangen om met innovatie een wezenlijke verbetering voor klanten en burgers te realiseren.

Dit is geen cynisme, geen onwil. Het is gedrag dat voortkomt uit een cultuur van doorschuiven, indekken, afwachten — gevoed door koudwatervrees, de neiging om binnen de lijntjes te kleuren en een gebrek aan moed. Het lijkt veiliger om AI te behandelen als een pakket aan de voordeur: van buiten inspecteren, van regels voorzien, maar liever niet openmaken — uit angst voor wat erin zit.

5. Voor wie zitten we er, echt?

Wat al deze benaderingen gemeen hebben — of het nu gaat om marktdominantie, gedragssturing of juridisch afbakenen — is een zekere spanning tussen systeem en mens. Tussen schaalbaarheid en betekenis, tussen controle en geweten. Elk continent kiest een ander pad, maar nergens is die spanning helemaal opgelost.

Voor veel jonge mensen is technologie geen neutrale spiegel, maar één die hun zelfbeeld vervormt. Ze leren zich te positioneren, hun zichtbaarheid te bewaken en zorgvuldig een imago op te bouwen — professioneel, bestuurlijk, ideëel. Gaandeweg raakt dat zorgvuldig geconstrueerde beeld los van wie ze werkelijk zijn. Als identiteit wordt teruggebracht tot gevalideerde meningen, gepolijste persoonlijke content, profieldata, likes en volgers, dan is het niet verrassend dat AI dat beeld op termijn moeiteloos kan overnemen.

Voor organisaties ligt de spanning op een ander vlak, maar is ze minstens zo fundamenteel. Ze worstelen met een essentiële vraag: wie dienen we eigenlijk — en waarom? De publieke sector hoort er te zijn voor de burger, maar handelt ze daar ook naar? Bedrijven noemen zich klantgericht, maar blijkt dat ook uit hun gedrag? Veel organisaties draaien op verantwoording, risicobeheersing en reputatiemanagement. Zelfbehoud en eigenbelang wegen vaak zwaarder dan het verlangen om werkelijk van betekenis te zijn. En ergens onderweg raakt de vraag naar persoonlijke verantwoordelijkheid verloren in een woud van regels, systemen en tegengestelde belangen.

En dan komt de vraag die we niet langer kunnen uitstellen: wat verwachten we eigenlijk van AI, als we nu al moeite hebben om te laten zien wie we zijn en voor wie we er zijn? Technologie leert immers niet van onze idealen, maar van ons gedrag. Als we systemen bouwen op afstand, controle en zelfbehoud, dan zullen die systemen ons precies dat weerspiegelen. AI wordt dan geen spiegel van onze menselijkheid, maar van het gemis eraan.

Misschien ligt daar ook de hoop: dat AI ons niet vervangt, maar ons een spiegel voorhoudt. Niet om voor ons te kiezen, maar om ons te confronteren met wat we onderweg misschien zijn kwijtgeraakt. En om ons, als we bereid zijn écht te kijken, opnieuw te laten voelen wat ons mens maakt — en wat ertoe doet.

Volgend blog

AI vraagt om herontwerp vanuit klant en burger (2 van 8).

Laat de eerste reactie achter