‘Ontwikkel een AI-governance-visie’
Wie houdt toezicht op AI? Heersen taal- en rekenmodellen binnenkort over ons in plaats van wij over hen? Dat is de vraag die Henk ten Voorde zich stelt in de maandelijkse column voor Governance Update. Hoe kan governance effectief blijven in een door AI gedreven toekomst en helpen bij het behouden van menselijke waardigheid in organisaties? Over de ‘impliciete noodzaak van meer menselijk toezicht en een robuuste AI-governancestructuur’. AI-governance als onderdeel van het toezichthoudersperspectief.
Wat is wijs? Recent heb ik kennis mogen maken met een online tooling uit India. In deze recruitmenttooling is de eindbeslissing, om kandidaten op de shortlist te zetten of juist op de lijst van afgewezen kandidaten te plaatsen, toebedeeld aan AI. Slechts een actieve, menselijke interventie kan ervoor zorgen dat de sollicitatie van personen die op de lijst afgewezen kandidaten terecht zijn gekomen, alsnog door een mens bekeken en beoordeeld kan worden. Kortom, in het hele recruitmentproces is de menselijke component (onderzoek & beoordeling) afwezig, tenzij de mens bewust besluit er zich echt mee te gaan bemoeien. AI is inmiddels overal. Een van de eerste aankondigingen van Donald Trump een dag na zijn aantreden als president, was de versnelling en uitbouw van de AI-revolutie: 500 miljard US-dollar voor project Stargate. Drie dagen erna werd Deepseek aangekondigd, de Chinese uitdager van de Amerikaanse technologische hegemonie. Geopolitiek zien we de ‘AI-wapenwedloop’ tussen de verschillende taalmodellen en economische regio’s verschijnen, met verstrekkende gevolgen. De AI-toekomst gebeurt nu, om ons heen. Voorheen niche, hip en sub-onzichtbaar, nu onweerstaanbaar en vol in het zicht. In de hedendaagse wereld transformeert AI de manier waarop we werken in een razendsnel tempo. De uitnodigende belofte: AI maakt organisaties efficiënter en innovatiever. De keerzijde: achterblijven of niet meegaan in de groeiende AI-kennis & -toepassingen is dodelijk voor je organisatie. Daarmee een doembeeld schetsend, een soort FOFO (Fear Of Fading Out).
Ronkende urgentie
Deze ronkende urgentie zal ongetwijfeld een kern van waarheid bevatten. Gelukkig worden zowel de kansen als de risico’s van het gebruik van AI steeds meer en duidelijker zichtbaar. Kansen zijn: tieners die met kennis en kunde van AI allerlei data en systemen aan elkaar koppelen, aansprekende toepassingen maken en miljoenen euro’s verdienen. Daarmee groeiende innovatiekracht aan de dag leggend en grotere organisaties in slagkracht passerend. Ondernemers die uren per dag besparen omdat ze taken uit kunnen besteden of kunnen automatiseren. Waarmee zowel de efficiëntie als technologische afhankelijk groeit. Wat betreft risico’s: regelmatig vraag ik terloops aan een raad van toezicht of een bestuur, wat de impact van de huidige AI-ontwikkelingen op hun organisatie en hun mensen betekent hoe ze daar mee om (willen) gaan. Vaak krijg ik een hoger-over-verhaal in de trant van: ‘Dat gaat wel impact hebben, ja’, terwijl de keren dat ik een eenduidige visie een doordacht antwoord op die vraag krijg, achterwege blijft. Hoezo? Er zijn valkuilen. Enkele misvattingen over AI en de benodigde governance zijn bijvoorbeeld:
- AI & governance is alleen voor grote organisatie/bedrijven
- AI & governance gaat (alleen) over het implementeren van technische beveiligingen
- AI & governance is een eenmalige inspanning
- AI & governance garandeert dat AI-systemen altijd perfect functioneren
- AI & governance kan worden overgelaten aan de IT-afdeling.
AI-governancevisie
Vanuit toezichthoudersperspectief een nuchtere conclusie en bijbehorende vraag: dan verdient dat het ontwikkelen van een AI-governancevisie & -strategie meer aandacht. En: in hoeverre hebben wij als toezichthouders goed zicht of AI op een verantwoorde, transparante en ethische manier in onze organisatie gebruikt wordt? Een paar vragen daarbij voor de toezichthouder:
- Welk gewicht krijgt AI in de besluitvormingen?
- Wat zijn de risico’s en de impact van de deels door AI-genomen beslissingen?
- Hoe blijven we kritisch ten aanzien van AI?
- Hoe checken we de gebruikte AI-bronnen? AI is niet neutraal, maar baseert die zich op informatie die te vinden is op internet?
- Hoe houden we zicht op de beperkingen, zoals ‘hallucinatie’ of ‘stereotypering’ door AI?
Veranderende arbeidsmarkt
Van geautomatiseerde klantenservice tot geavanceerde data-analyse; AI biedt organisaties nieuwe mogelijkheden om processen te optimaliseren en te versnellen. Echter, deze technologische sprong gaat gepaard met ingrijpende veranderingen in functieprofielen en de benodigde vaardigheden van medewerkers. Traditionele, administratieve taken worden geautomatiseerd, wat enerzijds de efficiëntie verhoogt, maar anderzijds voor onzekerheid en onrust kan zorgen bij het personeel. Brynjolfsson en McAfee (The Second Machine Age) poneerden het volgende daarover: we staan aan de vooravond van een nieuw tijdperk waarin technologische vooruitgang niet per se leidt tot banenverlies, maar vraagt om een fundamentele herwaardering van hoe we werk en menselijk potentieel zien. Tien jaar verder weten we inmiddels meer. AI-groei ten koste van menselijke banen en is de genoemde herwaardering achtergebleven. Echter, hun werk vraagt om nieuwe governancemodellen om de menselijke kant van werk te beschermen. De verschuiving naar een digitale en AI-gedreven werkcultuur vraagt om een herwaardering van talent en een duidelijke strategie om de menselijke rol in de organisatie te behouden en/of te ontwikkelen.
AI-governance als fundament voor menselijke waardigheid
Cathy O'Neil (Weapons of Math Destruction) schrijft over de maatschappelijke impact van algoritmen. Het onderzoek bevestigt dat sommige big data-algoritmen in toenemende mate worden gebruikt op manieren die reeds bestaande ongelijkheid versterken. Toezicht houden op een organisatie die AI gebruikt of zelfs AI-gedreven werkt, gaat verder dan het implementeren van technologische oplossingen en gebruiksregels. Het is een samenhangend geheel van principes, beleidslijnen en regelgevingskaders dat de fundamenten legt voor transparantie, ethiek en verantwoordelijkheid. Wie krijgt daarin de voorrang; de mens of AI? Voor toezichthouders is het cruciaal om niet alleen de technologische innovaties te omarmen, maar ook de menselijke impact hiervan te erkennen. Het ongelijkheidsrisico bedwingen om zodoende het aantal mensen die meekunnen in de verandering vergroten. Hoe dat vorm te geven? Effectieve governance omvat het ontwikkelen van beleid dat werknemers beschermt, waarbij waarden als identiteit, bestaansrecht, inclusiviteit en integriteit centraal staan.
Psychologische gevolgen
Naast de grote technologische en organisatorische voordelen, brengt AI-automatisering ook een scala aan psychologische uitdagingen met zich mee. Bij verdwijnen van traditionele banen of drastisch verandering in werken, ervaren medewerkers vaak gevoelens van stress en onzekerheid. De rol van werk als bron van identiteit en zingeving is niet te onderschatten. Angst voor baanverlies lijdt vaak tot gevoelens van vervreemding en verlies van zelfvertrouwen. Het onderzoek naar automatiseringsrisico’s van Frey en Osborne wees uit dat een aanzienlijk deel van de banen kwetsbaar is voor automatisering. Dit bevestigt de noodzaak van beleid en menselijk toezicht om de psychologische impact van baantransformaties op werknemers te beheersen. Negeren is verlies creëren, dus niet alleen inzetten op technologische ontwikkeling, maar ook op mentale ondersteuning en professionele heroriëntatie om deze psychologische impact te mitigeren.
Menselijk toezicht in een AI-gedreven toekomst
Ondanks de kracht en efficiëntie van AI, blijven menselijke inzichten en empathie essentieel om de kloof te overbruggen die ontstaat door AI-gerelateerde veranderingen. In een omgeving waarin AI steeds meer taken overneemt, gaan organisaties een hybride model omarmen waarin technologie en menselijk oordeel elkaar aanvullen. Menselijk toezicht op AI biedt een extra controlemechanisme, waardoor besluitvorming niet louter door algoritmen wordt bepaald, maar ook door ethische overwegingen en menselijke waarden. Parasuraman, Sheridan en Wickens (Human-Automation Interaction) benadrukken het belang van ‘mens in de lus’ bij het ontwerpen en implementeren van geavanceerde AI-systemen. Daarmee zeggend dat menselijk toezicht essentieel is om de beslissingen van AI te verifiëren en de menselijke waardigheid te waarborgen. Voor toezichthouders betekent dit een proactieve rol in het waarborgen van een bestuurderscultuur die zowel innovatie als menselijk welzijn stimuleert en grondig evalueert.
Niemand is klaar voor AI
De toekomst van werk wordt steeds meer bepaald door de onstuitbare opmars van AI. Toch blijft de menselijke factor de kern van elke succesvolle organisatie. Effectieve governance – geworteld in transparantie, ethiek, verantwoordelijkheid & verantwoording – blijft cruciaal om de psychologische gevolgen van AI-automatisering te beheersen en de menselijke waardigheid te waarborgen. De uitdaging voor toezichthouders ligt op het aansturen/benadrukken van de ontwikkeling van een beleid dat technologische innovatie combineert met aandacht en ondersteuning van de menselijke component. Niemand is klaar voor AI, maar iedereen gebruikt het, of we ons er bewust van zijn of niet. Ook binnen de organisatie(s) waarbij u als toezichthouder verantwoordelijk voor bent, passen de medewerkers (on)bewust AI toe in hun werk. Met of zonder uw medeweten en al dan niet ethisch, verantwoordelijk en volgens de voorgeschreven richtlijnen. Wanneer is het tijd voor een AI-verkenning & -evaluatie binnen uw organisatie?
==
Henk ten Voorde is een ervaren boardroom-adviseur op het gebied van organisatie-, leiderschaps-, team- en talentontwikkeling & toezichthouden, waarbij de focus op zowel strategisch als operationeel vlak ligt. Hij heeft ruime ervaring op het vlak van strategische leiderschapsontwikkeling, trainingsmanagement, operationele excellence, change- & performance management in nationale en internationale omgevingen. Gedurende zijn werk aan de Universiteit Leiden heeft Henk een uitgebreide bibliotheek met eigen psychologische testen gevalideerd. Henk verzorgt veel boardroom dynamics-sessies op basis van het werk van professor Graves, grondlegger van Spiral Dynamics, drijfveren, intrinsieke motivaties & Big Five persoonlijkheid.
