Sinds begin 2025 vereist de EU AI Act dat organisaties aantonen dat medewerkers AI begrijpen, de risico’s herkennen en verantwoord kunnen handelen. Niet-naleving leidt tot forse boetes, reputatieschade en verlies van klantvertrouwen. Uiterlijk 2 februari 2025 moet elke organisatie die AI-systemen ontwikkelt of gebruikt ervoor zorgen dat medewerkers AI-geletterd zijn.

De vraag: is uw organisatie er klaar voor?

EPSA Digital over AI-geletterdheid
17 sep 2025

Meer dan compliance: opkomende risico’s binnen IT-architectuur

Verantwoord en betrouwbaar gebruik van AI vraagt om concrete acties, niet slechts om principes en beloftes. In een recente open brief wees de Chief Information Security Officer van JP Morgan op de gevaren van de huidige wedloop in AI-oplossingen. De bekende risico’s van AI zoals bias, hallucinaties, gemakzucht en overmatige afhankelijkheid zijn inmiddels breed erkend.

Maar er dient zich een nieuw en sluipender gevaar aan: de mogelijke ondermijning van IT-architectuur en -beveiliging door de snelle adoptie van externe AI-SaaS-oplossingen. Deze tools breiden zich razendsnel uit en ontwikkelen zich om nichespecifieke problemen op te lossen in uiteenlopende sectoren. De tijdsbesparing die samenvattings- en optimalisatietools bieden, maakt ze bijzonder aantrekkelijk.

Juist hier is echter behoedzaamheid geboden. Organisaties moeten begrijpen hoe deze tools werken, welke toegangsrechten en autorisaties zij vereisen, en waar data naartoe wordt gestuurd. Zelfs vertrouwde CRM-, ERP- of ATS-leveranciers integreren inmiddels derde-partij AI-tools in hun diensten.

Volgens Patrick Opet (JP Morgan) kan sterk geïntegreerde IT-architectuur leiden tot een samensmelting van authenticatie en autorisatie tot te simplistische interacties, waarbij in feite een single-factor trust ontstaat tussen publieke internetdiensten en interne systemen. Dit vormt een fundamentele aantasting van bewezen beveiligingsprincipes. Incidenten kunnen zich vervolgens kettinggewijs door supply chains verspreiden, wat nauwgezette toetsing van SLA’s en leveranciersrelaties essentieel maakt.

Om deze risico’s te beperken, is het cruciaal dat AI-geletterdheid stevig wordt ingebed in de organisatie, zodat AI-tools grondig worden beoordeeld vóór ze onderdeel worden van de IT-infrastructuur.

Wat verstaan we onder AI-geletterdheid?

AI-geletterdheid omvat de kennis, vaardigheden en het bewustzijn die nodig zijn om op een verantwoorde manier met AI-systemen te werken. Het gaat onder meer om:

  • Technisch inzicht: basiskennis van hoe AI-systemen functioneren
  • Kritisch denkvermogen: outputs ter discussie kunnen stellen en beperkingen herkennen
  • Ethisch bewustzijn: de maatschappelijke en morele implicaties begrijpen
  • Databewustzijn: weten hoe datakwaliteit AI-prestaties beïnvloedt
  • Risico-inschatting: potentiële schade door AI-gebruik identificeren

Kortom: het draait om het creëren van een cultuur van verantwoord AI-gebruik.

De vereiste mate van geletterdheid verschilt per functie en het risicoprofiel van de gebruikte AI-toepassing. Een medewerker die ChatGPT gebruikt voor ideeënvorming heeft een ander kennisniveau nodig dan iemand die AI inzet voor klantbeslissingen.

Wie moet voldoen? (hint: waarschijnlijk ook uw organisatie)

De AI Act schrijft voor dat álle aanbieders en gebruikers van AI-systemen AI-geletterdheid waarborgen bij:

  • vaste medewerkers
  • zelfstandigen die in opdracht werken
  • derden die AI gebruiken binnen de context van uw organisatie

Deze verplichting geldt voor alle organisatieniveaus en strekt zich uit tot externe leveranciers die AI namens u inzetten.

Artikel 4 van de AI Act bepaalt expliciet dat aanbieders en gebruikers van AI-systemen ervoor moeten zorgen dat medewerkers en eindgebruikers over voldoende AI-geletterdheid beschikken, rekening houdend met hun achtergrond, opleiding en de context van gebruik.

Hoe dit in de praktijk moet worden ingericht, blijft deels onduidelijk. Nadere richtlijnen worden in augustus verwacht. Het is nog af te wachten of AI-geletterdheid daadwerkelijk afdwingbaar wordt of slechts als vrijwillige aanbeveling geldt. Vooruitstrevende organisaties wachten echter niet af en ondernemen nu al actie.

De verborgen risico’s van snelle AI-adoptie

Organisaties die te laat investeren in AI-geletterdheid lopen meerdere bedreigingen op:

  • boetes onder de EU AI Act
  • kwetsbaarheden door onjuiste AI-integratie
  • reputatieschade door verkeerd gebruik
  • concurrentieachterstand tegenover AI-geletterde organisaties
  • gemiste kansen doordat medewerkers AI onvoldoende benutten

Een specifiek aandachtspunt is de kloof tussen servicemanagers en IT-specialisten: zij moeten een gelijkwaardig niveau van AI-geletterdheid bereiken om SLA’s effectief te kunnen bevragen en stevig met leveranciers te onderhandelen. Zonder dit gedeelde fundament blijven risico’s onzichtbaar totdat het te laat is.

Vier cruciale stappen naar AI-geletterdheid

Conform aanbevelingen van toezichthouders zoals de Autoriteit Persoonsgegevens, kunnen organisaties een gestructureerde aanpak hanteren:

1. Breng huidig AI-gebruik in kaart

  • inventariseer alle AI-systemen in de organisatie
  • koppel hieraan risico’s en kansen
  • meet huidige kennisniveaus van medewerkers
  • leg rollen en verantwoordelijkheden vast

2. Stel heldere doelstellingen

  • bepaal gewenste geletterdheidsniveaus per risicoprofiel
  • definieer rol-specifieke kennisvereisten
  • formuleer meetbare succescriteria
  • prioriteer toepassingen met hoog risico

3. Implementeer training en bewustwording

  • ontwikkel gelaagde opleidingsprogramma’s
  • stimuleer interdisciplinaire samenwerking
  • bied specialistische trainingen voor hoog-risico toepassingen
  • integreer AI-geletterdheid in onboarding

4. Evalueer en stuur bij

  • toets regelmatig kennisniveaus
  • audit AI-gebruik en naleving
  • pas trainingen aan op basis van technologische ontwikkelingen
  • documenteer voortgang als bewijs richting toezichthouders

De kritische rol van organisatiecultuur

Zelfs met gedegen beleid en trainingen staat of valt verantwoord AI-gebruik met de organisatiecultuur. Transparantie, ethische reflectie en open dialoog zijn randvoorwaarden.

Kern van een effectieve AI-geletterdheidsstrategie is interdisciplinaire samenwerking:

  • ontwikkelaars moeten oog hebben voor maatschappelijke impact, niet alleen techniek
  • leiders moeten voldoende kennis hebben om datagedreven besluiten te nemen
  • eindgebruikers moeten praktische inzichten hebben in de beperkingen van AI

Medewerkers moeten zich op alle niveaus veilig voelen om kritische vragen te stellen, zorgen te uiten en ongewenste effecten te melden. Psychologische veiligheid is hierin een cruciale succesfactor. Periodieke surveys kunnen inzicht bieden in kennisniveaus en voortgang monitoren.

Van compliance naar strategisch voordeel

Wie AI-geletterdheid enkel ziet als een verplichting, mist de strategische kans. Echte AI-geletterdheid stelt medewerkers in staat om:

  • betere beslissingen te nemen over AI-adoptie
  • innovatieve toepassingen in hun werkveld te signaleren
  • risico’s tijdig te onderkennen
  • bij te dragen aan een robuust AI-governance framework

Hoe wij kunnen helpen

Wacht niet tot toezichthouders aankloppen. Neem contact met ons op om uw organisatie klaar te stomen voor verantwoord AI-gebruik en de toekomst van AI-gedreven bedrijfsvoering veilig te stellen.

Wij hebben bewezen ervaring in het ondersteunen van organisaties bij het ontwikkelen van AI-strategieën, AI-governance en compliance bij de implementatie van verantwoorde AI.

Nieuws overzicht Lees vorige nieuws

Samen groeien?

Neem contact met ons op





    Verzenden

    Dit formulier is beschermd door Google reCAPTCHA, de Google privacy policy en de gebruiksvoorwaarden.