Verplicht sinds 2025: Zijn uw monteurs al ‘AI-geletterd’?
- iriscoenders
- 19 jan
- 3 minuten om te lezen
Het is inmiddels Januari 2026. De meeste stof rondom de invoering van de Europese AI Act is neergedaald. Fabrikanten passen hun producten aan en de eerste boetes voor verboden AI-toepassingen zijn uitgedeeld. Toch is er één verplichting die bij veel installatiebedrijven volledig onder de radar is gebleven: AI-geletterdheid.
Deze regel is al sinds 2 februari 2025 van kracht. De Autoriteit Persoonsgegevens (AP) controleert er sinds dit najaar actief op. Wat betekent dit concreet voor uw monteurs en engineers? Moeten zij nu allemaal leren programmeren? Nee, maar ze moeten wel weten wat ze doen.
De ‘vergeten’ regel uit de AI Act
Artikel 4 van de AI Act is helder: elke organisatie die AI-systemen gebruikt, moet zorgen dat het personeel voldoende competent is om deze systemen te bedienen en de resultaten te interpreteren.
Voor een installatiebedrijf klinkt dit misschien als een ‘ver-van-mijn-bed-show’. U ontwikkelt immers geen AI, u installeert het toch alleen maar? Dat klopt, maar de grens vervaagt. Uw medewerkers gebruiken vaker AI dan u denkt, en daar zitten risico’s aan vast.
Praktijkvoorbeeld 1: De ‘behulpzame’ monteur
Stel, uw servicemonteur staat bij een klant voor een complexe storing aan een warmtepomp. Hij komt er niet uit en besluit ChatGPT (of een andere AI-assistent) om hulp te vragen. Hij typt in: “Storing code E-45 bij installatie op Adres [Klant X], type [Y]. Wat is de oplossing?”
Het probleem: De monteur heeft zojuist privacygevoelige klantdata (adres + installatiegegevens) geüpload naar een publieke cloudserver in de VS. Zonder dat hij het doorhad, heeft hij een datalek veroorzaakt. AI-geletterdheid betekent hier: De monteur snapt dat publieke AI-tools alles ‘lezen’ en onthouden, en weet dat hij klantgegevens nooit in zo’n prompt mag zetten.
Praktijkvoorbeeld 2: De inregel-engineer
Uw engineer configureert een slim gebouwbeheersysteem (BMS) dat met AI het energieverbruik optimaliseert. Het systeem leert van het gedrag van de bewoners. Als de engineer de parameters verkeerd instelt, of blind vertrouwt op de standaardinstellingen van de fabrikant, kan het systeem in de winter de verwarming uitschakelen omdat het ‘leert’ dat er op vrijdagmiddag niemand is (terwijl er net een vergadering is).
Het probleem: De klant zit in de kou en dient een claim in. U kunt niet zomaar wijzen naar de software, want ú heeft het geïnstalleerd. AI-geletterdheid betekent hier: De engineer begrijpt de beperkingen van het algoritme en weet hoe hij menselijk toezicht (een ‘override’) moet inbouwen.
De oplossing: Geen dik handboek, maar een toolbox-meeting
U hoeft uw personeel niet naar de universiteit te sturen om aan de wet te voldoen. De AP geeft aan dat de training moet passen bij de rol van de medewerker.
Voor een installatiebedrijf volstaat vaak een praktische aanpak:
Inventariseer: Welke AI-tools worden er (stiekem) al gebruikt? (Denk aan ChatGPT, maar ook slimme camera-software).
Organiseer een Toolbox-meeting: Besteed één ochtendsessie aan ‘Veilig werken met slimme tools’.
Stel simpele spelregels op:
Geen klantnamen in chatbots.
Altijd menselijke controle bij AI-gegenereerde code of teksten.
Bij twijfel over een slimme installatie: overleg met kantoor.
Conclusie
AI-geletterdheid is geen bureaucratische afvinklijst, maar een veiligheidsmaatregel. Net zoals u monteurs leert om veilig met elektriciteit te werken (NEN 3140), moet u ze nu leren veilig met data en algoritmes om te gaan.
Het beschermt uw bedrijf tegen datalekken, claims van klanten en – niet onbelangrijk – boetes van de toezichthouder. Want anno eind 2025 is “ik wist niet hoe het werkte” juridisch geen geldig excuus meer.
Call to Action Wilt u praktische invulling geven aan uw AI-beleid zonder dat het een papieren tijger wordt? Wij helpen u met een concrete 'AI-spelregels'-sessie voor uw technisch personeel, zodat u binnen een dag weer compliant bent. Neem contact op met Berkland voor de mogelijkheden.



Opmerkingen