AI-gerelateerde incidenten wereldwijd toegenomen
Onderzoek onder 4200 professionals in 14 landen laat zien dat het aantal incidenten met AI het afgelopen jaar met 43% is gegroeid. Het onderzoek laat zien dat veiligheid geen technisch probleem is, maar een breder organisatievraagstuk. De meeste incidenten zijn het gevolg van menselijk handelen. AI versterkt dat risico, omdat medewerkers steeds vaker data invoeren in tools waarvan onduidelijk is wat ermee gebeurt.
Het menselijk risico
Veel organisaties blijken geen beleid te hebben voor het gebruik van AI. Andere organisaties hebben wel beleid, maar dat wordt door medewerkers als zeer restrictief ervaren. Ook vinden medewerkers dat bedrijven te traag zijn met het implementeren van AI-beleid. Daarnaast laat het onderzoek van KnowBe4 ook zien dat er vooral met een technische bril naar veiligheid wordt gekeken en de menselijke risico’s niet voldoende meegenomen worden. Er worden echter wel regelmatig achteraf disciplinaire maatregelen genomen als er fouten worden gemaakt. Medewerkers vragen juist om meer aandacht voor ondersteuning, training en duidelijke kaders. Het ontbreken hiervan leidt tot onveiligheid, angstcultuur en willekeurig ingrijpen achteraf.
AI-geletterdheid
In dit kader is het belangrijk als OR op de hoogte te zijn van de AI-verordening en de naleving daarvan binnen de organisatie. In de verordening worden eisen gesteld aan organisaties die AI gebruiken. Eén van die eisen is dat organisaties zorgen voor voldoende AI-geletterdheid bij iedereen die met AI werkt. AI-geletterdheid gaat verder dan een eenmalige training. Het betekent dat medewerkers begrijpen:
- welke AI-systemen zij gebruiken;
- welke data zij wel en niet mogen invoeren;
- welke risico’s AI heeft voor privacy, veiligheid en besluitvorming.
De rol van de OR
De WOR biedt duidelijke aanknopingspunten om invloed uit te oefenen op de manier waarop AI binnen de organisatie wordt ingezet. De invoering van AI-systemen, het grootschalig gebruik van AI-toepassingen of een wezenlijke wijziging in de digitale infrastructuur zijn besluiten met belangrijke gevolgen voor het werk en de organisatie. Denk aan veranderingen in taken, verantwoordelijkheden, werkdruk en risico’s voor medewerkers. De OR heeft daarbij vaak adviesrecht (Artikel 25 WOR), waarbij expliciet aandacht kan worden gevraagd voor menselijke risico’s, governance en ondersteuning van medewerkers. Daarnaast speelt het instemmingsrecht (Artikel 27 WOR) een rol. Invoering van het gebruik van nieuwe AI-tools voor zaken als monitoring, dataverwerking en controle op medewerkers vallen hier al snel onder.
Tot slot is er Artikel 28 WOR, dat de OR de taak geeft om te waken voor naleving van wet- en regelgeving. De AI-verordening legt concrete verplichtingen op aan organisaties die AI gebruiken, onder meer op het gebied van risicobeheersing, transparantie en AI-geletterdheid. De OR kan de bestuurder aanspreken op de vraag hoe deze verplichtingen worden ingevuld, wie hiervoor verantwoordelijk is en hoe medewerkers hierbij worden ondersteund.
Door actief AI-gebruik te agenderen, kan de OR bijdragen aan een veilige en verantwoorde inzet van AI. Niet door innovatie te blokkeren, maar door te zorgen dat technologische vooruitgang hand in hand gaat met duidelijk beleid, scholing en bescherming van medewerkers.
- Zelf het onderzoek lezen? Vraag het hier aan.
- Meer weten over AI-geletterdheid? De AP heeft handige voorbeelden en tips.
- Als OR aan de slag met AI-geletterdheid? Wij helpen je graag verder.
- Vragen over de juridische aspecten van AI-gebruik? Neem contact op.
