
“De AI Act is niet te negeren – risico’s voorkomen begint nu.”
AI speelt een steeds grotere rol binnen de klantenservice. Tegelijkertijd neemt ook de wet- en regelgeving toe. De EU AI Act (Verordening Kunstmatige Intelligentie) is Europese wetgeving rondom kunstmatige intelligentie en sinds 2 februari 2025 van kracht. Stapsgewijs wordt deze AI-verordening verder ingevoerd. Toch merken ze bij Studio Winegum dat veel organisaties hier nog nauwelijks van op de hoogte zijn. Laat staan dat ze weten hoe ze zich erop moeten voorbereiden.
Studio Winegum ondersteunt organisaties bij het digitaliseren en verbeteren van klantcontact. We spraken met Casper van den Broek (partner en senior consultant) en Emma Valk – van de Klundert (conversation designer), die allebei bijdragen aan effectieve implementaties van conversational AI in klantcontactoplossingen. Ze helpen organisaties onder andere bij het opstellen van beleid rondom AI-gebruik en het vergroten van AI-geletterdheid. Hoe serieus moeten we de AI Act nemen? En hoe ga je als organisatie verantwoord om met AI, zonder dat het innovatie in de weg staat?
Het is de eerste AI-regelgeving binnen Europa – hoe serieus moeten we de AI Act nemen?
“De AI Act is niet te negeren.” vindt Emma. “Hoewel de regelgeving al sinds 2 februari van kracht is, blijken nog veel organisaties niet doordrongen van het feit dat ze verplicht zijn hier iets mee te doen. Terwijl er ondertussen, bewust én onbewust, steeds meer AI wordt gebruikt door organisaties, ook intern. Er is vaak nog helemaal geen beleid voor. Organisaties zijn verplicht om medewerkers AI-geletterd te maken. En ook de transparantie over het gebruik van AI naar klanten toe, wordt nu heel belangrijk. Dit is de volgende fase in de AI Act, die in augustus geïmplementeerd wordt. Dat is over twee maanden, heel snel dus al.”
Casper vult aan: “Bij Studio Winegum bedienen we veel opdrachtgevers die hier mee te maken hebben. Maar eigenlijk is het voor elke organisatie in Nederland belangrijk om aan deze wetgeving te voldoen. Dat wij nu ervaren dat organisaties niet weten wat ze moeten doen, is voor ons reden om dit onderwerp te activeren. Wij willen organisaties helpen om verantwoord om te gaan met AI. Dat is belangrijk voor consumenten, om hen te beschermen. Maar ook om veilig gebruik van AI op de langere termijn te waarborgen. Bovendien hangen er nu met de uitrol van de AI Act hoge boetes boven ons hoofd.”

Bron afbeelding: Studio Winegum
De AI Act kent een risicogebaseerde aanpak – wat betekent dat precies?
Casper: “De risicogebaseerde aanpak houdt in dat hoe meer impact het gebruik van AI-toepassingen heeft op de consument, hoe hoger je risico. Ook de branche, markt en dienstverlening zijn van invloed. Op basis van je risiconiveau wordt er verwacht dat je als organisatie maatregelen treft. De toezichthouder in Nederland, de Autoriteit Persoonsgegevens, gaat dit handhaven en boetes opleggen als dit nodig is. En die zijn niet mals. Een organisatie die zich niet houdt aan de wettelijke vereisten, loopt risico op boetes die kunnen oplopen tot wel 34 miljoen euro of 7% van de omzet. Zo staat vermeld in de EU-act, artikel 99. Ze kijken welke het hoogste is, en die wordt het.”
“De AI Act is qua impact vergelijkbaar met de maatregelen in het verleden rondom de privacywetgeving AVG/GDPR.” redeneert Casper. “Die werden ook serieus genomen op het moment dat er boetes uitgedeeld konden worden. En op dat punt zijn we nu weer aangekomen. Het is belangrijk om ermee aan de slag te gaan, om risico’s zo snel mogelijk te voorkomen.”
Wanneer loopt je organisatie (het meeste) risico?
“Om te weten welke regels gelden voor specifieke toepassingen binnen klantcontact, heeft de AI Act verschillende risicogroepen bepaald waarin AI-systemen worden ingedeeld: minimaal, beperkt, hoog en onacceptabel.” legt Emma uit.
Aanvullend somt Casper een aantal voorbeelden op van verschillende AI-toepassingen, die ze vanuit Studio Winegum binnen klantenservices veel tegenkomen:
/ AI ondersteunt selfservice
“Wanneer AI rechtstreeks klantvragen beantwoordt via selfservicekanalen, is er meestal sprake van een minimaal of beperkt risico. AI kan toegang hebben tot algemene informatie, of zelfs tot klantdata. Dit gaat dus om ondersteuning van AI binnen het selfservice domein. Het risico stijgt naarmate AI meer toegang krijgt tot gevoelige of persoonsgebonden gegevens, zeker als AI wijzigingen mag doorvoeren.
/ AI ondersteunt live klantgesprekken
“Als de klant er zelf niet uitkomt, heeft hij contact met een klantadviseur. AI kan die medewerker ondersteunen. Als AI tijdens gesprekken met een medewerker meeluistert en realtime suggesties doet, zoals antwoorden, vervolgstappen of het ophalen van (klant)informatie, nemen de risico’s toe. Want hoewel de medewerkers aan zet blijft, vertrouwt deze deels op de output van AI. De risico’s zitten hier in incorrecte suggesties, vooroordelen of onbewuste beïnvloeding van de medewerker en daarmee de klant.”
/ AI wordt actief geraadpleegd door de klantenservicemedewerker
“Wanneer een medewerker een interne chatbot of AI-tool gebruikt om klantvragen te beantwoorden, betekent dit dat AI informatie ophaalt of genereert op basis van interne bronnen of klantdata. De betrouwbaarheid van de antwoorden en de kwaliteit van de brondata zijn hier kritisch. Verkeerde interpretatie of onjuiste advisering richting de klant vormen risico’s.”
/ AI vat gesprekken samen of handelt vragen automatisch af
“Wanneer je als organisaties gebruikmaakt van AI, om gesprekken samen te vatten, klantdossiers aan te vullen of automatisch reacties te versturen richting de klant, moet je je ook bewust zijn van toenemende risico’s. Hoewel het efficiënt is, kunnen fouten in de samenvatting, incorrecte informatie of verkeerde interpretaties impact hebben op de klantrelatie en privacy.”
/ AI analyseert data en doet voorspellingen of profileert
“Risico’s worden onacceptabel als AI wordt ingezet om klantdata en eerdere interacties te analyseren, om op basis daarvan bijvoorbeeld klantpersona’s, gedragsvoorspellingen of risicoprofielen te genereren. In het analyseren en verwerken van data schuilen aanzienlijke risico’s. Denk aan vooroordelen, discriminatie of ondoorzichtige besluitvorming die klanten negatief beïnvloedt. Onder invloed van AI beslissingen nemen die misleidend of schadelijk kunnen zijn, is nu verboden.”
Voorbeeld onacceptabel risico – de toeslagenaffaire
Casper noemt een voor de meesten wel bekende voorbeeldcase van een onacceptabel risico van profilering en het doen van aannames: de toeslagenaffaire. “Niet per se op AI gebaseerd, maar hier zijn ook profielen gemaakt waarop mensen als persoon scoorden. Op basis van die analyse hebben ze aannames gedaan: bijvoorbeeld 95% kans dat deze persoon een vergelijkbaar profiel heeft. Daarop volgend werden vervolgens dingen geactiveerd. In een flink aantal gevallen bleek het helemaal niet te kloppen. Hier is de overheid natuurlijk heel erg de fout in gegaan. Een duidelijke reden waarom zaken als dit, het profileren en daarop actie ondernemen, niet mag.”
Gaat de AI Act als ‘bureaucratie’ innovatie belemmeren?
Casper meent van niet: “Er blijft genoeg ruimte over. Ik denk dat de EU echt voorop loopt op het gebied van wet- en regelgeving wereldwijd. Waardoor, als we hier aan de regels voldoen, je makkelijker kan uitbreiden naar de rest van de wereld. Juist omdat je toch al voldoet aan al die regels. Mensen kunnen het ervaren als bureaucratie en in Amerika denken ze ‘daar komt Europa weer’. Maar wat mij betreft is het simpel. We hadden natuurlijk al de AVG wet rondom privacy. Dit is een uitbreiding daarop. Een update. Want we gaan data op een andere manier verwerken. Daar moet gewoon rekening mee gehouden worden. Zie het als investeren in de toekomst. En er blijft binnen die regels echt wel genoeg ruimte over om te innoveren.
Emma denkt dat het alleen maar meer inventiviteit aanwakkert: “Ik denk dat mensen die ‘nee, mag niet’ horen, alleen maar inventiever worden en kijken naar hoe iets dan wel mogelijk is. Zo komen we altijd wel weer tot nieuwe oplossingen.”
Wat moet je doen om te voldoen aan de AI Act?
Emma: “De meeste klantenservices vallen nu in de categorie ‘minimaal’ of ‘beperkt’. En er is veel nuance mogelijk. Als het gaat om verzekeren of gokken bijvoorbeeld, dan is het natuurlijk anders dan wanneer het gaat om een e-commerce platform. Maar daarom is het des te logischer dat AI-geletterdheid een verplichting is geworden. Medewerkers moeten zich bewust zijn van wat AI inhoudt, waarmee ze precies werken, hoe AI werkt en welke impact dit meebrengt. Welke invloed heeft het op de klant?
Hiervoor is het dus ook nodig om alle AI-toepassingen binnen je organisatie helder in kaart te brengen. En naar klanten toe transparant te zijn. Die moeten precies weten wanneer ze met een AI-tool communiceren, in plaats van met een echte medewerker. Verder is het in het verlengde van de AVG-wetgeving belangrijk om je data heel zorgvuldig te beheren en alles te blijven monitoren en documenteren. Iemand die verantwoordelijkheid draagt om dit binnen de organisatie te waarborgen, is dus geen gekke keuze.”
En waarom is het belangrijk om zo snel mogelijk aan de slag te gaan?
“De invoering is al begonnen en binnen organisaties wordt steeds meer AI gebruikt.” stelt Casper. “Zelfs al gebruik je nog geen chatbot, er zijn waarschijnlijk al een hoop collega’s die (stiekem) ChatGPT gebruiken, voor bijvoorbeeld het opstellen van mailtjes of voor vertalingen. Als zij een gratis account gebruiken, nemen de risico’s toe. Er kunnen persoonsgegevens of bedrijfsinformatie gebruikt en gedeeld worden. Dat zijn allemaal alarmbellen natuurlijk. Door op de juiste manier om te gaan met AI, voorkom je boetes. En imagoschade. Als je in het nieuws komt omdat gegevens niet beschermd waren binnen je organisatie, kun je het vertrouwen van consumenten compleet verliezen.”
Casper sluit zijn verhaal af met een helder advies: “Gewoon beginnen! Ga aan de slag. Het is net als bij de AVG/GDPR: het moet. Heb je hierin al stappen gezet, dan is dit een verlengde ervan. De veiligheid van data en privacy moest al gewaarborgd zijn. Hier komt nu veilig gebruik van AI bij. Het is belangrijk om niet verder achterop te raken. En ook: dat je het dan maar meteen goed doet. Er valt strategisch veel voordeel uit te halen.”
Grip krijgen op de AI-wetgeving binnen je klantenservice?
Vraag hier het complete overzicht aan, met alle belangrijke details over de AI act, alle risiconiveaus en de 7 praktische stappen naar compliance. Inclusief een tip hoe je AI-geletterdheid binnen je organisatie structureel versterkt. Neem de regie! Download ‘Navigeren in klantcontact door de nieuwe AI-regelgeving’.