Vanaf 2025 verbiedt de Europese AI Act bepaalde toepassingen van artificiële intelligentie volledig. Niet alleen voor grote techbedrijven, maar ook voor gewone ondernemers geldt: sommige AI mag je straks gewoon niet meer gebruiken. In deze blog lees je welke toepassingen verboden zijn, waarom dat zo is, en hoe je controleert of jouw tools op het randje zitten.

Wat bedoelt de wet met “onaanvaardbaar risico”?

De AI Act hanteert vier risicoklassen voor AI-systemen. De zwaarste klasse is ‘onaanvaardbaar risico’. Dit zijn AI-toepassingen die te gevaarlijk worden geacht voor de rechten en vrijheden van mensen. Die zijn vanaf februari 2025 niet meer toegestaan, ongeacht hoe nuttig, efficiënt of winstgevend ze zijn.

Het verbod geldt in de hele EU, en ook als je alleen gebruiker bent van een AI-tool — je hoeft dus geen ontwikkelaar te zijn om er verantwoordelijk voor te zijn.

Wat is er concreet verboden?

EU Artificial Intelligence Act 6

De lijst van verboden toepassingen lijkt op het eerste gezicht ver weg van jouw dagelijkse praktijk. Maar als je wat dieper kijkt, merk je dat sommige populaire of ‘slimme’ functies in marketing, HR of klanteninteractie onder deze categorie kunnen vallen. De wet verbiedt onder meer:

  • AI die mensen manipuleert via psychologische of gedragsmatige technieken, bijvoorbeeld via verslavend ontwerp of misleidende aanbevelingen
  • AI die mensen indeelt op basis van gevoelige kenmerken zoals etniciteit, religie of seksuele geaardheid
  • Biometrische gezichtsherkenning in realtime in openbare ruimtes (tenzij door politie onder strikte voorwaarden)
  • Emotieherkenning op werkvloeren of in het onderwijs
  • AI die sociale scores toekent (bijvoorbeeld gedragspunten voor klanten of werknemers)

Kun jij dit onbewust gebruiken?

Veel ondernemers denken: “Ik doe niets illegaals met AI.” Maar sommige tools bevatten functies waarvan je niet weet dat ze onder het verbod vallen. Denk aan:

  • Marketingsoftware die segmentatie uitvoert op basis van emotieherkenning of gedragsanalyse
  • Chatbots die beïnvloedende technieken gebruiken om koopgedrag te sturen
  • HR-tools die op basis van micro-expressies of stemanalyse kandidaten beoordelen
  • AI in beveiligingscamera’s die ‘emotie’ of ‘verdacht gedrag’ probeert te detecteren

Vooral in tools die je niet zelf hebt ontwikkeld, is het moeilijk om te weten wat er exact onder de motorkap gebeurt. Maar de verantwoordelijkheid ligt uiteindelijk wel bij jou als gebruiker.

Wat als je een verboden toepassing gebruikt?

EU Artificial Intelligence Act 16

Vanaf februari 2025 is het gebruik van deze AI-systemen verboden in de hele EU. Overtreding kan leiden tot hoge boetes, reputatieschade en juridische aansprakelijkheid — ook voor kleine ondernemingen.

Je hoeft geen expert te worden in AI-technologie, maar het is wel jouw taak om:

  • kritisch te zijn over wat je inzet
  • transparantie te vragen van leveranciers
  • bij twijfel alternatieven te zoeken
  • je klanten of werknemers niet onbewust bloot te stellen aan verboden AI

Hoe controleer je of je in overtreding bent?

Een goede eerste stap is jezelf deze vragen stellen:

  • Gebruikt deze tool AI om mensen te analyseren of te beïnvloeden?
  • Herkent de software emoties, stemmingen of gezichtsuitdrukkingen?
  • Worden mensen ingedeeld op basis van gedrag of persoonlijkheid?
  • Is het onduidelijk hoe de tool tot bepaalde beslissingen komt?
  • Wordt er realtime data verzameld op openbare plaatsen?

Als je één of meer vragen met “ja” beantwoordt, is het verstandig om de tool grondig te (laten) controleren of een veiliger alternatief te zoeken.

EU Artificial Intelligence Act 25

De AI Act is helder: sommige AI-toepassingen zijn straks verboden, hoe innovatief ze ook lijken. Als kleine ondernemer ben je niet uitgesloten van die regels. Sterker nog: je loopt extra risico als je blindelings vertrouwt op ‘slimme’ functies van tools die je niet begrijpt.

Door nu al meer te leren over de AI die je inzet, vermijd je problemen en laat je zien dat je professioneel en verantwoordelijk onderneemt.

Similar Posts