Organisaties zetten kunstmatige intelligentie in hoog tempo in voor hun dagelijkse bedrijfsprocessen, maar passen hun beveiliging daar nog onvoldoende op aan. Daardoor ontstaat een nieuw digitaal aanvalsoppervlak. Dat blijkt uit het nieuwe State of AI Security 2026–rapport van Cisco.
Volgens het onderzoek groeit het gebruik van AI in organisaties snel, terwijl de beveiliging vaak achterblijft. AI-modellen en –toepassingen worden daardoor steeds vaker zowel hulpmiddel als doelwit voor cyberaanvallen.
Grote kloof tussen AI-ambitie en beveiliging
Uit het rapport blijkt dat 83 procent van de organisaties van plan is om zogenoemde agentic AI te integreren in hun bedrijfsprocessen. Dat zijn AI-systemen die zelfstandig taken uitvoeren of processen aansturen.
Tegelijkertijd voelt slechts 29 procent van de organisaties zich klaar om deze technologieën veilig in te zetten.
“De snelle adoptie van AI heeft een nieuw en grotendeels onbewaakt aanvalsoppervlak gecreëerd,” zegt Jan Heijdra, Field CTO Security bij Cisco Nederland. “Organisaties moeten AI-systemen net zo serieus beveiligen als hun traditionele IT-infrastructuur.”
Nieuwe aanvalsvormen rond AI
Cyberaanvallen ontwikkelen zich volgens het rapport snel mee met de opkomst van AI. Onderzoekers signaleren onder meer:
-
prompt injection, waarbij AI-systemen via slimme instructies worden gemanipuleerd
-
jailbreak-aanvallen die beveiligingsregels van AI-modellen omzeilen
-
supply-chain-aanvallen via gekoppelde AI-tools en databronnen
Daarnaast ontstaan nieuwe kwetsbaarheden door systemen die AI-modellen verbinden met externe tools en databronnen. Deze koppelingen maken automatisering mogelijk, maar vergroten ook het risico op datalekken of manipulatie.
Security moet mee evolueren met AI
Volgens Cisco moeten organisaties hun beveiligingsstrategie aanpassen aan deze nieuwe realiteit. Dat betekent onder meer:
-
AI-systemen behandelen als kritieke IT-componenten
-
strengere controle op toegang tot data en tools
-
continue monitoring van AI-activiteiten
Experts adviseren daarnaast om AI te beveiligen volgens een defence-in-depth-strategie en een Zero Trust-architectuur, waarbij geen enkel systeem of gebruiker automatisch wordt vertrouwd.
Nu steeds meer organisaties AI inzetten in kritieke processen, groeit volgens onderzoekers het belang van duidelijke beveiligingsstandaarden en toezicht op AI-toepassingen.
Bron: State of AI Security 2026–rapport van Cisco
https://www.cisco.com



