AI als risico en wapen.

AI als risico en wapen

Kleine foto van Pieter Fokkema op een beige achtergrond. Auteur blog

Pieter Fokkema

Directeur

09 december 2025
13 minuten om te lezen
In de afgelopen jaren is kunstmatige intelligentie (AI) uitgegroeid tot een cruciale factor in cybersecurity, zowel als nieuw risico als potentiële bondgenoot. Tijdens het Mile2-webinar van 4 september 2025 deelden experts hun inzichten over hoe AI het dreigingslandschap verandert en wat organisaties kunnen doen om weerbaarder te worden. We bespreken hier de belangrijkste ontwikkelingen uit het webinar, van de opkomst van AI-aangedreven aanvallen (deepfakes, autonome malware) tot de eigen initiatieven van Mile2, zoals het AI Cybersecurity Playbook, het Adaptive Cyber Resilience Policy Model (ACRPM) en de nieuwe C)AICSO-certificering. Tot slot gaan we in op de oproep van Mile2-CEO Raymond Friedman aan cybersecurityleiders om nú proactief beleid te formuleren en zich voor te bereiden op de AI-revolutie binnen cybersecurity.

De opkomst van AI als risico en wapen in cybersecurity

Kunstmatige intelligentie (AI) belooft cybersecurity te versterken, maar hetzelfde mes snijdt aan twee kanten: kwaadwillenden gebruiken AI net zo goed als verdedigingspecialisten. Uit recent onderzoek blijkt dat veel securityleiders dagelijks te maken krijgen met AI-gestuurde aanvallen. Deze ontwikkeling dwingt organisaties om hun beveiligingsstrategie te herzien en rekening te houden met AI als zowel een risico als een wapen. Aan de ene kant kunnen aanvallers met behulp van AI sneller kwetsbaarheden vinden, geautomatiseerd phishingmails opstellen en zelfs slimme malware ontwikkelen. Aan de andere kant kan AI verdedigers helpen door onregelmatigheden te detecteren of veelvoorkomende taken te automatiseren, mits de technologie zorgvuldig en veilig wordt ingezet. AI heeft dus een duale rol: het vergroot de schaal en snelheid van cyberaanvallen, maar biedt ook nieuwe kansen om informatiesystemen te beschermen. Het is van belang om dit evenwicht goed te begrijpen. Strategieën moeten zowel de nieuwe AI-gestuurde dreigingen adresseren als de inzet van AI voor verdediging optimaliseren. Een belangrijke les is dat traditionele beveiligingsprincipes (zoals netwerksegmentatie, monitoring en patchmanagement) nog steeds gelden, maar aangevuld moeten worden met kennis over AI, van machine learning (ML)-modellen tot data-ethiek.

Nieuwe dreigingen door AI: deepfakes, autonome aanvallen

Een van de meest spraakmakende AI-dreigingen zijn deepfakes, hyperrealistische vervalsingen van beeld of audio aangestuurd door AI. Waar traditionele phishing via e-mail tekst gebruikt, kunnen deepfakes mensen misleiden via vals audiovisueel materiaal dat realistisch lijkt. Een berucht voorbeeld is een incident uit 2019 waarbij fraudeurs AI-gegenereerde audio gebruikten om de stem van een CEO na te bootsen, waardoor een Britse bedrijfsdirecteur werd overtuigd om £200.000 (ongeveer €220.000) over te maken. Dit voorbeeld toont aan hoe deepfake-fraude zowel financieel gewin nastreeft als dient als instrument voor desinformatie door statelijke actoren. Naast deepfakes zien we ook een opkomst van AI-gegenereerde malware en aanvallen. Waar voorheen technische kennis vereist was om malware te schrijven, zijn er nu ondergrondse AI-diensten als WormGPT en FraudGPT, speciaal getrainde taalmodellen zonder ethische beperkingen. Cybercriminelen bieden dergelijke AI-diensten aan op het dark web als een alles-in-één hulpmiddel om schadelijke code, phishing websites en oplichtingsberichten te genereren. Dit maakt het voor minder vaardige aanvallers mogelijk om toch geavanceerde aanvallen op te zetten. Bovendien kunnen AI-modellen gebruikt worden om aanvallen te schalen (bijvoorbeeld duizenden gepersonaliseerde phishingmails schrijven) en te optimaliseren (beveiligingssystemen omzeilen door steeds nieuwe varianten van malware te verzinnen).

AI wordt steeds vaker ingezet om geavanceerde cyberaanvallen uit te voeren. Hierbij kun je bijvoorbeeld denken aan systemen die automatisch zwakke plekken in netwerken opsporen, malware die zich razendsnel aanpast om detectie te ontwijken en deepfakes die worden gebruikt om medewerkers te misleiden. Dit soort ontwikkelingen vraagt om nieuwe vaardigheden binnen cybersecurityteams: het herkennen van deepfakes, het voorspellen van AI-gestuurde aanvallen en het uitbreiden van incidentresponsprocedures voor deze moderne dreigingen.

Het Mile2 AI Cybersecurity Playbook: doel, structuur en inhoud

Mile2 speelt in op deze trend met een eigen gids: het AI Cybersecurity Playbook. Dit playbook, opgesteld door Raymond Friedman (CEO van Mile2), is bedoeld als strategische leidraad voor organisaties om AI veilig te omarmen. Het boek is feitelijk een strategische gids voor dreigingsmitigatie, risicomanagement en governance bij het inzetten van AI. Met het playbook wil Mile2 de kloof dichten tussen traditionele cybersecurityrichtlijnen en de nieuwe eisen die AI stelt aan beveiliging.

Concreet biedt het AI Cybersecurity Playbook handvatten om AI-systemen verantwoord te implementeren en te beveiligen. Zo behandelt het onder andere: een overzicht van AI-gestuurde dreigingen (zoals bovengenoemde deepfakes en AI-malware), methoden om AI zelf in te zetten voor verdediging (bijvoorbeeld AI voor threat intelligence of detectie), en richtlijnen voor bestuur & naleving rondom AI. Belangrijk is dat het playbook niet slechts technische tips geeft, maar ook ingaat op beleid en organisatie. AI security moet namelijk verankerd worden in bedrijfsbeleid: denk bijvoorbeeld aan het opstellen van ethische AI-gebruiksrichtlijnen, aanpassingen in incident response-plannen en het trainen van personeel in AI-vaardigheden.

Volgens Mile2 vormt dit playbook een raamwerk waarmee organisaties hun cyberbeleid kunnen updaten voor het AI-tijdperk. Een centraal onderdeel hierin is het zogenaamde Adaptive Cyber Resilience Policy Model (ACRPM). Dit ACRPM neemt de principes uit het playbook en giet ze in een praktisch model voor beleid en processen. Hieronder lichten we dat model verder toe.

Adaptive Cyber Resilience Policy Model (ACRPM)

Het Adaptive Cyber Resilience Policy Model (ACRPM) is het antwoord van Mile2 op de vraag: hoe maak jij je cybersecuritybeleid adaptief en weerbaar in het licht van razendsnel groeiende AI-dreigingen? Kort gezegd is ACRPM een model dat organisaties helpt hun beveiligingsbeleid continu aan te passen op basis van actuele dreigingsinformatie en technologische veranderingen. In plaats van statisch beleid dat eens per jaar wordt herzien, stimuleert ACRPM een dynamische, lerende aanpak voor cyberresilience (cyberweerbaarheid).

De kerncomponenten van ACRPM zijn onder andere:

  • Continue dreigingsinformatie en risico-evaluatie: Het model benadrukt een doorlopende threat intelligence-cyclus. Organisaties verzamelen en analyseren continu informatie over nieuwe AI-gestuurde dreigingen (zoals opkomende deepfake-technieken of exploits die door AI zijn gevonden) en herzien op basis daarvan hun risicoanalyse. Zo worden beleidsmakers tijdig gevoed met actuele dreigingsbeelden.
  • Adaptieve maatregelen en respons: In ACRPM is het beleid zo ingericht dat beveiligingsmaatregelen flexibel opgeschaald of bijgesteld kunnen worden zodra nieuwe risico’s
    opduiken. Hierbij kun je denken aan het direct aanscherpen van authenticatie-eisen als er bijvoorbeeld een geavanceerde AI phishingcampagne rondgaat. Incidentresponsplannen kennen ook een adaptieve component: teams evalueren na elk (AI-gerelateerd) incident wat er geleerd is en passen procedures daarop aan (een lerende cyclus).
  • Integratie van AI in cyberdefensie: Het model schrijft voor hoe organisaties AI zelf in kunnen zetten om hun weerbaarheid te vergroten. Bijvoorbeeld door AI-hulpmiddelen te gebruiken voor anomaly detection of voor het automatisch uitvoeren van beveiligingstesten. Cruciaal is echter dat deze verdedigings-AI onderworpen wordt aan strikte governance (om te voorkomen dat de AI zelf een zwakke schakel wordt). ACRPM omvat richtlijnen voor het veilig implementeren van AI in jouw SOC (Security Operations Center) en het monitoren op vooroordelen, fouten of compromittering van die AI.
  • Beleid, governance en naleving: ACRPM koppelt technische maatregelen aan duidelijke beleidsafspraken op managementniveau. Het model adviseert om AI-cyberrisico’s expliciet op te nemen in securitybeleid, te zorgen voor directieaandacht en te voldoen aan opkomende regelgeving (zoals de EU AI Act voor betrouwbare AI). Governance-structuren (bijvoorbeeld een AI Risk Committee) worden in het model aangemoedigd. Dit moet borgen dat er vanuit leidinggevenden sturing is op AI en cybersecurity, evenals dat naleving van zowel beveiligings- als ethische normen wordt gecontroleerd.
  • Educatie en cultuur: Een vaak onderbelicht aspect, maar ACRPM maakt het expliciet: blijvende voorlichting van personeel over AI is essentieel. Niet alleen ICT-personeel, maar ook bijvoorbeeld HR (om bijvoorbeeld deepfake-sollicitaties snel te herkennen) en leidinggevenden (voor strategische kennis van AI-risico’s). Het model raadt aan om een cyberbewustzijn te cultiveren waarin adaptiviteit centraal staat, medewerkers dienen veranderingen in dreigingen snel te herkennen en procedures aan durven te passen.

De toepassing van ACRPM komt neer op het bouwen van een organisatie die actuele kennis heeft van potentiële cyberdreigingen. Stel je bijvoorbeeld voor dat er nieuws komt over een AI-dienst die zero-days kan identificeren. In een traditionele organisatie zou men wachten op de volgende beleidsupdate, maar met ACRPM zou onmiddellijk een evaluatie plaatsvinden en zo nodig nieuwe controls worden ingevoerd. Adaptieve cyberweerbaarheid betekent dat beleid en verdediging geen momentopname zijn maar een voortdurend proces. Organisaties die ACRPM omarmen, zullen periodiek (bijvoorbeeld elk kwartaal) hun dreigingsprofiel updaten en hun security roadmap bijstellen. Het resultaat is een hogere veerkracht: wanneer AI-dreigingen opduiken, hebben deze organisaties al een mechanisme om zich razendsnel aan te passen in plaats van verrast te worden.

C)AICSO-certificering: Certified AI Cybersecurity Officer

Om professionals op te leiden voor deze nieuwe realiteit heeft Mile2 de C)AICSO (Certified AI Cybersecurity Officer) certificering gelanceerd. Dit is een opleiding en titel gericht op ervaren beveiligingsmensen die verantwoordelijk worden voor AI-gerelateerde security binnen hun organisatie. Het programma is opgezet als een intensieve vijfdaagse cursus die zich richt op CISO’s, security-executives en risicomanagers opererend op het snijvlak van cybersecurity en AI. In het webinar werd deze certificering beschreven als “een cutting-edge executive program”. Oftewel een vooruitstrevende opleiding voor leiders die moeten zorgen dat hun bedrijf veilig kan innoveren met AI.

Doelgroep en aanpak: C)AICSO is bedoeld voor besluitvormers en senior specialisten die zowel technisch inzicht als strategische visie nodig hebben om AI in goede banen te leiden. De CAISCO training combineert leidinggevende vaardigheden, technisch diepgaande kennis van AI-beveiliging en strategieontwikkeling. Deelnemers krijgen onder meer inzicht in AI-gedreven security operations, governance van biometrische systemen, threat modeling voor AI/ML, het voldoen aan AI-specifieke regelgeving (zoals de EU AI Act) en hoe AI een rol speelt in nationale veiligheid en kritieke infrastructuur. De benadering is risicogedreven en compliant: men leert risico’s van AI te beoordelen, maatregelen te koppelen aan bestaande frameworks (NIST, ISO) en ervoor te zorgen dat AI-systemen voldoen aan ethische en wettelijke eisen.

Opbouw van de opleiding: Het curriculum van C)AICSO is opgebouwd rond vijf kernmodules , te weten:

  • Leiderschap en governance: Hoe geef je leiding aan een organisatie op het gebied van AI en cybersecurity? Deze module behandelt het opzetten van governance-structuren voor AI (bijv. AI-beleid, ethische commissies) en het ontwikkelen van een strategie waarin cybersecurity en AI-innovatie hand in hand gaan. Managementvaardigheden, verandermanagement en communicatie met de board over AI-risico’s komen hier aan bod.
  • Enterprise security-architectuur met AI: Deze module duikt in de architectuurkant: hoe integreer je AI in je bestaande security-architectuur op een veilige manier? Denk aan het inbedden van AI-tooling in je SOC, maar ook aan het beveiligen van AI-platforms (bijv. machine learning pipelines, data-opslag) tegen manipulatie. Best practices voor cloud- en netwerkarchitectuur in een AI-gedreven omgeving worden besproken.
  • AI- en biometrische dreigingsmitigatie: Hier leren deelnemers over de specifieke dreigingen die horen bij AI en biometrie, en hoe deze te mitigeren. Voorbeelden: aanvallen op ML-algoritmen (zoals model poisoning of adversarial examples), deepfake-detectie, fraude met gezichtsherkenning en misbruik van biometrische data. Men krijgt tools en methoden aangereikt om deze nieuwe dreigingen te herkennen en te beperken.
  • Nationale veiligheid en kritieke infrastructuur: In deze module wordt AI in de context van nationale cyberveiligheid besproken. Hoe bereiden organisaties in vitale sectoren (energie, financiën, overheden) zich voor op AI-aangedreven aanvallen door statelijke actoren? Onderwerpen zijn o.a. scenario-planning voor AI-cyberoorlogsvoering, samenwerking met overheidsinstanties, en naleving van (inter)nationale richtlijnen voor AI-beveiliging. Dit onderdeel benadrukt ook de rol van de AI Cybersecurity Officer in crisismanagement en publieke-private samenwerking.
  • Strategisch cybersecuritymanagement op bestuursniveau: Tot slot richt de cursus zich op de strategische borging: hoe informeer en adviseer je de raad van bestuur over AI-risico’s? Hoe integreer je AI-cybersecurity in bedrijfsbrede risicomanagementprocessen? Deze module behandelt communicatie op C-level, het koppelen van AI-security met bedrijfsdoelen, en het opstellen van meerjarenplannen. De cursisten leren hier om als vertrouwde adviseur te fungeren voor directies en toezichthouders op het gebied van AI en security.

Elke module mixt theorie met praktijkcases en labs. Zo oefenen deelnemers bijvoorbeeld met het herkennen van aanvallen op ML-modellen, of met het opstellen van een AI-incidentresponsplan. Na afronding van de C)AICSO-training zijn professionals uitgerust om de rol van AI Cybersecurity Officer te vervullen: iemand die de organisatie door de complexe uitdaging van AI in cybersecurity loodst, beleid opstelt, teams aanstuurt en technische en ethische vraagstukken kan overzien.

Proactieve beleidsvorming en voorbereiding: oproep van de CEO

Als afsluiting van het webinar deed Raymond Friedman (CEO van Mile2) een duidelijke oproep aan alle cybersecurityspecialisten en besluitvormers: wees proactief en begin nú met voorbereiden op AI-dreigingen. Wachten tot de eerste incidenten plaatsvinden is geen optie, de organisatie die nu anticipeert, staat straks vooraan. Friedman benadrukte dat proactieve maatregelen, gekoppeld aan de beste werkwijzen, cruciaal zijn om de risico’s van AI-gedreven cyberaanvallen te beperken. Concreet raadde hij aan om vandaag nog te beginnen met het bijwerken van cybersecuritybeleid om rekening te houden met AI, het trainen van teams in AI-vaardigheden, en het investeren in detectie- en
verdedigingsmiddelen die AI aankunnen.

Uit de discussie bleek een optimistische noot: hoewel AI het dreigingslandschap ingrijpend wijzigt, is er nu nog een kans om de verdediging op orde te brengen voordat de AI-aanvallen écht massaal en geavanceerd worden. GenAI verandert de spelregels, maar we hebben nog tijd om ons voor te bereiden op wat komt. Die tijd moeten we niet verspillen. Door gezamenlijk kennis te delen (zoals in het CTA-rapport en dit Mile2-webinar) en best practices te ontwikkelen, kunnen organisaties een holistische aanpak adopteren die technologie, beleid en educatie integreert. Friedman riep op tot een sense of urgency: net als bij eerdere paradigmaverschuivingen (denk aan cloud, mobiele apparaten,
etc.) zullen de winnaars diegenen zijn die zich het snelst aanpassen. Proactieve beleidsvorming, van richtlijnen voor AI-gebruik tot investeringen in nieuwe beveiligingshulpmiddelen, geeft organisaties een voorsprong op kwaadwillenden.

Kortom, de boodschap van de webinar van Mile2 was duidelijk: AI wordt een blijvend onderdeel van zowel aanvallende als verdedigende cybersecurity. Om de balans in het voordeel van de verdedigers te laten uitslaan, moeten we nu handelen. Of zoals Friedman het verwoorde: “Better to prepare today for the AI threats of tomorrow, than to react when it’s too late.”

Vervolgstappen: training en ontwikkeling

Om deze inzichten in de praktijk te brengen is voortdurende opleiding van cruciaal belang. Mile2 (en andere organisaties) bieden diverse trainingen en certificeringen aan die specifiek ingaan op AI en cybersecurity. Via dergelijke trajecten kunnen professionals hun kennis verdiepen en leren hoe zij AI-risico’s moeten aanpakken, terwijl organisaties hun teams klaarstomen voor de toekomst. Investeren in gespecialiseerde trainingen, zoals het eerdergenoemde C)AICSO-programma, stelt bedrijven in staat voorop te lopen in een tijdperk van AI-gedreven dreigingen. Bij Startel bieden wij jou de mogelijkheid om de vijfdaagse training Certified AI Cybersecurity Officer (CAICSO) te gaan volgen onder begeleiding van een ervaren trainer of om de Certified AI Cybersecurity Officer (CAICSO) E-Learning door te nemen.

Door de snelle opkomst van AI in onze digitale wereld is het essentieel dat cybersecurity-specialisten zich blijven informeren en ontwikkelen. Het Mile2-webinar van 4 september 2025 heeft aangetoond dat AI zowel nieuwe uitdagingen als oplossingen met zich meebrengt. Met de juiste kennis, frameworks en proactieve houding kunnen we ervoor zorgen dat AI een bondgenoot wordt in plaats van een ongrijpbare vijand in de cybersecuritywereld.

  • Certified AI Cybersecurity Officer (CAICSO) training

    In de CAICSO training leer je naast het implementeren van kunstmatige intelligentie (AI), hoe jij AI op een veilige en verantwoorde manier in kunt zetten binnen jouw organisatie.

    Bekijk de CAICSO training

  • Certified AI Cybersecurity Officer (CAICSO) zelfstudie

    Met de CAICSO E-Learning leer je hoe jij AI-risico’s kunt herkennen, beperken en tegelijkertijd AI veilig en strategisch binnen jouw organisatie in kunt zetten.

    Bekijk de CAICSO E-Learning

Terugbelverzoek

Wil je meer weten, maar nu even geen tijd?

Laat je gegevens achter, dan nemen wij binnen 2 werkdagen contact met je op

Dé IT-opleider van het noorden

  • Klanten geven ons een 9.2
  • Erkende trainers
  • Ontvang een certificaat na deelname
  • Train op één van onze drie locaties of vanuit huis

Terugbelverzoek

Vul hieronder jouw gegevens in, zodat wij telefonisch contact met je kunnen opnemen.

"*" geeft vereiste velden aan

Laat ons jou terugbellen
Velden met een * zijn verplicht

Vragen of direct contact nodig, bezoek onze contactpagina.

Eliano Patty.

Eliano Patty

Hoofd Sales