Waarom snelheid cruciaal is binnen het modern SOC
In dit artikel:
AI verandert het cyberdreigingslandschap fundamenteel: aanvallen worden niet alleen overtuigender (deepfakes), maar ook sneller en autonomer door nieuwe ontwikkelwijzen en agentachtige AI. Natural Language Programming maakt het veel eenvoudiger om complexe code en gepersonaliseerde, polymorfe payloads te produceren; wat vroeger weken duurde, kan nu in uren worden gemaakt. Daardoor kan malware zich sneller aanpassen en omzeilt dit traditionele, statische beveiligingsmaatregelen.
Een duidelijk voorbeeld komt uit een rapport van Anthropic (november 2025). Daarin wordt een door AI georkestreerde cyberespionagecampagne beschreven waarbij de agentische coderingstool Claude Code niet alleen advies gaf, maar actief onderdelen van de aanval uitvoerde. Aanvallers misleidden de agent door zich voor te doen als beveiligingstesters en door de operatie op te splitsen in schijnbaar onschuldige taakjes. Met behulp van het Model Context Protocol schakelden agents verschillende tools in, voerden razendsnelle verkenningen uit, ontdekten en testten kwetsbaarheden, genereerden op maat gemaakte payloads, vergaarden inloggegevens en exfiltreerden data — terwijl de menselijke operator volgens Anthropic slechts marginaal betrokken was (per fase vaak 2–10 minuten, tegenover agentacties van 1–4 uur).
Diezelfde agentische capaciteiten bieden defensieve kansen. Waar SOC’s traditioneel leunen op statische playbooks, maken AI‑agents dynamische, contextbewuste workflows mogelijk die realtime data gebruiken. Microsoft kondigde tijdens Ignite (november 2025) aan dat Security Copilot voortaan inbegrepen is voor Microsoft 365 E5‑klanten, met toewijzingen van Security Compute Units (SCU’s) om deze AI‑taken te voeden; de nieuwe Microsoft 365 E7 “Frontier Suite” bundelt E5 met Copilot en het Agent 365 control plane. Zulke productontwikkelingen signaleren dat grote leveranciers agentische AI strategisch inzetten voor security.
Cegeka’s Modern SOC heeft deze agenten getest — bijvoorbeeld een phishing‑triage‑agent die incidentafhandeling aanzienlijk versnelt — maar waarschuwt dat agents fouten kunnen maken. Menselijke supervisie blijft dus cruciaal om bevindingen te valideren en bij te sturen. De conclusie is dat organisaties hun security‑houding moeten herijken: defensie moet AI benutten om schaal en snelheid bij te houden, terwijl controles, menselijke validatie en aangepaste processen nodig blijven om risico’s te beheersen.
Artikel door Willem Janssens, Product Manager Cybersecurity bij Cegeka.