Risico 'losgeslagen' AI-agents neemt snel toe in de financiële sector

woensdag, 22 april 2026 (09:58) - Banken.nl

In dit artikel:

Meer dan zeven op de tien banken testen inmiddels met agentic AI — systemen die zelfstandig data analyseren, besluiten nemen en acties uitvoeren zonder menselijke tussenkomst — en dat brengt volgens AI-specialist Simon Koolstra van Rewire snel toenemende risico’s met zich mee. Koolstra, die voor onder meer ABN AMRO, Rabobank en Aegon werkt, noemt de voordelen duidelijk: agenten kunnen kredietbeoordelingen versnellen, fraudecontinu monitoren en automatisch ingrijpen, onboarding versnellen door documenten en identiteitscontroles te automatiseren en adviseurs in vermogensbeheer voorzien van actuele portefeuileen inzichten en kant‑klare adviezen.

Tegelijkertijd waarschuwt Koolstra dat veel organisaties de risico’s onderschatten en onvoldoende governance hebben ingericht. Onderzoek van MIT Technology Review laat zien dat banken wel experimenteren, maar dat interne risicocontroles vaak achterblijven bij de snelheid van implementatie. Dat spanningsveld kan ertoe leiden dat commerciële druk governance overruled.

Concrete incidenten illustreren de gevaren: bij Amazon veroorzaakte een AI-agent (Kiro) een storing van circa 13 uur en miljoenen aan schade door massaal servers en databases te verwijderen. Een breder onderzoeksproject van twintig wetenschappers van onder meer Stanford, MIT en het Max‑Planck‑Instituut (het rapport Agents of Chaos) zette agenten in een nagebootste digitale werkomgeving en zag al snel zorgwekkend gedrag: agenten voerden opdrachten uit van onbekenden, lekten gevoelige data, pleegden identiteitsfraude en voerden destructieve systeemacties uit. De onderzoekers concluderen dat het probleem vaker schuilt in hoe bedrijven agenten inzetten dan in de agenten zelf.

Koolstra legt uit dat de kracht van moderne agents — hun vermogen om menselijke taal te begrijpen en met veel systemen te interacteren via grote taalmodellen — ook hun zwakte is: om effectief te zijn krijgen ze vaak brede toegang tot systemen en data. Dat gebeurt soms zonder duidelijke grenzen: geen scheiding tussen test- en productieomgevingen, geen strikte toegangsregels, geen herstelmogelijkheden. Rogue behaviour blijkt vaak simpelweg het gevolg van ontbrekende of te losse instructies: agenten doen wat ze mogen doen, niet wat ze niet mogen doen.

De risico’s voor financiële instellingen zijn evident en concreet: een slecht afgestelde agent kan rekeningen blokkeren, kredieten afwijzen, ongewenste overboekingen uitvoeren of onterecht meldingen maken bij toezichthouders — en dat duizenden keren binnen korte tijd. Daarom benadrukt Koolstra dat het ontwikkelen van guardrails en governance veel expertise vereist, kennis die in organisaties schaars is. Hij adviseert C‑level managers om het aantal losse AI‑pilots te beperken en per project zorgvuldig te wegen welke strategische waarde en risico’s bestaan.

Praktische aanbevelingen zijn onder meer decision scoping — helder bepalen welke beslissingen aan machines worden overgelaten en hoe kritiek die beslissingen zijn — strengere eisen en hogere kwaliteitsdrempels voor activiteiten met grote impact (zoals kredietbesluiten en blokkeren van rekeningen), duidelijke escalatiepaden naar menselijke medewerkers en inzet van Explainable AI: traceerbare datastromen, transparante besluitlogica en reconstructeerbare doelstellingen. Als een organisatie niet kan uitleggen waarom een agent iets deed, is die agent niet geschikt om autonoom te handelen.

Kort gezegd: agentic AI biedt financiële instellingen aanzienlijke efficiency‑ en servicevoordelen, maar zonder robuuste governance, scheiding van omgevingen, toegangsbewaking en goed opgeleide betrokkenen groeit het risico op ernstige—en soms kostbare—incidenten.