eXplainable Artificial Intelligence (AI)-modellen
Wat vandaag nog onmogelijk lijkt, kan morgen realiteit zijn. De digitale ontwikkelingen gaan razendsnel en bij Deltares bewegen we mee. Niet alleen door nieuwe technologieën toe te passen, maar ook door ze kritisch te doorgronden. Eén van de meest veelbelovende richtingen is het bouwen van uitlegbare Artificial Intelligence (AI)-modellen: systemen die complexe voorspellingen kunnen doen én inzicht geven in hun eigen redenering.
Een goed model is niet het model met de laagste fout, maar het model dat zijn logica kan uitleggen. Dat maakt het mogelijk om beslissingen te onderbouwen, in de wetenschap, in beleid en zelfs juridisch.
Hans Korving, Machine Learning-expert en hydroloog bij Deltares
Van voorspellende naar begrijpelijke XAI
XAI - eXplainable Artificial Intelligence - helpt ons om de ‘blackbox’ van algoritmes te openen. Wat begon als een manier om modellen achteraf uit te leggen, groeit nu uit tot een bredere aanpak waarin we ook willen begrijpen waarom een model iets voorspelt, wanneer het betrouwbaar is en hoe het aansluit bij de echte wereld.
“Met XAI kunnen we modellen visueel uitleggen, voorspellingen controleren en toetsen aan wat we al weten,” vertelt Hans. “Maar uitlegbaarheid is pas het begin. Uiteindelijk willen we dat modellen redeneren op een manier die klopt met de werkelijkheid.”
Wat we inmiddels bij Deltares doen, gaat eigenlijk verder dan klassieke XAI: we combineren uitlegbaarheid met oorzakelijk redeneren, betrouwbaarheid en verantwoording. Maar omdat de term XAI inmiddels ingeburgerd is, houden we die voorlopig nog even aan als herkenbaar label voor dit bredere werkveld.
Domeinkennis als fundament
Wat het AI-werk bij Deltares onderscheidt, is de koppeling tussen data en fysische kennis. Hans benadrukt dat modellen niet alleen op patronen mogen drijven: “De natuurkundige principes van het systeem moeten altijd worden meegenomen. Domeinkennis is geen nice-to-have, maar een must.”
De afgelopen jaren is daar een nieuw inzicht bij gekomen: niet alleen fysica telt, maar ook het begrijpen van oorzaken en context. “We kijken steeds vaker naar hoe een model redeneert: welke variabelen echt verklaren wat er gebeurt, welke slechts de context vormen, en welke misleidend kunnen zijn,” zegt Hans. “Dat dwingt ons om bewuster te modelleren en maakt de uitkomsten uiteindelijk robuuster.”
Dat blijkt ook in de praktijk. Tijdens een sessie met Rijkswaterstaat en Waterschappen over de KRW-Verkenner werd een complex model dankzij XAI-technieken helder voor experts zonder AI-achtergrond. Het resultaat? Betere inzichten én beter onderbouwde besluiten.
Vertrouwen en co-creatie
XAI draagt bij aan vertrouwen in AI-modellen. Door transparantie te bieden, kunnen opdrachtgevers en collega’s beter beoordelen of een model doet wat het moet doen. “Soms gedraagt een model zich ‘raar’. Met uitlegbare AI kun je dat zichtbaar maken en samen met domeinexperts corrigeren,” aldus Hans. “Dat maakt het mogelijk om echt samen te ontwerpen: co-creatie in optima forma.”
Nieuw is dat deze transparantie ook kwantitatief meetbaar wordt gemaakt. Deltares gebruikt technieken zoals 'conformal prediction' om aan te geven hoe zeker een model is over zijn voorspelling, zonder aannames over de verdeling van de data. “Zo weten we niet alleen wat het model voorspelt, maar ook hoe betrouwbaar die voorspelling is, en waarom dat vertrouwen verandert.”
Van voorspelling naar begrip
De volgende stap is dat modellen niet alleen voorspellen, maar ook verklaren. Met technieken zoals SHAP-analyse wordt zichtbaar welke factoren bijdragen aan veranderingen in modelvertrouwen, bijvoorbeeld wind, waterstanden of golfhoogtes. Zo wordt onzekerheid geen bijproduct, maar een diagnose-instrument dat laat zien wanneer systeemgedrag verandert.
“Als het model ineens minder zeker wordt, willen we weten waarom,” legt Hans uit. “Misschien verandert de dynamiek in het systeem, of loopt er een sensor uit de pas. Die signalen helpen ons om sneller te reageren en modellen wetenschappelijker te gebruiken.”
Wetenschappelijke relevantie
De wetenschappelijke waarde van deze aanpak zit in de mogelijkheid om causale relaties te modelleren. In plaats van alleen correlaties te beschrijven, brengen we oorzaak-gevolgverbanden in kaart, bijvoorbeeld om realistische scenario’s te verkennen rond klimaatverandering of waterbeheer. Dat maakt de modellen niet alleen nuttig, maar ook toetsbaar en betekenisvol voor de wetenschap.
Daarnaast groeit de aandacht voor onzekerheidsverwachting: modellen die niet alleen een voorspelling geven, maar ook aangeven hoe betrouwbaar die voorspelling is. Dit is een belangrijk thema binnen de academische wereld, en Deltares loopt hierin voorop, met onderzoekers en studenten die actief bijdragen aan deze ontwikkeling.
Uitlegbaar, controleerbaar en verdedigbaar
De nieuwe generatie modellen wordt niet alleen ontworpen om goed te presteren, maar ook om verantwoord te zijn. Dat betekent: uitlegbaar, controleerbaar en verdedigbaar. Deltares werkt aan methoden waarmee voor elk model kan worden beoordeeld of een variabele causaal is, context biedt of slechts een handige shortcut was om nauwkeurig te voorspellen. Die laatste categorie draagt misschien bij aan een lage foutmarge, maar niet aan inzicht of vertrouwen.
"Een goed model is niet het model met de laagste fout, maar het model dat zijn logica kan uitleggen," legt Hans uit. "Dat maakt het mogelijk om beslissingen te onderbouwen: in de wetenschap, in beleid en zelfs juridisch."
Machine Learning-model als schaduwmodel
Hoewel veel toepassingen nog in de prototypefase zitten, groeit het aantal praktijktoepassingen snel. Zo draait het Machine Learning-model van Deltares als schaduwmodel mee in het afvoervoorspellingssysteem van Rijkswaterstaat bij Lobith, een belangrijke stap richting operationele inzet, ook wel ML-ops genoemd.
De rol van de Machine Learning-expert verandert daarbij: van modelbouwer naar modeldenker, iemand die begrijpt hoe algoritmes redeneren, waar hun aannames liggen en hoe die zich verhouden tot de fysische werkelijkheid.
Een mooi voorbeeld is een nieuw project waarin Deltares samen met partners werkt aan de modellen van de KRW-Verkenner. Die worden nu gebruikt om de ecologische kwaliteit van oppervlaktewater te voorspellen, maar traditioneel zijn ze vooral gebaseerd op correlaties tussen variabelen. In de nieuwe aanpak leggen we de nadruk op causale relaties: oorzaken en mechanismen in plaats van alleen verbanden in de data. Dat vraagt om een andere manier van modelleren; een die beter aansluit bij hoe het ecosysteem werkelijk werkt, sneller herkend wordt door experts en de vertaalslag van data naar beleid beter onderbouwt.
Deltares als expertpartner
Met XAI en begrijpelijke AI laat Deltares zien dat we niet alleen meebewegen met digitale trends, maar ook richting geven. Onze kracht zit in de combinatie van technologische innovatie, domeinkennis en verantwoordelijkheid. Zoals Hans het verwoordt: “Machine Learning-modellen hebben haast oneindige toepassingen. Maar alleen als we begrijpen waarom een model iets voorspelt, kunnen we het echt vertrouwen. Dat vraagt niet alleen data, maar ook inzicht, samenwerking en gezond verstand.”