Kunstmatige intelligentie (AI) heeft in korte tijd een enorme vlucht genomen. Ook binnen IenW groeit het gebruik van AI-toepassingen. Van slimme risicoanalyses tot beeldherkenning met drones: de inzet ervan is veelbelovend. Maar tegelijkertijd zijn er ook risico’s. Daarom is het belangrijk dat er beleid is, zodat AI op een verantwoorde manier wordt toegepast. Binnen IenW werkt het Team AI van de Concerndirectie Informatiebeleid (CDIB) hier onder andere met Inspectie Leefomgeving en Transport (ILT) in samen. Bram Ruber en Paul Merkx vertellen over hun rollen en waarom AI niet alleen spannend, maar vooral ook waardevol is.

Balans tussen kansen en risico’s
Paul werkt al zeven jaar aan de inzet van AI binnen de ILT. Hij zag het gebruik van AI langzaam groeien, maar sinds de komst van generatieve AI, zoals ChatGPT, is een stroomversnelling ontstaan. “Collega’s merken ineens hoeveel sneller en slimmer ze hun werk kunnen doen met AI. Denk aan chatbots die helpen met het doorzoeken van informatie, of drones die schade aan het spoor detecteren via beeldherkenning.”

Bram is beleidsadviseur bij Team AI. Dit team begeleidt innovatieve AI-projecten en werkt aan veilige generatieve AI voor het ministerie. “De meeste AI ontwikkelingen hebben twee kanten. Enerzijds is er een enorme potentie, anderzijds moet AI verantwoord kunnen worden toegepast. Dat laatste zorgt ervoor dat adaptatie ervan niet altijd even snel kan gaan. Veel openbare AI toepassingen komen namelijk niet op zo’n nette manier tot stand. Sommige modellen bevatten bijvoorbeeld manipulatieve informatie, zoals DeepSeek. Dan is het onze taak om snel te beoordelen: kunnen we hiermee werken of juist niet? In dit geval is het gebruik verboden, maar proberen we ook te leren van hoe DeepSeek werkt. Het is namelijk een model dat veel minder rekenkracht dus energie gebruikt om tot resultaten te komen. Dat is dan juist weer veelbelovend.”
Beleid als kompas
Om verantwoorde ontwikkeling en gebruik van (nieuwe) toepassingen te waarborgen, ontwikkelt CDIB AI-beleid voor het ministerie. “Wij zorgen voor kaders en hulpmiddelen , zodat medewerkers weten wat mag, wat moet en waar de risico’s liggen”, legt Bram uit. Eén van die hulpmiddelen is het AI Impact Assessment (AIIA), een vragenlijst die verplicht is bij het inzetten, ontwikkelen of inkopen van AI waar nog geen beleid voor is. “Het AIIA helpt je bewust na te denken: waarom wil ik AI gebruiken? Wat zijn de ethische gevolgen? Hoe houd ik controle over het algoritme?”
Paul ziet het AIIA als waardevol instrument: “Toen de praktische inzet van AI nog in de kinderschoenen stond, hebben wij bij ILT zelf een toetsingskader ontwikkeld. Dankzij de samenwerking met CDIB is er nu een breed gedragen en verplicht instrument voor heel IenW. Dat helpt enorm.”

Van rijksbeleid naar de praktijk
CDIB vervult een belangrijke brugfunctie tussen rijksbrede afspraken en de toepassing ervan binnen het ministerie. Bram zit namens IenW aan tafel bij overleggen op nationaal niveau, zoals bij het formuleren van standpunten met betrekking tot generatieve AI. “Je kunt niet met alle IenW-organisatieonderdelen apart aan zo’n tafel zitten,” legt Paul uit. “Zij zorgen dat de stem van IenW daar wordt gehoord.”
Andersom zorgt CDIB ervoor dat overheidsbeleid vertaald wordt naar werkbare richtlijnen voor verschillende onderdelen van het ministerie – van Rijkswaterstaat tot KNMI. “Die organisaties zijn heel verschillend in hoe ze AI in willen zetten,” aldus Paul. “Daarom is het zo belangrijk dat beleid niet alleen op papier klopt, maar ook uitvoerbaar is in de praktijk.”

Bewustwording creëren
Toch is beleid alleen niet genoeg. “We zien dat collega’s soms uit enthousiasme onveilige AI-tools gebruiken,” zegt Bram. “Dan is het onze taak om uit te leggen welke AI-praktijken geen goed idee zijn, en wat er wél kan. Daarom gaan we binnen IenW meer inzetten op bewustwording en AI-geletterdheid en werken we aan een veilig alternatief voor ChatGPT.” Ook is er recent een AI-community opgericht voor laagdrempelige kennisdeling en discussie en wordt er gewerkt aan verduidelijking van inkoop- en ontwikkelmogelijkheden van AI.
Paul: “We merken dat de pioniers vaak ook de eersten zijn die zich bewust zijn van de risico’s. Het is dus juist belangrijk de anderen, die ook enthousiast zijn over de mogelijkheden, te ondersteunen. Een verbod is moeilijk houdbaar wanneer de behoefte zó groot is. Dus werken we aan bewustwording en ontwikkelen we veilige alternatieven. We zijn nu bijvoorbeeld bezig met een pilot met een eigen chatbot die medewerkers helpt het beste antwoord te vinden op vragen van burgers en bedrijven. We hebben daarbij maatregelen genomen om te voorkomen dat gevoelige data naar buiten gaat.”

De rol van AI-officer
Sinds kort heeft Paul een nieuwe rol: AI-officer binnen ILT. Die rol is speciaal in het leven geroepen vanwege de AI-verordening en de snelle technologische ontwikkelingen. “Ik ga over het opzetten van kaders, maar ook over het stimuleren van verantwoord gebruik. Want het gaat niet alleen om het inrichten van processen en het maken van regels, maar ook over het omarmen van technische mogelijkheden.”
Mogen we je een aantal vragen stellen over het FIB jaarbericht? Klik dan hier.
Hij noemt twee veelbelovende voorbeelden: “We experimenteren met kleinere taalmodellen die veel minder energie verbruiken – dat is interessant gezien onze duurzaamheidsdoelen. En we ontwikkelen algoritmes waarbij het voorkomen van ongewenste ‘bias’ al in het ontwerp ingebouwd is.”
Samen verder
De samenwerking tussen beleid en praktijk is cruciaal. “Wij kunnen als CDIB alleen goed beleid maken als we weten wat er speelt bij degenen die met AI werken,” benadrukt Bram. “En andersom kan Paul met ons beleid makkelijker collega’s overtuigen van de juiste aanpak.” Paul knikt: “Het is fijn dat we korte lijnen hebben. Want als beleid en praktijk samenwerken, kunnen we AI echt verantwoord inzetten.” Of, zoals Bram het mooi samenvat: “In je eentje ga je sneller, maar samen kom je verder. En bij AI is dat belangrijker dan ooit.”