Ook kost het gebruik van AI zeer veel energie. Een vraag stellen aan ChatGTP gaat net zo gemakkelijk als even googelen, maar het energieverbruik ligt tien keer hoger.

De Europese AI-verordening stelt strenge eisen aan het gebruik van AI binnen de EU. Gemeenten moeten voldoen aan verschillende verplichtingen, zoals risicobeoordelingen, transparantie en menselijk toezicht. Vanaf 2 februari 2025 zijn de eerste verplichtingen van kracht, waaronder het bevorderen van AI-geletterdheid en het uitsluiten van AI-tools met onaanvaardbare risico's. Gemeenten hebben tot augustus 2026 om volledig te voldoen aan de nieuwe regels. 

De fracties van D66 en GroenLinks hebben vragen gesteld aan het college van B&W over de toepassing van AI binnen Heeze-Leende (en de A2-gemeenten). In de media viel te lezen dat gemeenten nog onvoldoende in staat zijn om te voldoen aan de regels. We maken ons hier zorgen over. Hier volgt een samenvatting van de antwoorden op onze vragen:

Is er een plan voor de invoering van de AI-verordening?

Antwoord: Ja, het plan kent volgende onderdelen: Er wordt in kaart gebracht welke AI-toepassingen worden gebruikt. Risicoanalyses worden uitgevoerd. De AI-geletterdheid wordt verhoogd onder medewerkers door middel van trainingen. En er wordt met andere gemeenten samengewerkt om kennis te delen en samen oplossingen te ontwikkelen.

Heeft de gemeente al beleid vastgesteld over het gebruik van AI binnen de eigen organisatie?

Antwoord: Er is nog geen beleid vastgesteld. We verwachten dat dit beleid er in het laatste kwartaal van 2025 / begin 2026 zal komen.

In een landelijk algoritme register gaan gemeenten de algoritmen die zij gebruiken opnemen zodat iedereen die kan inzien.  Wat is de stand van zaken? Worden er bijvoorbeeld algoritmen gebruikt bij de bepaling op het recht op een uitkering/minimaregeling? 

Antwoord: Het is nog niet duidelijk of er algoritmen worden gebruikt. Na een inventarisatie zullen deze worden opgenomen in het landelijk algoritme register.

Worden er AI-hulpmiddelen gebruikt binnen de gemeente? Zo ja, voor welke toepassingen worden deze gebruikt? 

Microsoft Copilot is onderdeel van Microsoft 365, dat door medewerkers van de A2-gemeenten wordt gebruikt. Ingevoerde data in Copilot wordt niet gedeeld, niet opgeslagen en niet gebruikt om het model te trainen. De gegevens die worden ingevoerd, worden alleen gebruikt om te helpen met ingegeven verzoeken.

Het is bekend dat-AI systemen feiten verkeerd kunnen interpreteren of uit de context trekken, bronnen kunnen verzinnen en verouderde informatie kunnen geven. Dit kan leiden tot verkeerde besluitvorming. Hoe waarborgt de gemeente de betrouwbaarheid van de output bij het gebruik van AI?

Antwoord: Omdat AI-systemen fouten maken is altijd menselijke controle nodig. Dit zal opgenomen worden in de gebruikershandleiding AI.

Is er een handreiking beschikbaar voor personeel en raadsleden voor het gebruik van dit soort hulpmiddelen? Hoe wordt bijvoorbeeld voorkomen dat informatie die wordt ingebracht bij ChatGPT en Copilot vertrouwelijke informatie of persoonsgegevens bevat?

Antwoord: Er is een gebruikershandleiding in ontwikkeling.

Verschillende overheidsinstanties hebben het gebruik van hulpmiddelen als ChatGPT en Deepseek geblokkeerd. Binnenkort komt GPT-nl beschikbaar, dat in Nederland is gebouwd en een transparant, eerlijk en toetsbaar gebruik van AI nastreeft. Hoe staat het college in deze discussie?

Antwoord: Vooralsnog is het gebruik van AI-systemen zoals MS Copilot interessant vanwege efficiëntie, effectiviteit en kwaliteit. Het is relatief veilig. De ontwikkeling van GPT-nl wordt gemonitord en gebruik zal worden overwogen wanneer het model volwassenheid heeft aangetoond.

Lees ook:

https://www.binnenlandsbestuur.nl/digitaal/informatiehuishouding/gemeenten-niet-voldoende-toegerust-op-uitvoering-ai-act