Blog

Benader AI met een open blik

Kennisuitwisselingsbijeenkomst Hydroinformatica over Generatieve AI

Verschillende waterbedrijven en KWR onderzoeken en experimenteren al met generatieve AI. Hun eerste bevindingen en inzichten kwamen ter sprake tijdens de eerste bijeenkomst Hydroinformatica van 2024. De deelnemers concludeerden dat elke organisatie een AI-data wetenschapper en een AI-beleid zou kunnen gebruiken en dat het belangrijk is AI te benaderen met een open blik, en niet alleen vanuit een perspectief van risico.

De opmars van ‘Artificial Intelligence’ (AI) is in volle gang. De laatste jaren zien we een sterke opkomst van generatieve AI. Deze technologie maakt het mogelijk om in natuurlijke taal met computers te communiceren (onder meer via ChatGPT) en belooft het programmeren van applicaties en analyseren van data binnen het handbereik van veel grotere groepen mensen te brengen. Op 26 februari vond de eerste kennisuitwisselingsbijeenkomst Hydroinformatica van 2024 plaats rond het thema Generatieve Artificial Intelligence (AI). KWR organiseert deze bijeenkomsten vanuit het collectieve bedrijfstakonderzoek (BTO) van de waterbedrijven met het doel waterbedrijven de gelegenheid te bieden onderling praktijkervaring uit te wisselen. Besproken werd wat waterbedrijven kunnen verwachten van generatieve AI en wat daarbij de risico’s zijn.

Door AI gegenereerde informatie altijd checken

Er komen steeds meer (ruwe) data digitaal beschikbaar. KWR-onderzoeker Xin Tian legde uit dat met de snelle opkomst van AI in de laatste jaren en steeds krachtiger wordende computers AI steeds beter in staat is bruikbare informatie te genereren uit ruwe data. Zulke Generative AI kan tekst (inclusief numerieke data) omzetten in audio, video, afbeeldingen en programmeercodes. De komst van Large Language Models (LLM) heeft dit proces nog versneld, want LLM kunnen nieuwe teksten genereren uit al bestaande literatuur. Xin waarschuwt wel dat deze gegenereerde teksten niet zonder meer voor waar aangenomen moeten worden: “Blijf altijd kritisch kijken moet naar wat AI genereert, neem de informatie niet blindelings over maar check die ook elders.”

Zelf aan de slag met relevante toepassingen

Alex van der Helm (Waternet) presenteerde over de ontwikkelingen van generatieve AI bij Waternet. Hij begon met een uitleg over wat AI is en hoe het patronen kan herkennen, voorspellen en sinds begin dit jaar ook logisch kan redeneren. Hij ging dieper in op generatieve AI en besprak de beperkingen, risico’s en kansen van AI. Hij presenteerde ook hoe AI wordt gebruikt voor specifieke doelen bij Waternet, zoals het voorspellen van de afvalwatertoevoer naar de rioolwaterzuivering Amsterdam West en het gebruik van AI om te sturen op een lagere emissie van lachgas (een sterk broeikasgas) op de rioolwaterzuivering.

Bij Waternet is een inventarisatie gedaan van het algoritme gebruik. Hierbij zijn 14 algoritmen/AI-systemen geïdentificeerd. Het merendeel van deze algoritmen zijn zelf ontwikkeld door Waternet ’s DataLab. Naar aanleiding van de toenemende aandacht en gebruiksmogelijkheden, gaan ze bij Waternet beleid ontwikkelen voor het gebruik van AI. AI leidt volgens de inventarisatie tot onder andere de volgende voordelen en aandachtspunten bij waterbedrijven:

  • Ondersteuning van het werk
  • Kennis opbouwen van AI
  • Verkennen van mogelijkheden
  • Aandacht geven aan de risico’s mbt persoonsgegevens, bedrijfsgevoelige gegevens en de juistheid bij LLM’s
  • Uitlegbaarheid van AI modellen

Algemene ontwikkelingen op het gebied van AI gaan heel snel, maar voor specifieke toepassingen voor de watersector moeten de waterbedrijven volgens Alex zelf ook aan de slag, want ze hebben zelf de meeste kennis van hun eigen processen.

Figuur 1. De ontwikkeling van AI (bron: WRR (2021) Opgave AI. De nieuwe systeemtechnologie)

Drie use-cases met ChatGPT

Vervolgens werden korte use-cases besproken rond andere toepassingen van generatieve AI. Thomas Hes, consultant data-driven sustainability bij Waternet, trapte af met een presentatie over de inzet van ChatGPT om de milieu-impact van de catering bij Waternet te bepalen. Elk product heeft namelijk milieu-impact, maar de gegevens om die impact te berekenen waren onvolledig. Aan ChatGPT werd gevraagd de benodigde massa’s en voedselcategorieën op basis van productnamen te leveren. Het bleek lastig om een goede vraag te formuleren. Dit is uiteindelijk óók aan ChatGPT gevraagd, waarna het beter ging. Ook al was het resultaat niet foutloos, inzet van AI heeft veel tijdswinst bij de analyse naar de milieu-impact opgeleverd.

Xin Tian (KWR) presenteerde een use-case over het omzetten van ongestructureerde data in tekst naar gestructureerde data in een tabelvorm. Het voordeel van de inzet van LLM in plaats van Natural Language processing bij deze tekst mining is dat bij LLM geen uitgebreide training van de modellen hoeft plaats te vinden. Tian vertelde ook over de ontwikkeling van een AI chatbot die klantgesprekken kan categoriseren.

Dennis Zanutto, KWR-onderzoeker en promovendus bij de Politecnico di Milano, beschreef het gebruik van ChatGPT om een enquête met antwoorden te vertalen en hier vervolgens conclusies uit te halen. Zanutto gaf ook een voorbeeld voor het maken van programmeercode en een literatuurstudie met ChatGPT.

Nicael Jooste (Dunea) vertelde hoe een eigen, afgesloten versie van ChatGPT Dunea ondersteuning bood bij een analyse op een grote hoeveelheid eigen uitvoeringsplannen. Hier hielp Chat GPT bij de beoordeling van de plannen op data-volwassenheid, het noemen van een ‘data steward’, welke KPI’s worden genoemd en een controle op aanwezigheid van onderwerpen uit de directiebeoordeling. Dit scheelde de medewerkers veel saai zoek- en vraagwerk. Een uitdaging was dat ChatGPT geen afkortingen kent. Een optie is om bepaald taalgebruik te verplichten in de uitvoeringsplannen.

Human-Centered AI is noodzaak

Jie Jang, assistent professor in Web Informatie Systemen (WIS) bij TU Delft,is onderzoeker op het gebied van AI-technologieën. Hij vertelde over Human-Centered AI, met een vraag aan de zaal: Kunnen LLM’s taal begrijpen? Hierbij waren 2 standpunten:

  1. Computers kunnen menselijke taal begrijpen omdat ze online chats begrijpen.
  2. Er is een barrière tussen taal en de daadwerkelijke betekenis hiervan.

Jie Jang vertelde over het belang van robuustheid in AI, en de noodzaak om de context van een systeem mee te nemen. Daarom is het belangrijk om steeds een menselijk oordeel mee te nemen in de werkwijze. Human-Centered AI is dus het ontwikkelen van werkwijzen en praktische tools die mensen betrekken in berekeningen om betrouwbare AI-systemen te ontwikkelen die menselijke activiteiten kunnen ondersteunen. In het laboratorium van professor Jang wordt op het moment gewerkt aan de tool ‘Genius’. Hier worden taal, kennis, en interactie met mensen geïntegreerd. Op de vraag of we taken in de toekomst wel veilig aan machines kunnen uitbesteden, zegt professor Jang nog geen ja.

Figuur 2. Mensen moeten onderdeel uitmaken van het gebruik van AI (Bron: presentatie dr. Jie Jang )

AI benaderen met een open blik

Tijdens de afsluitende discussie kwamen de aanwezigen tot de conclusie dat elke organisatie een AI-data wetenschapper en een AI-beleid zou kunnen gebruiken. Voor succesvolle AI-toepassingen is het belangrijk om AI te benaderen met een open blik, en niet alleen vanuit een perspectief van risico. De datakwaliteit is de grootste drempel voor het toepassen van AI. ‘Vendor lock-in’ is een bedreiging voor het goed kunnen gebruiken van AI. Er zijn wellicht (nog) niet zoveel toepassingen specifiek voor drinkwaterbedrijven, maar de al beschikbare applicaties kunnen zeker helpen om het werk gemakkelijker te maken.

delen