
Dit AI-model is zekerder over onzekerheid
⌂ » Werk & ondernemen » Nijmegen innoveert
Kunstmatige intelligentie (AI) speelt in vrijwel elk aspect van ons leven een rol, van zelfrijdende auto's tot slimme stofzuigers, tot computermodellen die het verloop van een epidemie kunnen voorspellen. Hoe geavanceerd deze AI-systemen ook zijn, er blijft altijd een zekere mate van onvoorspelbaarheid bestaan over hun gedrag. Thom Badings ontwikkelde een nieuwe methode om die onzekerheid mee te nemen in voorspellende algoritmes, zodat er toch een veilige uitkomst in beeld komt. Hij promoveert 27 maart aan de Radboud Universiteit.
Als een AI-model goed werkt, lijkt alles moeiteloos te gaan: de auto bereikt zijn bestemming, de drone vliegt zonder te botsen door de lucht, en de economische voorspellingen blijken volledig correct te zijn. Maar in de praktijk lopen systemen aangestuurd door AI tegen tal van onzekerheden aan. De drone moet rekening houden met vogels en wind, de zelfrijdende auto met plotseling overstekende mensen en wegwerkzaamheden. Hoe zorg je dat dan toch alles ‘moeiteloos’ blijft gaan?
Markov modellen
'Daarom ontwikkelde ik met collega's methodes om de correctheid en betrouwbaarheid van complexe systemen met veel onzekerheid te garanderen', legt Badings uit. ‘Veel bestaande methodes kunnen slecht omgaan met die onzekerheid. Er zijn heel veel berekeningen nodig, of ze moeten vanuit bepaalde aannames werken waardoor je de onzekerheid niet goed meeneemt. Onze methode maakt een wiskundig model van die onzekerheid, bijvoorbeeld op basis van historische data, zodat er veel sneller een accurate voorspelling gemaakt kan worden.’
De methode van Badings is gebaseerd op het modelleren van systemen in de vorm van Markov modellen, een bestaande categorie van modellen die vaak gebruikt wordt in de regeltechniek, AI en besliskunde. ‘In een Markov model kunnen we onzekerheid expliciet meenemen in bepaalde parameters, bijvoorbeeld voor de windsnelheid of het gewicht van een drone. Vervolgens plaatsen we het model van de onzekerheid, zoals een kansverdeling over deze parameters, in het Markov model. Met behulp van technieken uit de regeltechniek en de informatica kunnen we vervolgens bewijzen of dit model zich veilig gedraagt, ondanks de zekerheid in het model. Zo kun je een exact antwoord krijgen op bijvoorbeeld de vraag wat de kans is dat je drone tegen een obstakel botst, zonder dat je elk scenario apart hebt hoeven simuleren.’
Omarm de onzekerheid
‘Het uiteindelijke doel is niet om onzekerheid weg te nemen, maar om het te omarmen. Je weet dat alles wat je doet onzekerheid met zich meebrengt, maar door het op deze wijze te modelleren maak je het deel van je analyse. De uitkomsten die je krijgt, houden dus op robuuste wijze rekening met die onzekerheid op een manier die veel vollediger tot stand komt dan met bestaande methodes.’
Badings waarschuwt wel voor de grenzen van deze aanpak: ‘Heb je een situatie met veel parameters, dan blijft het kostbaar om alle onzekerheid mee te nemen. Die onzekerheid neem je nooit volledig weg, daarom zul je toch bepaalde aannames moeten doen betekenisvolle uitkomsten te krijgen. Ga er niet vanuit dat je met één model je drone elk gebied ter wereld kan laten doorkruisen, maar beperk je model in eerste instantie tot de meest waarschijnlijke omgevingen.’
Volgens Badings is het zaak om bij het analyseren van systemen met AI gebruik te maken van technieken uit verschillende onderzoeksgebieden. ‘Staar je niet blind op de uitkomsten die je krijgt uit een AI-model zoals ChatGPT, maar gebruik inzichten uit de regeltechniek, de informatica en uit kunstmatige intelligentie om tot een robuuste en veilige oplossing te komen.’