De Radboud Universiteit Nijmegen bedacht een methode die onzekerheden over gedrag van AI-systemen te verwerken in voorspellende algoritmes. Daarmee bereik je toch een veilige uitkomst.
AI-modellen lijken vaak moeiteloos te werken, maar niets is minder waar. De systemen lopen vaak tegen veel onzekerheden aan en de uitkomsten kunnen daardoor onbetrouwbaar uitpakken. De onderzoekers van de Nijmeegse universiteit denken met de nieuwe methode korte metten te kunnen maken met die onzekerheden.
Onzekerheidsmodel maakt uitkomsten volgens Radboud Universiteit zekerder
De nieuwe methode waar Thom Badings van de Radboud Universiteit binnenkort op promoveert, maakt gebruik van een wiskundig model van die onzekerheid. Dat gebeurt onder andere op basis van historische data en is gebaseerd op het modelleren van systemen zoals de Markov-modellen, Deze bestaande categorie van modellen wordt vaak gebruikt in de regeltechniek, AI en besliskunde.
In dat model kun je volgens de onderzoekers onzekerheid expliciet meeberekenen in bepaalde parameters. Dat kan bijvoorbeeld voor windsnelheid of het gewicht van een drone. Volgens de onderzoekers kun je bewijzen dat het werkt met gebruikmaking van technieken die uit de regeltechniek en informatica komen. Als je technieken uit verschillende gebieden gebruikt zijn de resultaten het betrouwbaarst. Daarmee kunnen de makers dan ook op een betrouwbare manier bewijzen of (de uitkomsten van) dit model zich veilig gedraagt.
Op die manier kun je dus een precies antwoord krijgen als je bijvoorbeeld wilt weten wat de kans is dat je drone ergens tegenaan botst. Daarvoor hoef je niet elk scenario apart te simuleren.
In hoeverre je deze methode ook kunt gebruiken om discriminatie in AI-modellen tegen te gaan is nog niet duidelijk.
Tip:
- Onbetrouwbaar algoritme bestempelt jongeren als toekomstig crimineel