Onderzoeksgroep
Expertise
Mijn doctoraatsonderzoek was rond het leren communiceren door middel van multi-agent reinforcement learning. In dit onderzoek hebben we de machine learning methodes voor het leren communiceren in detail onderzocht. In dit onderzoek bleek dat de extra complexiteit van het leren communiceren het credit-assignment probleem nog moeilijker maakt. Door deze inzichten hebben we een nieuwe communicatiemethode ontwikkeld en een nieuwe methode om de centrale critic op te splitsen in meerdere kleinere critics. In mijn huidig onderzoek bekijk ik hoe we multi-agent reinforcement learning kunnen gebruiken voor een breed spectrum van applicaties.
Multi-agent communicatie- en gedragstraining met behulp van reinforcement.
Abstract
Veel applicaties vereisen intelligente samenwerkende agents die samenwerken om een probleem op te lossen. Een voorbeeld van zo een probleem is een vloot van autonome voertuigen die gecoördineerd rondrijden. Een multi-agent systeem dat wordt opgebouwd door machine learning is een goed onderzocht probleem in de state-of-the-art. Recent zijn onderzoekers erin geslaagd om agents te ontwikkelen die in staat zijn om te leren hoe ze moeten communiceren om een doel te bereiken. Dit is een nieuw sub-domein van multi-agent reinforcement learning waarin we gaan onderzoeken hoe we gedecentraliseerd kunnen trainen. Dit zal ons toelaten om heterogene agents te ontwikkelen tijdens het uitvoeren van hun applicatie wat niet mogelijk is met state-of-the-art methodes. In dit project, zal ik de state-of-the-art uitbreiden door te onderzoeken hoe we kunnen leren te communiceren met een onbekend aantal agents wat niet mogelijk is met state-of-the-art methodes. Daarna zal ik aan de feedback structuur werken die gebruikt worden om te communiceren tussen de agenten. Ik zal deze aanpassen vervolgens gebruiken om de agents hun architectuur te splitsen. Ik verwacht dat dit de training time voor te leren communiceren zal verkorten wat noodzakelijk is voor het gedecentraliseerd leren van communicatie. Al de voorgaande aanpassen zullen vervolgens gecombineerd worden om gedecentraliseerd te leren communiceren.Onderzoeker(s)
- Promotor: Hellinckx Peter
- Co-promotor: Mercelis Siegfried
- Mandaathouder: Vanneste Simon
Onderzoeksgroep(en)
Project type(s)
- Onderzoeksproject
Multi-agent communicatie- en gedragstraining met behulp van gedistribueerde reinforcement learning.
Abstract
Veel applicaties vereisen intelligente samenwerkende agents die samenwerken om een probleem op te lossen. Een voorbeeld van zo een probleem is een vloot van autonome voertuigen die gecoördineerd rondrijden. Een multi-agent systeem dat wordt opgebouwd door machine learning is een goed onderzocht probleem in de state-of-the-art. Recent zijn onderzoekers erin geslaagd om agents te ontwikkelen die in staat zijn om te leren hoe ze moeten communiceren om een doel te bereiken. Dit is een nieuw sub-domein van multi-agent reinforcement learning waarin we gaan onderzoeken hoe we gedecentraliseerd kunnen trainen. Dit zal ons toelaten om heterogene agents te ontwikkelen tijdens het uitvoeren van hun applicatie wat niet mogelijk is met state-of-the-art methodes. In dit project, zal ik de state-of-the-art uitbreiden door te onderzoeken hoe we kunnen leren te communiceren met een onbekend aantal agents wat niet mogelijk is met state-of-the-art methodes. Daarna zal ik aan de feedback structuur werken die gebruikt worden om te communiceren tussen de agenten. Ik zal deze aanpassen vervolgens gebruiken om de agents hun architectuur te splitsen. Ik verwacht dat dit de training time voor te leren communiceren zal verkorten wat noodzakelijk is voor het gedecentraliseerd leren van communicatie. Al de voorgaande aanpassen zullen vervolgens gecombineerd worden om gedecentraliseerd te leren communiceren.Onderzoeker(s)
- Promotor: Hellinckx Peter
- Mandaathouder: Vanneste Simon
Onderzoeksgroep(en)
Project type(s)
- Onderzoeksproject