Site Tools


Hotfix release available: 2024-02-06b "Kaos". upgrade now! [55.2] (what's this?)
Hotfix release available: 2024-02-06a "Kaos". upgrade now! [55.1] (what's this?)
New release available: 2024-02-06 "Kaos". upgrade now! [55] (what's this?)
Hotfix release available: 2023-04-04b "Jack Jackrum". upgrade now! [54.2] (what's this?)
Hotfix release available: 2023-04-04a "Jack Jackrum". upgrade now! [54.1] (what's this?)
New release available: 2023-04-04 "Jack Jackrum". upgrade now! [54] (what's this?)
Hotfix release available: 2022-07-31b "Igor". upgrade now! [53.1] (what's this?)
Hotfix release available: 2022-07-31a "Igor". upgrade now! [53] (what's this?)
New release available: 2022-07-31 "Igor". upgrade now! [52.2] (what's this?)
New release candidate 2 available: rc2022-06-26 "Igor". upgrade now! [52.1] (what's this?)
New release candidate available: 2022-06-26 "Igor". upgrade now! [52] (what's this?)
Hotfix release available: 2020-07-29a "Hogfather". upgrade now! [51.4] (what's this?)
memento-learning-multi-agent-state-space-representations

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
memento-learning-multi-agent-state-space-representations [2025/03/03 17:48]
47.128.41.212 old revision restored (2025/01/27 17:52)
memento-learning-multi-agent-state-space-representations [2025/04/11 02:32] (current)
3.137.200.242 old revision restored (2025/03/07 18:21)
Line 1: Line 1:
-====Learning multi-agent state space representations====+=====Learning multi-agent state space representations====
 + 
 +==== Définitions ==== 
 + 
 +   * Feed forward neural network : Réseau de neurone dans lequel il n'y a pas de boucle. 
 +   * CQ-Learning : Coordination QLearning 
 +==== Quelques informations ==== 
 + 
 +Markov game -> Système multi-agent avec plusieurs sets d'actions, la proba de transition dépend de s, a et s', récompense unique à chaque agent et une transition. 
 + 
 +Une variante consiste à donner une récompense commune aux agents. 
 + 
 + 
 +Comment apprendre le bon moment auquel doivent se coordonnés les agents ? Quelques ressources dispo : 
 +   * Kok & Vlassis, Utile coordination : Learning indepedenies among cooperative agents. 
 +   * Spaan & Melo IDMG 
 + 
 +Détails sur l'IDMG : 
 +   * Interaction Driven Markov Game 
 +   * Les agents peuvent connaitre la position des autres par la communication ou en les détectant avec les capteurs 
 +   * Plus de détails sur l'article de Spaan & Melo... 
 + 
 +Learning Coordination States : 
 +   * Identification des états dans lequel un agent devrait prendre en compte les autres agents quand il choisi une action et qu'il y a besoin de coordination sur celle-ci avec un autre agent. 
 + 
 +==== CQ-Learning ==== 
 + 
 +=== Gérer la coordination === 
 + 
 +En partant du principe que les agents ont une politique optimale ainsi qu'une récompense associée à chaque tuple <état, action>
 + 
 +Les agents ont deux ensembles d'états, un classique qui répertorie tous les états (hors joint) et un "joint" qui répertorie les états qui sont en collisions avec d'autres agents. C'est à dire accessibles par deux agents ou plus. 
 + 
 +L'algorithme utilise alors test de Student pour détecter des changements dans la valeur d'une récompense sur un <état, action> ciblé. Deux situations peuvent arriver : 
 +   * L'algorithme détecte un changement, s'en suivent alors les étapes suivantes :  
 +      - Marquage de l'état 
 +      - Recherche de la cause du changement 
 +      - Paire <état, action> marquée comme "dangereuse" 
 +      - Ajout de l'état à l'ensemble d'états "joint" de l'agent 
 +      - Les <états, action> qui n'ont pas provoqués la collision sont marqué comme "safe" 
 +    L'algorithme ne détecte aucun changement, aucune instruction n'a lieu 
 + 
 +A chaque fois qu'un état est marqué, l'algorithme regarde si c'est un état joint dans lequel il faut prendre en considération les autres agents. 
 +Si c'est le cas l'actualsisation de QjValeur de l'état sera effectué avec la formule : 
 + 
 +{{:capture.png?400|}} 
 + 
 +Sinon pas d'actualisation. 
 + 
 +"Generalising over coordination state" -> les joint states et joint actions sont toujours observés -> trop d'états a observer. 
 + 
 +Il faut alors réduire l'ensemble des états en apprenant une généralisation plus haute que les états. 
 + 
 + 
 +=== Gérer les collisions === 
 + 
 +Comment gérer les collisions ? 
 +   * Utiliser les connaissances rassemblées durant l'exécution 
 +   * Adapter l'ensemble des états vers une représentation "factorisée centrée sur les agents" (traduction approximative pour agent-centric factored) 
 + 
 +   * Centrée sur agent -> car la représentation est relative à l'agent et son contexte (exemple : bouge au nord) 
 +   * Factored -> indique que les états sont représentés par l'utilisation de set de variables aléatoire (valeurs prises dans un domaine borné). 
 + 
 +Question : 
 +   * Je ne vois pas à quoi sert le coté factored et de cette histoire de valeurs aléatoires. A quoi s'en sert-on ? 
 + 
 +Utilisation d'un réseau de neurones. 
 + 
 +-> Entrainement en utilisant les actions préférées a1 et a2 des états s1 et s2. 
 +-> La localisation absolue est "refactore" en une distance relative entre les agents. 
 + 
 +L'entrainement du réseau est donc fait avec les actions préférées a1 et a2, et Δ(x) et Δ(y). 
 + 
 +Chaque agent utilise un réseau de neurone pour généraliser ses états "safe" et "dangerous"
 + 
 +Pour chaque échantillon Δ(x) et Δ(y) sont déterminés et stockés avec une variable booléenne qui indique s'il y a eu collision ou non. 
 +En pratique le réseau peut servir à l'agent pour savoir s'il doit regarder un certain endroit en fonction de l'action choisie. 
 + 
 + 
 + 
 + 
 + 
memento-learning-multi-agent-state-space-representations.1741020491.txt.gz · Last modified: 2025/03/03 17:48 by 47.128.41.212