Site Tools


Hotfix release available: 2024-02-06b "Kaos". upgrade now! [55.2] (what's this?)
Hotfix release available: 2024-02-06a "Kaos". upgrade now! [55.1] (what's this?)
New release available: 2024-02-06 "Kaos". upgrade now! [55] (what's this?)
Hotfix release available: 2023-04-04b "Jack Jackrum". upgrade now! [54.2] (what's this?)
Hotfix release available: 2023-04-04a "Jack Jackrum". upgrade now! [54.1] (what's this?)
New release available: 2023-04-04 "Jack Jackrum". upgrade now! [54] (what's this?)
Hotfix release available: 2022-07-31b "Igor". upgrade now! [53.1] (what's this?)
Hotfix release available: 2022-07-31a "Igor". upgrade now! [53] (what's this?)
New release available: 2022-07-31 "Igor". upgrade now! [52.2] (what's this?)
New release candidate 2 available: rc2022-06-26 "Igor". upgrade now! [52.1] (what's this?)
New release candidate available: 2022-06-26 "Igor". upgrade now! [52] (what's this?)
Hotfix release available: 2020-07-29a "Hogfather". upgrade now! [51.4] (what's this?)
memento-learning-multi-agent-state-space-representations

Learning multi-agent state space representations

Définitions

Feed forward neural network : Réseau de neurone dans lequel il n'y a pas de boucle.

Quelques informations

Markov game -> Système multi-agent avec plusieurs sets d'actions, la proba de transition dépend de s, a et s', récompense unique à chaque agent et une transition.

Une variante consiste à donner une récompense commune aux agents.

Comment apprendre le bon moment auquel doivent se coordonnés les agents ? Quelques ressources dispo :

  • Kok & Vlassis, Utile coordination : Learning indepedenies among cooperative agents.
  • Spaan & Melo IDMG

Détails sur l'IDMG :

  • Interaction Driven Markov Game
  • Les agents peuvent connaitre la position des autres par la communication ou en les détectant avec les capteurs
  • Plus de détails sur l'article de Spaan & Melo...

Learning Coordination States :

  • Identification des états dans lequel un agent devrait prendre en compte les autres agents quand il choisi une action et qu'il y a besoin de coordination sur celle-ci avec un autre agent.

CQ-Learning

En partant du principe que les agents ont une politique optimale ainsi qu'une récompense associée à chaque tuple <état, action>.

Les agents ont deux ensembles d'états, un classique qui répertorie tous les états (hors joint) et un “joint” qui répertorie les états qui sont en collisions avec d'autres agents. C'est à dire accessibles par deux agents ou plus.

L'algorithme utilise alors test de Student pour détecter des changements dans la valeur d'une récompense sur un <état, action> ciblé. Deux situations peuvent arriver :

  • L'algorithme détecte un changement, s'en suivent alors les étapes suivantes :
    1. Marquage de l'état
    2. Recherche de la cause du changement
    3. Paire <état, action> marquée comme “dangereuse”
    4. Ajout de l'état à l'ensemble d'états “joint” de l'agent
    5. Les <états, action> qui n'ont pas provoqués la collision sont marqué comme “safe”
  • L'algorithme ne détecte aucun changement, aucune instruction n'a lieu

A chaque fois qu'un état est marqué, l'algorithme regarde si c'est un état joint dans lequel il faut prendre en considération les autres agents. Si c'est le cas l'actualsisation de QjValeur de l'état sera effectué avec la formule :

capture.png

Sinon pas d'actualisation.

memento-learning-multi-agent-state-space-representations.txt · Last modified: 2025/01/07 19:30 by 47.128.25.164