This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/03/07 18:10] 47.128.125.109 old revision restored (2025/02/15 03:16) |
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/04/15 03:56] (current) 20.171.207.142 old revision restored (2025/04/15 03:51) |
||
---|---|---|---|
Line 1: | Line 1: | ||
- | ===== Memento | + | memento-Processus-décisionnels-de-Markov-et-systèmes-multiagents |
- | + | ||
- | Voir la thèse p78 : https:// | + | |
- | + | ||
- | ==== Définitions ==== | + | |
- | + | ||
- | * Agent : Un agent est une entité capable de : percevoir, au moins partiellement, | + | |
- | * SMA : Un SMA est composé d' | + | |
- | * Emergence : Les SMA orientés émergence considèrent des ensembles d' | + | |
- | * Kénétique : Désigne la science qui étudie les organisations artificielles et les interactions entre entités, qu' | + | |
- | * Situation de coopération : Lorsque des agents ont des objectifs compatibles mais que les ressources ou les compétences d'un ou plusieurs agents sont insuffisantes. | + | |
- | * Observalité : L' | + | |
- | * Observalité partielle : L' | + | |
- | * Jeu matriciel : n-uplet <m, A1, ..., Am, R1, ..., Rm> dans lequel m est le nombre d' | + | |
- | * Stratégie : Fonction π : Ai -> [0; 1] qui définit une distribution de probabilité sur les actions du joueur i. | + | |
- | * Stratégie pure : Stratégie déterministe. | + | |
- | * Stratégie mixte : Stratégie non déterministe. | + | |
- | * Gain espéré : Esperance de récompense étant donné la stratégie de l' | + | |
- | * Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie (chaque joueur suit une stratégie " | + | |
- | * Optimum de Pareto : Une stratégie domine au sens de Pareto si tous les joueurs gagnent au moins autant qu'en suivant leur stratégie dominante et qu'au moins un joueur ai un gain supérieur à ce qu'il recevrait en suivran sa stratégie dominante. | + | |
- | * Pareto Optimal : Si la stratégie jointe n'est dominée par aucune autre stratégie. | + | |
- | * MMDP : Processus | + | |
- | * DEC-POMDP : Processuss décisionnel de Markov | + | |
- | + | ||
- | + | ||
- | ==== Généralités sur les SMA ==== | + | |
- | + | ||
- | Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux : | + | |
- | * niveau global : observation de la dynamique globale du système, observation de l' | + | |
- | * niveau local : les agents perçoivent leur environnement et prennent leur décisions. | + | |
- | + | ||
- | Problème de distribution des récompenses : | + | |
- | Objectif est défini de manière globale, la récompense peut-être définie par une fonction commune à tous les agents selon l' | + | |
- | Deux possibilités : | + | |
- | * La récompense peut être distribuée individuellement à chaque agent (tout en dépendant des actions jointe, maximiser ses satisfactions individuelles ne conduit pas forcément à maximiser celle du groupe) | + | |
- | * Distribuer une récompense globale et laisser les agents décider eux-même dans quelle mesure leur comportement a participé à la résolution du problème. | + | |
- | + | ||
- | Définir les politiques individuelles : | + | |
- | * Architecture centralisée : un contrôleur central dispose de l' | + | |
- | * +Nombre limité d' | + | |
- | * +Pas de mécanisme de coordination inter-agent | + | |
- | * -Peu robuste | + | |
- | * -Difficilement modifiable (pas de modularité) | + | |
- | * Architecture décentralisée (architecture hétérarchique) : chaque agent construit sa propre politique à partir de ses connaissances. Avantages/ | + | |
- | * +Meilleure modularité | + | |
- | * +Meilleure robustesse | + | |
- | * -Perception partielle | + | |
- | * -Communication inter-agent | + | |
- | * -Coordination inter-agent | + | |
- | + | ||
- | ==== Jeux matriciels ==== | + | |
- | + | ||
- | Types de jeux matriciels : | + | |
- | * Jeu d' | + | |
- | * Jeu à somme nulle : La somme des fonctions de récompense de tous les joueurs est nulle. | + | |
- | * Jeu à somme générale : N'est ni un jeu d' | + | |
- | + | ||
- | Théorème : Tout jeu en forme stratégique fini admet au moins un équilibre de Nash. | + | |
- | + | ||
- | + | ||
- | ==== Jeux de Markov ==== | + | |
- | + | ||
- | MMDP = spécialisation du jeu de Markov dans laquelle la fonction récompense est la même pour tous les agents. | + | |
- | + | ||
- | ==== Pistes de recherche pour la coordination inter-agent ==== | + | |
- | + | ||
- | Chapitre 6 p124 : https:// | + | |
- | + |