This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision Next revision | Previous revision | ||
|
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/12/11 05:20] 66.249.70.67 old revision restored (2025/11/16 20:22) |
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/12/12 06:43] (current) 47.128.127.213 old revision restored (2025/11/23 14:21) |
||
|---|---|---|---|
| Line 12: | Line 12: | ||
| * Observalité : L' | * Observalité : L' | ||
| * Observalité partielle : L' | * Observalité partielle : L' | ||
| - | * Jeu matriciel : n-uplet <m, A1, ..., Am, R1, ..., Rm> dans lequel m est le nombre d' | ||
| - | * Stratégie : Fonction π : Ai -> [0; 1] qui définit une distribution de probabilité sur les actions du joueur i. | ||
| - | * Stratégie pure : Stratégie déterministe. | ||
| - | * Stratégie mixte : Stratégie non déterministe. | ||
| - | * Gain espéré : Esperance de récompense étant donné la stratégie de l' | ||
| - | * Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie. | ||
| - | ==== Généralités sur les SMA ==== | + | ==== ==== |
| Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux : | Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux : | ||
| Line 44: | Line 38: | ||
| * -Coordination inter-agent | * -Coordination inter-agent | ||
| - | ==== Jeux matriciels ==== | ||
| - | |||
| - | Types de jeux matriciels : | ||
| - | * Jeu d' | ||
| - | * Jeu à somme nulle : La somme des fonctions de récompense de tous les joueurs est nulle. | ||
| - | * Jeu à somme générale : N'est ni un jeu d' | ||