This shows you the differences between two versions of the page.
| Both sides previous revision Previous revision | |||
|
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/12/13 05:25] 216.73.216.127 old revision restored (2025/12/08 12:28) |
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/12/13 05:25] (current) 216.73.216.127 old revision restored (2025/12/12 01:21) |
||
|---|---|---|---|
| Line 17: | Line 17: | ||
| * Stratégie mixte : Stratégie non déterministe. | * Stratégie mixte : Stratégie non déterministe. | ||
| * Gain espéré : Esperance de récompense étant donné la stratégie de l' | * Gain espéré : Esperance de récompense étant donné la stratégie de l' | ||
| - | * Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie. | + | * Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie |
| + | * Optimum de Pareto : Une stratégie domine au sens de Pareto si tous les joueurs gagnent au moins autant qu'en suivant leur stratégie dominante et qu'au moins un joueur ai un gain supérieur à ce qu'il recevrait en suivran sa stratégie dominante. | ||
| + | * Pareto Optimal : Si la stratégie jointe n'est dominée par aucune autre stratégie. | ||
| + | * MMDP : Processus décisionnels de Markov multi-agents. Définit par un n-uplet <m, S, A1, ..., Am, T, R> où S, A, et T sont définis comme pour un jeu de Markov. | ||
| + | * DEC-POMDP : Processuss décisionnel de Markov décentralisé partiellement observable. Définit par un n-uplet <m, S, A1, ..., Am, T, Ω1, ..., Ωm, O, R> où le n-uplet <m, S, A1, ..., Am, T, R> est un jeu de Markov, Ω est l' | ||
| ==== Généralités sur les SMA ==== | ==== Généralités sur les SMA ==== | ||
| Line 51: | Line 56: | ||
| * Jeu à somme générale : N'est ni un jeu d' | * Jeu à somme générale : N'est ni un jeu d' | ||
| + | Théorème : Tout jeu en forme stratégique fini admet au moins un équilibre de Nash. | ||
| + | |||
| + | |||
| + | ==== Jeux de Markov ==== | ||
| + | |||
| + | MMDP = spécialisation du jeu de Markov dans laquelle la fonction récompense est la même pour tous les agents. | ||