This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/06/12 12:44] 20.171.207.85 old revision restored (2024/05/07 20:01) |
memento-processus-decisionnels-de-markov-et-systemes-multiagents [2025/07/03 12:13] (current) 20.171.207.121 old revision restored (2025/07/02 00:11) |
||
---|---|---|---|
Line 20: | Line 20: | ||
* Optimum de Pareto : Une stratégie domine au sens de Pareto si tous les joueurs gagnent au moins autant qu'en suivant leur stratégie dominante et qu'au moins un joueur ai un gain supérieur à ce qu'il recevrait en suivran sa stratégie dominante. | * Optimum de Pareto : Une stratégie domine au sens de Pareto si tous les joueurs gagnent au moins autant qu'en suivant leur stratégie dominante et qu'au moins un joueur ai un gain supérieur à ce qu'il recevrait en suivran sa stratégie dominante. | ||
* Pareto Optimal : Si la stratégie jointe n'est dominée par aucune autre stratégie. | * Pareto Optimal : Si la stratégie jointe n'est dominée par aucune autre stratégie. | ||
+ | * MMDP : Processus décisionnels de Markov multi-agents. Définit par un n-uplet <m, S, A1, ..., Am, T, R> où S, A, et T sont définis comme pour un jeu de Markov. | ||
+ | * DEC-POMDP : Processuss décisionnel de Markov décentralisé partiellement observable. Définit par un n-uplet <m, S, A1, ..., Am, T, Ω1, ..., Ωm, O, R> où le n-uplet <m, S, A1, ..., Am, T, R> est un jeu de Markov, Ω est l' | ||
+ | |||
==== Généralités sur les SMA ==== | ==== Généralités sur les SMA ==== | ||
Line 56: | Line 59: | ||
+ | ==== Jeux de Markov ==== | ||
+ | MMDP = spécialisation du jeu de Markov dans laquelle la fonction récompense est la même pour tous les agents. | ||
+ | ==== Pistes de recherche pour la coordination inter-agent ==== | ||
+ | Chapitre 6 : https:// | ||