Voir la thèse p78 : https:tel.archives-ouvertes.fr/file/index/docid/362529/filename/these_matignon.pdf
==== Définitions ====
* Agent : Un agent est une entité capable de : percevoir, au moins partiellement, son environnement, agir sur son environnement, décider de manière autonome, communiquer avec d'autres agents.
* SMA : Un SMA est composé d'agents qui interagissent entre eux.
* Emergence : Les SMA orientés émergence considèrent des ensembles d'agents autonomes interagissant pour résoudre un problème donné dont la difficulté est au-delà de leurs capacité ou connaissances individuelles.
* Kénétique : Désigne la science qui étudie les organisations artificielles et les interactions entre entités, qu'elles soient informatiques, physique, biologiques...
* Situation de coopération : Lorsque des agents ont des objectifs compatibles mais que les ressources ou les compétences d'un ou plusieurs agents sont insuffisantes.
* Observalité : L'observalité d'un environnement caractérise l'ensemble des informations qui sont accessibles à un agent.
* Observalité partielle : L'observalité est partielle quand toutes les informations nécessaires à la connaissance de l'état du système ne sont pas accessibles.
* Jeu matriciel : n-uplet <m, A1, ..., Am, R1, ..., Rm> dans lequel m est le nombre d'agents (joueurs), Ai est l'ensemble des action pour le joueur i, Ri est la fonction de récompense pour l'agent i qui dépend de l'action jointe des agents.
* Stratégie : Fonction π : Ai -> [0; 1] qui définit une distribution de probabilité sur les actions du joueur i.
* Stratégie pure : Stratégie déterministe.
* Stratégie mixte : Stratégie non déterministe.
* Gain espéré : Esperance de récompense étant donné la stratégie de l'agent i et celle des autres agents.
* Equilibre de Nash : Une stratégie jointe est un équilibre de Nash lorsque chaque joueur ne peut améliorer son gain en changeant de stratégie (chaque joueur suit une stratégie "égoïste" => pas forcément très efficace).
* Optimum de Pareto : Une stratégie domine au sens de Pareto si tous les joueurs gagnent au moins autant qu'en suivant leur stratégie dominante et qu'au moins un joueur ai un gain supérieur à ce qu'il recevrait en suivran sa stratégie dominante.
* Pareto Optimal : Si la stratégie jointe n'est dominée par aucune autre stratégie.
* MMDP : Processus décisionnels de Markov multi-agents. Définit par un n-uplet <m, S, A1, ..., Am, T, R> où S, A, et T sont définis comme pour un jeu de Markov.
* DEC-POMDP : Processuss décisionnel de Markov décentralisé partiellement observable. Définit par un n-uplet <m, S, A1, ..., Am, T, Ω1, ..., Ωm, O, R> où le n-uplet <m, S, A1, ..., Am, T, R> est un jeu de Markov, Ω est l'ensemble des observations oi de l'agent i, O est une fonction d'observation définissant une distribution de probabilité sur les actions et observations jointes.
==== Généralités sur les SMA ====
Les états, actions et fonctions de récompense d'un PDM (processus décisionnel de Markov) peuvent être défini à 2 niveaux :
* niveau global : observation de la dynamique globale du système, observation de l'avancement de la résolution du problème.
* niveau local : les agents perçoivent leur environnement et prennent leur décisions.
Problème de distribution des récompenses :
Objectif est défini de manière globale, la récompense peut-être définie par une fonction commune à tous les agents selon l'état global et les actions jointes.
Deux possibilités :
* La récompense peut être distribuée individuellement à chaque agent (tout en dépendant des actions jointe, maximiser ses satisfactions individuelles ne conduit pas forcément à maximiser celle du groupe)
* Distribuer une récompense globale et laisser les agents décider eux-même dans quelle mesure leur comportement a participé à la résolution du problème.
Définir les politiques individuelles :
* Architecture centralisée : un contrôleur central dispose de l'état global du système, des actions jointes, des récompenses. Il calcule la politique jointe et distribue les commandes individuellement parmi les agents. Avantages/Inconvénients :
* +Nombre limité d'unités de contrôles nécessaire
* +Pas de mécanisme de coordination inter-agent
* -Peu robuste
* -Difficilement modifiable (pas de modularité)
* Architecture décentralisée (architecture hétérarchique) : chaque agent construit sa propre politique à partir de ses connaissances. Avantages/Inconvénients :
* +Meilleure modularité
* +Meilleure robustesse
* -Perception partielle
* -Communication inter-agent
* -Coordination inter-agent
==== Jeux matriciels ====
Types de jeux matriciels :
* Jeu d'équipe : Tous les joueurs ont la même fonction de récompense.
* Jeu à somme nulle : La somme des fonctions de récompense de tous les joueurs est nulle.
* Jeu à somme générale : N'est ni un jeu d'équipe ni un jeu à somme nulle
Théorème : Tout jeu en forme stratégique fini admet au moins un équilibre de Nash.
==== Jeux de Markov ====
MMDP = spécialisation du jeu de Markov dans laquelle la fonction récompense est la même pour tous les agents.