Both sides previous revision
Previous revision
Next revision
|
Previous revision
|
realisation_env_grille_qlearning_sma [2025/06/18 13:22] 216.73.216.118 old revision restored (2025/04/19 22:03) |
realisation_env_grille_qlearning_sma [2025/07/02 08:55] (current) 47.128.25.24 old revision restored (2025/03/03 17:07) |
| |
La grille fonctionne sur le même principe que la dernière fois, les cases vertes sont parcourables, les blanches sont des murs et les points bleus sont des agents. | La grille fonctionne sur le même principe que la dernière fois, les cases vertes sont parcourables, les blanches sont des murs et les points bleus sont des agents. |
| |
| {{:grille_sma.png|}} |
| |
Voir [[realisation_env_grille_qlearning | ici]] pour plus de détails. | Voir [[realisation_env_grille_qlearning | ici]] pour plus de détails. |
| |
La grille est générée à parti d'un fichier texte. Il est possible de passer le nombre d'agents voulu dans le fichier texte, ils sont placés automatiquement sur la grille sur les positions désignés (l'utilisateur ne choisi pas spécifiquement d'un agent). | La grille est générée à parti d'un fichier texte. Il est possible de passer le nombre d'agents voulu dans le fichier texte, ils sont placés automatiquement sur la grille sur les positions désignés (l'utilisateur ne choisi pas spécifiquement la position d'un agent). |
| |
Exemple de fichier : | Exemple de fichier : |
Au début de l'épisode, les agents sont sur leur position de départ. Ils se déplacent l'un après l'autre sur la grille jusqu'à trouver la case objectif. A chaque déplacement l'agent reçoit une récompense de -1, s'il se déplace sur la case d'un autre agent, il reçoit une récompense de -10. Sinon, s'il trouve l'objectif sa récompense est de 0. \\ | Au début de l'épisode, les agents sont sur leur position de départ. Ils se déplacent l'un après l'autre sur la grille jusqu'à trouver la case objectif. A chaque déplacement l'agent reçoit une récompense de -1, s'il se déplace sur la case d'un autre agent, il reçoit une récompense de -10. Sinon, s'il trouve l'objectif sa récompense est de 0. \\ |
L'épisode est terminé lorsque les deux agents ont atteint la case objectif. Si un agent la trouve avant l'autre, l'épisode continue, mais l'agent qui l'a trouvé ne bouge plus. Pendant ce temps le second agent continue de le chercher. | L'épisode est terminé lorsque les deux agents ont atteint la case objectif. Si un agent la trouve avant l'autre, l'épisode continue, mais l'agent qui l'a trouvé ne bouge plus. Pendant ce temps le second agent continue de le chercher. |
| |
{{:grille_sma.png|}} | |
| |
==== Experience Sans collisions ==== | ==== Experience Sans collisions ==== |
| |
Deux ILs tentent d'atteindre l'objectif au bout de leur tunnel respectif. Leur route ne se rencontrent jamais, aucune collision n'est donc provoquée. | Deux ILs tentent d'atteindre l'objectif au bout de leur tunnel respectif. Leur route ne se rencontrent jamais, aucune collision n'est donc provoquée. |
Dans ce contexte l'apprentissage classique, les deux agents devraient trouver une politique optimale comme s'ils étaient seul sur la grille. | Dans ce contexte l'apprentissage est classique, les deux agents devraient trouver une politique optimale comme s'ils étaient seul sur la grille. |
| |
{{:sans_collisions_sma_grille.png|}} | {{:sans_collisions_sma_grille.png|}} |