===== Environnement Grilles et CQ-Learning-ers ===== Article utilisé : http://www.aamas-conference.org/Proceedings/aamas2010/pdf/01%20Full%20Papers/15_02_FP_0421.pdf ==== Présentation ==== Le CQ-Learning permet la coordination d'agents. Son implémentation fait office de surcouche au QLearning qui rend les agents sensibles aux collisions. Etant donné que certaines parties de l'article cité plus haut ne sont pas claires, l'algorithme implémenté ici est peut être légèrement différent sur certains points, cependant le principe reste le même. ==== Expérience ==== L'algorithme est testé sur trois environnements différents, un Tunnel to Goal (ttg) un cmu (quoi que cela puisse vouloir dire), et un Two Robots Game (tr). CMU {{:cmu_exemple.png?500|}} TR {{:tr_exemple.png?300|}} TTG {{:ttg_exemple.png?300|}} Les cases de couleurs sont les objectifs des agents de même couleur (sauf dans le ttg où il les deux agent sont le même objectif). ==== Resultats ====