This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
compte-rendu-etat-art-these [2025/10/16 01:37] 162.222.196.117 old revision restored (2025/08/29 01:09) |
compte-rendu-etat-art-these [2025/10/18 11:34] (current) 216.73.216.169 old revision restored (2025/10/16 02:13) |
||
---|---|---|---|
Line 46: | Line 46: | ||
===L’apprentissage par renforcement=== | ===L’apprentissage par renforcement=== | ||
Difficilement utilisable pour l'AmI, car : | Difficilement utilisable pour l'AmI, car : | ||
- | -discrétisation du temps est faite de manière arbitraire | + | ->discrétisation du temps est faite de manière arbitraire |
- | | + | ->compliqué d' |
- | Bilan : Besoin d'une approche plus globale ne se limitant pas à mettre en place des solutions pour des sous problèmes indépendants. | ||
- | |||
- | ===Exemple d’une approche globale=== | ||
- | Triplet de capteurs (O, M, C) [Objet, Mouvement, Contextuel], | ||
- | Représentations définies sur un triplet (E, C, A) [Evenement, Condition, Action], | ||
- | Algo de classification -> chercher des motifs d' | ||
- | |||
- | |||
- | ====Les systèmes multi-agents==== | ||
- | Système complexe : système qui a un effet sur son environnement et ses propres composantes. | ||
- | |||
- | Application des SMA : | ||
- | * alternative à la résolution de problèmes centralisés | ||
- | * la simulation (biologie, sociologie...) | ||
- | * paradigme de programmation | ||
- | |||
- | Façons d' | ||
- | * Un système peut être améliorer en dotant ses agents de capacités d' | ||
- | * Les agents peuvent apprendre de manière distribué et interactive -> c'est le système qui apprend par l' | ||
- | |||
- | Catégories d' | ||
- | * apprentissage centralisé : les agents apprennent seul. | ||
- | * apprentissage décentralisé : les agents sont impliqués dans la même activé d' | ||
- | L' | ||
- | |||
- | |||
- | |||
- | ===Attribution des récompenses=== | ||
- | |||
- | Difficulté de donner des récompenses, | ||
- | (CAP : Credit Assignement Problem) | ||
- | |||
- | Décomposition du problème en deux sous problèmes : | ||
- | * CAP inter-agent : Rétribution des agents en fonction d'un changement de performance au niveau global. | ||
- | * CAP intra-agent : Rétribution des inférences internes ou décisions d’un agent en fonction d’une action externe effectuée. | ||
- | Une solution plus simple consiste à diviser la récompense globale entre tous les agents du système, mais ceci ne marche pas correctement dans les cas plus complexe qui nécessitent un feedback plus précis. | ||
- | |||
- | ===Caractéristiques de l’apprentissage décentralisé=== | ||
- | |||
- | Apprendre un comportement collectif total ciblé est compliqué. Il est possible de simplifier le problème en isolant les comportements appris de certains agents, en réduisant l' | ||
- | Réduction de la complexité -> utiliser l' | ||
- | |||
- | ====Approches neuro-inspirée==== | ||
- | |||
- | Approche connexionniste : modélise les phénomènes mentaux ou comportementaux comme des processus émergents de réseaux d’unités simples interconnectées. | ||
- | |||
- | L'IA actuelle (systèmes experts, solveurs logiques, ...) exécute des algos, alors que l' | ||
- | L' | ||
- | |||
- | Représentation invariante : régularité constante dans l' | ||