. .. Introduction, 116 7.2 Le problème de la zone sinistrée

. .. Le-problème-de-l'entrepôt-de-stockage,

.. .. Conclusion,

, Les Sous-équipes sont l'ensemble de toutes les équipes possibles : deux pompiers et deux bulldozers, deux pompiers et un bulldozer, etc. Pour évaluer la pertinence de l'algorithme MELO, nous le comparons à une version simplifiée, où les classements Elo des équipes ne sont pas pris en compte. Rappelons-le, le classement Elo est utilisé dans l'algorithme MELO lors de la phase d'expansion de l'arbre pour ne pas avoir à essayer des équipes non prometteuses. Hormis cela, le classement Elo n'est utilisé nulle part ailleurs dans l'algorithme. Nous appelons MA-POS-UCT (Multi-Agent Partially Observable and Stochastic Upper Confidence bound for Trees) l'algorithme MELO où la phase d'expansion n'est pas faite en effectuant une action jointe aléatoire de l'équipe avec le meilleur classement Elo, mais en effectuant une action jointe aléatoire d'une équipe aléatoire. Dans ce nouvel algorithme, il n'est donc pas nécessaire de maintenir les classements Elo des équipes, ni de passer par les étapes de simulations parallèles et de matchs par paires. C'est la raison pour laquelle nous nous référons à cet algorithme sous le nom de MA-POS-UCT : il s'agit d

L. Va-nous-Être-utile, dans un premier temps, pour calculer rapidement des politiques jointes non séparables pour un TEAM-POMDP. Nous allons nous en servir pour illustrer certaines propriétés suivies par nos deux benchmarks

, Mise en évidence de la sous-modularité Nous commençons par analyser l'algorithme MA-POS-UCT avec le Problème de la zone sinistrée. Rappelons-le, contrairement au Fire Fighting, les maisons peuvent ici être bloquées par des gravats et des bulldozers doivent être employés pour déblayer l'accès aux maisons. Dans tout ce qui va suivre, on fixe un coût nul à chaque agent

. Browne, Dans toutes nos expériences, nous avons considéré des populations N composées de deux pompiers et de deux bulldozers, soit n " 4 agents distincts. La Grande équipe désigne l'équipe comprenant tous les agents de N . Elle est notée p2,2q. Les Sous-équipes constituent l'ensemble C " 2 N de toutes les équipes arrangeables avec les agents de N . Il s'agit de l'ensemble noté 1. ?-greedy. Soit 0 ? ? ! 1. À un historique o, on choisit avec une probabilité 1´? l'action jointe? C P A C d'une équipe C P C qui est la meilleure action jointe en moyenne, c'est-à-Nos résultats, bien que préliminaires, sont clairement encourageants. L'emploi de l'algorithme MCTS, et son adaptation au cas partiellement observable et stochastique, semblent être des voies prometteuses pour la résolution de problèmes de grande taille, notamment les DEC-POMDPs, mais également les TEAM-POMDPs. Dans notre travail, nous avons essayé, avec l'algorithme MELO, d'exploiter la structure des TEAM-POMDPs pour améliorer la qualité des politiques jointes que l'on calculerait avec un algorithme de résolution plus simple, comme MA-POS-UCT (qui n'est au final qu'un algorithme de résolution de POMDP). Les TEAM-POMDPs visent à s'attaquer à des problèmes de plus grande taille que les DEC-POMDPs : intuitivement, on ne considère pas une seule équipe avec x actions jointes, mais y équipes, avec chacune x actions jointes. Derrière cette apparente complexité, il demeure possible d'analyser le problème sousjacent (est-il sous-additif ?, Certaines équipes sont-elles clairement perdantes ?) pour améliorer à la fois la vitesse de convergence et la valeur des politiques jointes. Il nous reste encore beaucoup de voies à explorer concernant les algorithmes BRD-POS-UCT et MELO. De très nombreuses recherches ont été menées sur l'algorithme MCTS, 2012.

, On peut envisager deux voies différentes afin d'obtenir des politiques jointes séparables. D'une part, on pourrait rendre la politique jointe calculée par l'algorithme MELO séparable une fois que l'algorithme a terminé l'étape de planification (en suivant, par exemple, les pistes données en section 6.5.4). D'autre part, on pourrait s'assurer que, durant la construction de l'arbre de recherche, la politique jointe est garantie d'être toujours séparable. Notons finalement que la différence de qualité entre une politique jointe séparable et une politique jointe non-séparable peut être colossale. Signal global. Toujours dans l'optique de générer des politiques jointes séparables, il peut être intéressant de développer l'idée, brièvement évoquée dans la section 6.4.1, de signal global. Ce signal de coordination centralisé, qui serait une observation globale (que tous les agents recevraient), fonction de l'état du système, renseignerait suffisamment chacun des agents (ceux de l'équipe opérationnelle et ceux de la réserve) pour leur permettre de décider de faire, ou non, partie de l'équipe opérationnelle lors de la prochaine étape de décision. On pourrait ainsi calculer séparément, pour chaque agent, une politique individuelle de domaine, qui lui dirait comment agir lorsqu'il est présent dans l'équipe en fonction de ses observations (comme une politique de POMDP), Politiques séparables. L'algorithme BRD-POS-UCT produit des politiques jointes séparables, mais ce n'est pas le cas de l'algorithme MELO, qui se sert d'indices de pouvoir sur les équipes et non pas sur les agents

, nous avons décidé de classer les équipes en fonction de leur classement Elo, mais il existe d'autres indices de pouvoir, comme l'indice de Shapley-Shubik ou l'indice de Banzhaf, souvent utilisés en théorie de jeux (et, plus précisément, des jeux de vote)

A. Et-merci-À-toi,

[. Bibliographie, . Agogino, A. K. Tumer-;-agogino, and K. Tumer, Unifying Temporal and Structural Credit Assignment Problems, Proceedings of the Third International Joint Conference on Autonomous Agents and Multiagent Systems, vol.2, pp.980-987, 2004.

P. Agrawal and P. Varakantham, Proactive and Reactive Coordination of Non-dedicated Agent Teams Operating in Uncertain Environments, Proceedings of the 26th International Joint Conference on Artificial Intelligence, IJCAI'17, pp.28-34, 2017.

. Agrawal, Decentralized Planning for Non-Dedicated Agent Teams with Submodular Rewards in Uncertain Environments, Proceedings of the 34th Conference on Uncertainty in Artificial Intelligence, UAI'18, pp.958-967, 2018.

K. J. Åström, Optimal Control of Markov Processes with Incomplete State Information, Journal of Mathematical Analysis and Applications, vol.10, issue.1, pp.174-205, 1965.

[. Auer, Finite-time analysis of the multiarmed bandit problem, Machine learning, vol.47, issue.2-3, pp.235-256, 2002.

D. Auger-;-auger, Multiple Tree for Partially Observable Monte-Carlo Tree Search. Computing Research Repository, 2011.
URL : https://hal.archives-ouvertes.fr/hal-00563480

I. Banzhaf and J. F. , Weighted Voting Doesn't Work : A Mathematical Analysis, Rutgers Law Review, vol.19, p.317, 1964.

[. Barrett, Making Friends on the Fly : Cooperating with New Teammates, Artificial Intelligence, 2016.

S. Barrett, S. Barrett, and P. Stone, An Analysis Framework for Ad Hoc Teamwork Tasks, Proceedings of the 11th International Conference on Autonomous Agents and Multiagent Systems, vol.1, pp.357-364, 2012.

[. Barrett, Learning Teammate Models for Ad Hoc Teamwork, AAMAS Adaptive Learning Agents (ALA) Workshop, 2012.

P. Baum, L. E. Baum, and T. Petrie, Statistical Inference for Probabilistic Functions of Finite State Markov Chains, The Annals of Mathematical Statistics, vol.37, issue.6, pp.1554-1563, 1966.

M. Bayes and M. Price, An Essay towards Solving a Problem in the Doctrine of Chances. By the Late Rev, Mr. Bayes, F. R. S. Communicated by Mr. Price, in a Letter to John Canton, A. M. F. R. S. Philosophical Transactions, vol.53, pp.370-418, 1763.

D. E. Bell, Regret in Decision Making Under Uncertainty, Operations Research, vol.30, issue.5, pp.961-981, 1982.

R. Bellman, The Theory of Dynamic Programming, 1954.

R. Bellman, Dynamic Programming and the Smoothing Problem, Management Science, vol.3, issue.1, pp.111-113, 1956.

R. Bellman, Eye of the Hurricane : An Autobiography, Series in Modern Applied Mathematics. World Scientific, 1984.

[. Benda, On Optimal Cooperation of Knowledge Sources -An Empirical Investigation, Boeing Advanced Technology Center, 1986.

. Bernstein, The Complexity of Decentralized Control of Markov Decision Processes, Proceedings of the Sixteenth conference on Uncertainty in artificial intelligence, pp.32-37, 2000.

. Bertsekas, Dynamic Programming and Optimal Control, Athena scientific Belmont, vol.1, 2005.

K. Binmore and . Browne, A Survey of Monte Carlo Tree Search Methods, IEEE Transactions on Computational Intelligence and AI in Games, vol.4, pp.1-43, 2008.

T. Bylander, The Computational Complexity of Propositional STRIPS Planning, Artificial Intelligence, vol.69, issue.1-2, pp.165-204, 1994.

[. Calmet, A Liberal Approach to Openness in Societies of Agents, Engineering Societies in the Agents World IV, pp.81-92, 2004.

W. Campbell, A. Campbell, and A. S. Wu, Multi-agent Role Allocation : Issues, Approaches, and Multiple Perspectives, Autonomous Agents and Multi-Agent Systems, vol.22, issue.2, pp.317-355, 2011.

A. Cassandra, A Survey of POMDP Applications. Working Notes of AAAI 1998 Fall Symposium on Planning with Partially Observable Markov Decision Processes, 1998.

[. Cassandra, Incremental pruning : a Simple, Fast, Exact Method for Partially Observable Markov Decision Processes, Proceedings of the Thirteenth conference on Uncertainty in artificial intelligence, pp.54-61, 1997.

A. R. Cassandra, Exact and Approximate Algorithms for Partially Observable Markov Decision Processes, 1998.

[. Chandrasekaran, Individual Planning in Open and Typed Agent Systems, Proceedings of the Thirty-Second Conference on Uncertainty in Artificial Intelligence, UAI'16, pp.82-91, 2016.

[. Cohen, Open Decentralized POMDPs, 2017 IEEE 29th International Conference on Tools with Artificial Intelligence (ICTAI), pp.977-984, 2017.

M. Cohen, J. Cohen, and A. Mouaddib, Monte-Carlo Planning for Team Re-Formation Under Uncertainty : Model and Properties, IEEE 30th International Conference on Tools with Artificial Intelligence (ICTAI), pp.458-465, 2018.

M. Cohen, J. Cohen, and A. Mouaddib, Re-formation décentralisée d'équipes sous incertitude : modèle et propriétés structurelles, Journées Francophones sur la Planification, la Décision et l'Apprentissage pour la conduite de systèmes (JFPDA 2018), 2018.

J. Mouaddib-;-cohen and A. Mouaddib, Power Indices for Team Reformation Planning Under Uncertainty : Extended Abstract, Proceedings of the 18th International Conference on Autonomous Agents and Multiagent Systems, AAMAS'19, pp.458-465, 2019.

. Cohen, P. R. Levesque-;-cohen, and H. J. Levesque, Teamwork. Noûs, vol.25, issue.4, pp.487-512, 1991.

I. Curiel, Cooperative Game Theory and Applications : Cooperative Games Arising from Combinatorial Optimization Problems. Theory and Decision Library C, 2013.

. Devlin, Potentialbased Difference Rewards for Multiagent Reinforcement Learning, Proceedings of the 2014 International Conference on Autonomous Agents and Multi-agent Systems, AAMAS '14, pp.165-172, 2014.

[. Dibangoye, Optimally Solving Dec-POMDPs as Continuous-State MDPs, Journal of Artificial Intelligence Research, vol.55, pp.443-497, 2016.
URL : https://hal.archives-ouvertes.fr/hal-00907338

[. Eijk, Open Multi-agent Systems : Agent Communication and Integration, 6th International Workshop on Intelligent Agents VI, Agent Theories, Architectures, and Languages (ATAL), ATAL '99, pp.218-232, 1999.

A. E. Elo, The Rating of Chessplayers, Past and Present, vol.3, 1978.

F. V. Ferrari, Cooperative POMDPs for Human-Robot Joint Activities, 2017.
URL : https://hal.archives-ouvertes.fr/tel-01729083

P. C. Fishburn, The Foundations of Expected Utility, Springer Science & Business Media, vol.31, 2013.

D. Gale, The Theory Of Linear Economic Models. Economics / mathematics, 1989.

[. Genter, Role-based Ad Hoc Teamwork, Proceedings of the 16th AAAI Conference on Plan, Activity, and Intent Recognition, AAAIWS'11-16, pp.17-24, 2011.

[. Genter, K. Stone-;-genter, and P. Stone, International Foundation for Autonomous Agents and Multiagent Systems, Proceedings of the 2014 International Conference on Autonomous Agents and Multiagent Systems, AAMAS '14, pp.1543-1544, 2014.

[. Genter, K. Stone-;-genter, and P. Stone, Ad hoc Teamwork Behaviors for Influencing a Flock, Acta Polytechnica, vol.56, p.18, 2016.

M. Gerkey, B. P. Gerkey, and M. J. Matari?, A Formal Framework for the Study of Task Allocation in Multi-robot Systems, International Journal of Robotic Research -IJRR, 2003.

M. Gerkey, B. P. Gerkey, and M. J. Matari?, On Role Allocation in RoboCup, Robot Soccer World Cup, pp.43-53, 1998.

C. V. Goldman and S. Zilberstein, Decentralized Control of Cooperative Systems : Categorization and Complexity Analysis, Journal of Artificial Intelligence Research, vol.22, issue.1, pp.143-174, 2004.

[. Hansen, Dynamic Programming for Partially Observable Stochastic Games, Proceedings of the 19th National Conference on Artifical Intelligence, AAAI'04, pp.709-715, 2004.

M. ;. Hendrickx, J. M. Hendrickx, and S. Martin, Open Multi-agent Dystems : Gossiping with Random Arrivals and Departures, IEEE 56th Annual Conference on Decision and Control (CDC), pp.763-768, 2017.

[. Herbrich, TrueSkill TM : a Bayesian skill rating system, Advances in Neural Information Processing Systems, pp.569-576, 2007.

[. Hoey, Automated Handwashing Assistance for Persons with Dementia Using Video and a Partially Observable Markov Decision Process, Computer Vision and Image Understanding, vol.114, issue.5, pp.503-519, 2010.

R. A. Howard, Dynamic Programming and Markov Processes, 1960.

[. Hsu, What Makes Some POMDP Problems Easy to Approximate ?, Proceedings of the 20th International Conference on Neural Information Processing Systems, NIPS'07, pp.689-696, 2007.

[. Huynh, An Integrated Trust and Reputation Model for Open Multi-agent Systems, Autonomous Agents and Multi-Agent Systems, vol.13, issue.2, pp.119-154, 2006.

[. Kaelbling, Planning and Acting in Partially Observable Stochastic Domains, Artificial intelligence, vol.101, issue.1-2, pp.99-134, 1998.

M. N. Katehakis and A. F. Veinott, The multi-armed bandit problem : Decomposition and computation, Mathematics of Operations Research, vol.12, issue.2, pp.262-268, 1987.

[. Katt, Learning in pomdps with monte carlo tree search, Proceedings of the 34th International Conference on Machine Learning, vol.70, pp.1819-1827, 2017.

D. G. Kendall-;-kendall, Stochastic Processes Occurring in the Theory of Queues and their Analysis by the Method of the Imbedded Markov Chain, The Annals of Mathematical Statistics, vol.24, issue.3, pp.338-354, 1953.

[. Kitano, H. Tadokoro-;-kitano, and S. Tadokoro, RoboCup Rescue : A Grand Challenge for Multiagent and Intelligent Systems, vol.22, pp.39-52, 2001.

[. Kitano, The RoboCup Synthetic Agent Challenge 97, Robot Soccer World Cup, pp.62-73, 1997.

L. Kocsis and C. Szepesvári, Bandit Based Monte-carlo Planning, Proceedings of the 17th European Conference on Machine Learning, ECML'06, pp.282-293, 2006.

H. W. Kuhn, The Hungarian Method for the Assignment Problem, Naval Research Logistics Quarterly, vol.2, issue.1-2, pp.83-97, 1955.

[. Kumar, Decentralized Planning in Stochastic Environments with Submodular Rewards, Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, AAAI'17, pp.3021-3028, 2017.

[. Kushmerick, An Algorithm for Probabilistic Planning, Artificial Intelligence, vol.76, issue.1-2, pp.239-286, 1995.

[. Littman, Efficient Dynamic-programming Updates in Partially Observable Markov Decision Processes, 1995.

[. Littman, On the Complexity of Solving Markov Decision Problems, Proceedings of the Eleventh Conference on Uncertainty in Artificial Intelligence, UAI'95, pp.394-402, 1995.

. Loomes, G. Sugden-;-loomes, and R. Sugden, Regret Theory : An Alternative Theory of Rational Choice Under Uncertainty, The Economic Journal, vol.92, issue.368, pp.805-824, 1982.

[. Madani, On the Undecidability of Probabilistic Planning and Infinite-horizon Partially Observable Markov Decision Problems, Proceedings of the Sixteenth National Conference on Artificial Intelligence and the Eleventh Innovative Applications of Artificial Intelligence Conference Innovative Applications of Artificial Intelligence, AAAI '99/IAAI '99, pp.541-548, 1999.

A. A. Markov, Extension of the Law of Large Numbers to Dependant Quantities. Izvestia, Fiziko-matematicheskomu otdeleniyu, vol.15, pp.135-156, 1906.

N. Metropolis and S. Ulam, The Monte Carlo Method, Journal of the American Statistical Association, vol.44, issue.247, pp.335-341, 1949.

V. Morgenstern, O. Neumann-;-morgenstern, and J. Von-neumann, Theory of Games and Economic Behavior, 1953.

[. Nair, Team Formation for Reformation, Proceedings of the AAAI spring symposium on intelligent distributed and embedded systems, pp.52-56, 2002.

[. Nair, Role allocation and reallocation in multiagent teams : Towards a practical analysis, Proceedings of the Second International Joint Conference on Autonomous Agents and Multiagent Systems, AAMAS'03, pp.552-559, 2003.

[. Nair, Team Formation for Reformation in Multiagent Domains Like RoboCupRescue, RoboCup 2002 : Robot Soccer World Cup VI, pp.150-161, 2003.

[. Nair, Taming Decentralized POMDPs : Towards Efficient Policy Computation for Multiagent Settings, Proceedings of the 18th International Joint Conference on Artificial Intelligence, IJCAI'03, pp.705-711, 2003.

[. Nair, Networked Distributed POMDPs : A Synthesis of Distributed Constraint Optimization and POMDPs, Proceedings of the 20th National Conference on Artificial Intelligence, vol.1, pp.133-139, 2005.

. Nisan, Facilitating Open Communication in Agent Systems : The InfoSleuth Infrastructure, Proceedings of the 4th International Workshop on Intelligent Agents IV, Agent Theories, Architectures, and Languages, ATAL '97, pp.281-295, 1997.

[. Novozhilov, Biological Applications of the Theory of Birth-and-death Processes, Briefings in bioinformatics, vol.7, issue.1, pp.70-85, 2006.

A. Oliehoek, F. A. Oliehoek, and C. Amato, A Concise Introduction to Decentralized POMDPs, 2016.

[. Oliehoek, Incremental Clustering and Expansion for Faster Optimal Planning in Decentralized POMDPs, Journal of Artificial Intelligence Research, vol.46, issue.1, pp.449-509, 2013.

[. Oliehoek, Optimal and Approximate Q-value Functions for Decentralized POMDPs, Journal of Artificial Intelligence Research, vol.32, issue.1, pp.289-353, 2008.

[. Pageaud, Co-Construction of Adaptive Public Policies using SmartGov, 2017 IEEE 29th International Conference on Tools with Artificial Intelligence (ICTAI), pp.1328-1335, 2017.
URL : https://hal.archives-ouvertes.fr/hal-01637286

C. H. Papadimitriou and J. N. Tsitsiklis, The complexity of Markov decision processes, Mathematics of operations research, vol.12, issue.3, pp.441-450, 1987.

G. Pdmia, Processus décisionnels de Markov en intelligence artificielle (Édité par Olivier Buffet et Olivier Sigaud), 2008.

[. Pineau, Anytime Point-based Approximations for Large POMDPs, Journal of Artificial Intelligence Research, vol.27, issue.1, pp.335-380, 2006.

, Astronomy & Astrophysics, vol.594, p.13, 2016.

M. L. Puterman, D. V. Pynadath, and M. Tambe, Multiagent teamwork : Analyzing the optimality and complexity of key theories and models, Proceedings of the first international joint conference on Autonomous agents and multiagent systems : part 2, pp.873-880, 1994.

D. Ray and R. Vohra, Coalition Formation, Handbook of Game Theory with Economic Applications, vol.4, pp.239-326, 2015.

. Reis, Situation based strategic positioning for coordinating a team of homogeneous agents, Workshop on Balancing Reactivity and Social Deliberation in Multi-Agent Systems, pp.175-197, 2000.

. Ross, Online Planning Algorithms for POMDPs, Journal of Artificial Intelligence Research, vol.32, issue.1, pp.663-704, 2008.

S. Russell and P. Norvig, Artificial Intelligence : A Modern Approach, 2009.

[. Sandholm, Coalition structure generation with worst case guarantees, Artificial Intelligence, vol.111, issue.1-2, pp.209-238, 1999.

[. Scerri, Allocating Tasks in Extreme Teams, Proceedings of the Fourth International Joint Conference on Autonomous Agents and Multiagent Systems, AAMAS'05, pp.727-734, 2005.

S. Seuken and S. Zilberstein, Improved Memorybounded Dynamic Programming for Decentralized POMDPs, Proceedings of the Twenty-Third Conference on Uncertainty in Artificial Intelligence, UAI'07, pp.344-351, 2007.

S. Seuken and S. Zilberstein, Memory-bounded Dynamic Programming for DEC-POMDPs, Proceedings of the 20th International Joint Conference on Artifical Intelligence, IJCAI'07, 2007.

[. Shani, A Survey of Point-based POMDP Solvers, Autonomous Agents and Multi-Agent Systems, vol.27, issue.1, pp.1-51, 2013.

L. Shapley, Cores of Convex Games, International Journal of Game Theory, vol.1, issue.1, pp.11-26, 1971.

L. Shapley and M. Shubik, A Method for Evaluating the Distribution of Power in a Committee System, The American Political Science Review, vol.48, issue.3, pp.787-792, 1954.

O. Shehory, Software Architecture Attributes of Multi-agent Systems, First International Workshop, AOSE 2000 on Agent-oriented Software Engineering, pp.77-90, 2001.

L. Shoham, Y. Leyton-brown, and K. , Multiagent Systems : Algorithmic, Game-Theoretic, and Logical Foundations, 2008.

, Mastering the Game of Go with Deep Neural Networks and Tree Search, Nature, vol.529, issue.7587, pp.484-489, 2016.

D. Silver and J. Veness, Monte-Carlo Planning in Large POMDPs, Proceedings of the 23rd International Conference on Neural Information Processing Systems, vol.2, pp.2164-2172, 2010.

R. D. Smallwood and E. J. Sondik, The Optimal Control of Partially Observable Markov Processes over a Finite Horizon, Operations research, vol.21, issue.5, pp.1071-1088, 1973.

T. Smith and R. Simmons, Heuristic Search Value Iteration for POMDPs, Proceedings of the 20th Conference on Uncertainty in Artificial Intelligence, UAI'04, pp.520-527, 2004.

M. T. Spaan-;-spaan, Partially observable Markov decision processes, Reinforcement Learning, pp.387-414, 2012.

[. Stone, Ad Hoc Autonomous Agent Teams : Collaboration Without Pre-coordination, Proceedings of the Twenty-Fourth AAAI Conference on Artificial Intelligence, AAAI'10, pp.1504-1509, 2010.

P. Stone and M. Veloso, Task Decomposition, Dynamic Role Assignment, and Low-bandwidth communication for Real-time Strategic Teamwork, Artificial Intelligence, vol.110, issue.2, pp.241-273, 1999.

[. Szer, MAA* : A Heuristic Search Algorithm for Solving Decentralized POMDPs, Proceedings of the Twenty-First Conference on Uncertainty in Artificial Intelligence, UAI'05, pp.576-583, 2005.
URL : https://hal.archives-ouvertes.fr/inria-00000204

M. Tambe-;-tambe, Towards Flexible Teamwork, Journal of Artificial Intelligence Research, vol.7, pp.83-124, 1997.

, The Matrix, 1999.

[. Wolpert, Using Collective Intelligence to Route Internet Traffic, Proceedings of the 1998 Conference on Advances in Neural Information Processing Systems II, pp.952-958, 1999.

M. Wooldridge-;-wooldridge, An Introduction to MultiAgent Systems, 2009.

M. Wooldridge-;-wooldridge, J. O'shea, N. T. Nguyen, K. Crockett, R. J. Howlett et al., Computational Aspects of Cooperative Game Theory, Agent and Multi-Agent Systems : Technologies and Applications, pp.1-1, 2011.

[. Wooldridge, A Methodology for Agent-oriented Analysis and Design, Proceedings of the third annual conference on Autonomous Agents, pp.69-76, 1999.