F. Iv, Ah vous dirai-je maman" au glockenspiel (1 image/seconde). La vidéo est disponible ici

, Ecoles Ariès 1 , un réseau de cinq écoles spécialisées dans la création digitale. 4 étudiants de l'école de Grenoble ont participé à cette expérimentation, 2 femmes et 2 hommes âgés de 21 à 24 ans. Ils étaient tous en 2ème année de Bachelor Conception 3D, Les tests utilisateurs ont pu être organisés grâce au concours des

, Enregistrer une animation dans laquelle le robot touche la cible 1 avec le maillet

, Éditer une frame de l'animation pour préciser le mouvement

, Annoter les frames correspondant au début souhaité de l'animation exportée

, Une fois cette phase d'introduction au logiciel terminée, les participants passent à la tâche réelle consistant à concevoir 3 animations différentes. Le robot doit toucher la cible 1 avec le maillet dans ces 3 animations

, Comme dans la tâche de test, le participant doit également annoter les frames correspondant au début souhaité de l'animation exportée

. Brooke, devenu un standard pour évaluer l'utilisabilité d'un système. Il a l'avantage de pouvoir être utilisé tant pour l'évaluation d'un système matériel que, pour System Usability Scale, 1996.

, La seconde partie de l'expérimentation est dédiée à l'évaluation de l'extrapolation. Pour chaque animation originale proposée par le participant, nous commençons par la rejouer (en visant donc la cible 1)

, L'animation extrapolée a conservé l'esthétique de l'animation originale

, L'animation extrapolée a conservé les contraintes géométriques de l'animation originale

, Les deux derniers énoncés concernent quant à eux la qualité intrinsèque de l'animation extrapolée

, L'animation extrapolée est esthétiquement de bonne qualité

, L'animation extrapolée est fonctionnellement de bonne qualité

, Comme nous l'attendions, les participants ont trouvé inhabituel d'enregistrer une animation par manipulation du robot, leur formation les ayant habitués à une méthode d'animation par poses clés. Malgré ce caractère inhabituel, ils ont trouvé très intéressant de pouvoir animer le robot en interagissant directement avec un objet "qu'on peut toucher" (P1 3 et P2) et "d'initier soi même le mouvement" (P3). L'un d'eux a décrit l'expérience comme "très ludique

, La plupart des difficultés que les participants ont rencontrées sont liées à des considérations matérielles. Certains ont trouvé que le robot manquait de certaines articulations 1. Je pense que je voudrais utiliser ce logiciel fréquemment

J. ,

, J'ai trouvé ce logiciel facile à utiliser

, Je pense que j'aurai besoin de l'aide d'un technicien pour être capable d'utiliser ce logiciel

, trouvé que les différentes fonctions de ce logiciel ont été bien intégrées

, Je pense qu'il y a trop d'incohérence dans ce logiciel

, J'imagine que la plupart des gens serait capable d'apprendre à utiliser ce logiciel très rapidement

, J'ai trouvé ce logiciel très lourd à utiliser

, Je me sentais très en confiance en utilisant ce logiciel

, besoin d'apprendre beaucoup de choses avant de pouvoir utiliser ce logiciel

. F-i-g-u-r-e-v, Questionnaire SUS

. Bangor, Sauro (2011) propose ainsi un barème construit à partir de 500 tests, les systèmes obtenant une note B s'ils ont un score SUS supérieur à 74 et A s'il est supérieur à 80,3. Bangor et al. (2008) proposent quant à eux que les bons systèmes obtiennent des scores SUS entre 70 et 80, en se basant sur 2324 tests qu'ils ont administrés. Dans une étude suivante, les mêmes auteurs proposent une échelle d'adjectifs qu'ils ont fait correspondre aux scores SUS sur la base de 1000 tests administrés, un score SUS de 71,4 correspondant à "Bon, Différents barèmes ont été proposés dans la littérature pour interpréter les scores SUS, 2009.

A. Moubayed, S. Beskow, J. Skantze, G. Granström, and B. , Furhat : a backprojected human-like robot head for multiparty human-machine interaction, Cognitive behavioural systems, pp.114-130, 2012.

J. Allbeck and N. Badler, Toward representing agent behaviors modified by personality and emotion, Embodied Conversational Agents at AAMAS, vol.2, pp.15-19, 2002.

K. Amaya, A. Bruderlin, and T. Calvert, Emotion from motion, Graphics interface, vol.96, pp.222-229, 1996.

F. Badeig, P. Wargnier, M. Pino, P. D. Lopes, E. Grange et al., Impact of head motion on the assistive robot expressiveness-evaluation with elderly persons, 1st International Workshop on Affective Computing for Social Robotics Workshop at the IEEE International Symposium on Robot and Human Interactive Communication, 2016.
URL : https://hal.archives-ouvertes.fr/hal-01344312

A. Bangor, P. Kortum, and J. Miller, Determining what individual sus scores mean : Adding an adjective rating scale, Journal of usability studies, vol.4, issue.3, pp.114-123, 2009.

A. Bangor, P. T. Kortum, and J. T. Miller, An empirical evaluation of the system usability scale, Intl. Journal of Human-Computer Interaction, vol.24, issue.6, pp.574-594, 2008.

R. Beira, M. Lopes, M. Praça, J. Santos-victor, A. Bernardino et al., Design of the robot-cub (icub) head, Proceedings 2006 IEEE International Conference on, pp.94-100, 2006.

D. K. Berlo, The process of communication ; an introduction to theory and practice, 1960.

R. Bowden, Learning statistical models of human motion, IEEE Workshop on Human Modeling, Analysis and Synthesis, CVPR, 2000.

C. Breazeal and B. Scassellati, How to build robots that make friends and influence people, Intelligent Robots and Systems, 1999. IROS'99. Proceedings. 1999 IEEE/RSJ International Conference on, vol.2, pp.858-863, 1999.

J. Brooke, Sus-a quick and dirty usability scale. Usability evaluation in industry, vol.189, pp.4-7, 1996.

A. G. Brooks, J. Gray, G. Hoffman, A. Lockerd, H. Lee et al., , 2004.

, Robot's play : interactive games with sociable machines, Computers in Entertainment (CIE), vol.2, issue.3, pp.10-10

L. N. Brown and A. M. Howard, The positive effects of verbal encouragement in mathematics education using a social robot, IEEE Integrated STEM Education Conference, pp.1-5, 2014.

A. Bruderlin and L. Williams, Motion signal processing, Proceedings of the 22nd annual conference on Computer graphics and interactive techniques, pp.97-104, 1995.

A. Campeau-lecours, H. Lamontagne, S. Latour, P. Fauteux, V. Maheu et al., Kinova modular robot arms for service robotics applications, International Journal of Robotics Applications and Technologies (IJRAT), vol.5, issue.2, pp.49-71, 2017.

C. Chao, M. Gielniak, J. W. Yoo, and A. L. Thomaz, Interactive learning by demonstration with the simon robot, Proceedings of the 9th AAAI Conference on Enabling Intelligence Through Middleware, pp.2-2, 2010.

D. Chi, M. Costa, L. Zhao, and N. Badler, The EMOTE model for effort and shape, Proceedings of the 27th annual conference on Computer graphics and interactive techniques -SIGGRAPH '00, pp.173-182, 2000.

D. M. Chi, A Motion Control Scheme for Animating Expressive Arm Movements, IRCS Technical Reports Series, p.80, 1999.

C. Ruiz, A. Pontonnier, C. Pronost, N. Dumont, and G. , Muscle-Based Control for Character Animation : Muscle-Based Control for Character Animation, Computer Graphics Forum, vol.36, issue.6, pp.122-147, 2017.
URL : https://hal.archives-ouvertes.fr/hal-01317881

C. Darwin, The expression of emotion in animals and man. London : Methuen.(1877), A biographical sketch of an infant, vol.2, pp.285-294, 1872.

G. Duchenne, Mécanisme de la physionomie humaine ou Analyse électrophysiologique de ses différents modes d'expression, 1862.

D. Efron, Gesture and environment, 1941.

P. Ekman, Basic emotions. Handbook of cognition and emotion, pp.45-60, 1999.

P. Ekman and W. V. Friesen, The repertoire of nonverbal behavior : Categories, origins, usage, and coding. semiotica, vol.1, pp.49-98, 1969.

C. Ericson, Real-Time Collision Detection. Morgan Kaufmann series in interactive 3D technology, 2004.

R. J. Fitzpatrick, Designing and constructing an animatronic head capable of human motion programmed using face-tracking software, 2012.

J. Forlizzi and C. Disalvo, Service robots in the domestic environment : a study of the roomba vacuum in the home, Proceedings of the 1st ACM SIGCHI/SIGART conference on Human-robot interaction, pp.258-265, 2006.

M. Fujita, Aibo : Toward the era of digital creatures, The International Journal of Robotics Research, vol.20, issue.10, pp.781-794, 2001.

M. Gangnet, Parametric function curve editing, US Patent, vol.6, p.221, 2000.

T. Geijtenbeek, M. Van-de-panne, and A. F. Van-der-stappen, Flexible musclebased locomotion for bipedal creatures, ACM Transactions on Graphics, issue.6, p.32, 2013.

M. J. Gielniak, C. K. Liu, and A. L. Thomaz, Stylized motion generalization through adaptation of velocity profiles, RO-MAN, pp.304-309, 2010.

D. Gouaillier, V. Hugel, P. Blazevic, C. Kilner, J. Monceaux et al., Mechatronic design of nao humanoid, Robotics and Automation, 2009. ICRA'09. IEEE International Conference on, pp.769-774, 2009.

D. Hanson, S. Baurmann, T. Riccio, R. Margolin, T. Dockins et al., Zeno : A cognitive character, Ai magazine, and special proc. of aaai national conference, 2009.

B. Hartmann, M. Mancini, and C. Pelachaud, Formational parameters and adaptive prototype instantiation for mpeg-4 compliant gesture synthesis, Computer Animation, pp.111-119, 2002.

B. Hartmann, M. Mancini, and C. Pelachaud, Implementing expressive gesture synthesis for embodied conversational agents, International Gesture Workshop, pp.188-199, 2005.

G. Hoffman, Dumb robots, smart phones : A case study of music listening companionship, RO-MAN, pp.358-363, 2012.

G. Hoffman, Ensemble : fluency and embodiment for robots acting with humans, 2007.

G. Hoffman and W. Ju, Designing robots with movement in mind, Journal of Human-Robot Interaction, vol.3, issue.1, pp.89-122, 2014.

G. Hoffman, R. Kubat, and C. Breazeal, A hybrid control system for puppeteering a live robotic stage actor, Robot and Human Interactive Communication, pp.354-359, 2008.

D. Holden, J. Saito, and T. Komura, A deep learning framework for character motion synthesis and editing, ACM Transactions on Graphics (TOG), vol.35, issue.4, p.138, 2016.

Y. Huang and M. Kallmann, Motion parameterization with inverse blending, MIG, pp.242-253, 2010.

H. Ishii, Tangible bits : beyond pixels, Proceedings of the 2nd international conference on Tangible and embedded interaction, pp.xv-xxv, 2008.

R. E. Jack, O. G. Garrod, H. Yu, R. Caldara, and P. G. Schyns, Facial expressions of emotion are not culturally universal, Proceedings of the National Academy of Sciences, vol.109, issue.19, pp.7241-7244, 2012.

S. Jeong, C. Breazeal, D. Logan, and P. Weinstock, Huggable : Impact of embodiment on promoting verbal and physical engagement for young pediatric inpatients, 26th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), pp.121-126, 2017.

M. Kim, K. Hyun, J. Kim, and J. Lee, Synchronized multi-character motion editing, ACM transactions on graphics (TOG), vol.28, issue.3, p.79, 2009.

T. Komura, Y. Shinagawa, and T. L. Kunii, A Muscle-based Feed-forward Controller of the Human Body, Computer Graphics Forum, vol.16, issue.s3, pp.165-176, 1997.

O. Korn and N. Lee, Game Dynamics, 2017.

D. Kraft, A software package for sequential quadratic programming. Forschungsbericht-Deutsche Forschungs-und Versuchsanstalt fur Luft-und Raumfahrt, 1988.

Y. Kuroki, B. Blank, T. Mikami, P. Mayeux, A. Miyamoto et al., Motion creating system for a small biped entertainment robot, Proceedings. 2003 IEEE/RSJ International Conference on, vol.2, pp.1394-1399, 2003.

R. Laban and L. Ullmann, The mastery of movement, 1971.

M. Lapeyre, P. Rouanet, J. Grizou, S. Nguyen, F. Depraetre et al., Poppy project : open-source fabrication of 3d printed humanoid robot for science, education and art, Digital Intelligence, p.6, 2014.
URL : https://hal.archives-ouvertes.fr/hal-01096338

A. Laviers and M. Egerstedt, Style based robotic motion, American Control Conference (ACC), pp.4327-4332, 2012.

I. Leite, A. Pereira, G. Castellano, S. Mascarenhas, C. Martinho et al., Social robots in learning environments : a case study of an empathic chess companion, Proceedings of the International Workshop on Personalization Approaches in Learning Environments, vol.732, pp.8-12, 2011.

S. Levine, J. M. Wang, A. Haraux, Z. Popovi?, and V. Koltun, Continuous character control with low-dimensional embeddings, ACM Transactions on Graphics (TOG), vol.31, issue.4, p.28, 2012.

C. K. Liu, A. Hertzmann, and Z. Popovi?, Learning physics-based motion style with nonlinear inverse optimization, ACM Transactions on Graphics (TOG), vol.24, issue.3, pp.1071-1081, 2005.

M. Luria, G. Hoffman, B. Megidish, O. Zuckerman, and S. Park, Designing vyo, a robotic smart home assistant : Bridging the gap between device and social agent, Robot and Human Interactive Communication, pp.1019-1025, 2016.

A. A. Maciejewski and C. A. Klein, The singular value decomposition : Computation and applications to robotics, The International journal of robotics research, vol.8, issue.6, pp.63-79, 1989.

S. Matusik, Demoscene : The art of the algorithms, 2011.

D. Mcneill, Gesture and thought, 2008.

M. Mori, Bukimi no tani [the uncanny valley, Energy, vol.7, pp.33-35, 1970.

M. Na, B. Yang, and P. Jia, Improved damped least squares solution with joint limits, joint weights and comfortable criteria for controlling human-like figures, Robotics, Automation and Mechatronics, pp.1090-1095, 2008.

S. Nakaoka, S. Kajita, Y. , and K. , Intuitive and flexible user interface for creating whole body motions of biped humanoid robots, Intelligent Robots and Systems (IROS), 2010 IEEE/RSJ International Conference on, pp.1675-1682, 2010.

T. Nierhoff, S. Hirche, and Y. Nakamura, Spatial adaption of robot trajectories based on laplacian trajectory editing, Autonomous Robots, vol.40, issue.1, pp.159-173, 2016.

S. Nishio, H. Ishiguro, and N. Hagita, Geminoid : Teleoperated android of an existing person, Humanoid robots : New developments, 2007.

X. B. Peng, P. Abbeel, S. Levine, and M. Van-de-panne, Deepmimic : Exampleguided deep reinforcement learning of physics-based character skills, ACM Transactions on Graphics (TOG), vol.37, issue.4, p.143, 2018.

R. Penner, Motion, tweening, and easing. Programming Macromedia Flash MX, pp.191-240, 2002.

K. Perlin, Improving noise, In ACM Transactions on Graphics, vol.21, pp.681-682, 2002.

G. Pierris and M. G. Lagoudakis, An interactive tool for designing complex robot motion patterns, Robotics and Automation, 2009. ICRA'09. IEEE International Conference on, pp.4013-4018, 2009.

E. Pot, J. Monceaux, R. Gelin, and B. Maisonnier, Choregraphe : a graphical tool for humanoid robot programming, Robot and Human Interactive Communication, pp.46-51, 2009.

I. Rose, C. F. Sloan, P. J. Cohen, and M. F. , Artist-directed inversekinematics using radial basis function interpolation, Computer Graphics Forum, vol.20, pp.239-250, 2001.

J. Saldien, K. Goris, S. Yilmazyildiz, W. Verhelst, and D. Lefeber, On the design of the huggable robot probo, Journal of Physical Agents, 2008.

J. Saldien, B. Vanderborght, K. Goris, M. Van-damme, and D. Lefeber, A motion system for social and animated robots, International Journal of Advanced Robotic Systems, vol.11, issue.5, p.72, 2014.

J. Sauro, Measuring usability with the system usability scale (sus), 2011.

J. Sauro, Things to know about the system usability scale (sus), 2013.

V. Scheib, T. Engell-nielsen, S. Lehtinen, E. Haines, T. et al., The demo scene, ACM SIGGRAPH 2002 conference abstracts and applications, pp.96-97, 2002.

W. E. Schramm, The process and effects of mass communication, 1954.

C. E. Shannon, W. Weaver, and A. W. Burks, The mathematical theory of communication, 1969.

A. Shapiro, Y. Cao, and P. Faloutsos, Style components, Proceedings of Graphics Interface, pp.33-39, 2006.

D. Sirkin, B. Mok, S. Yang, and W. Ju, Mechanical ottoman : how robotic furniture offers and withdraws support, Proceedings of the Tenth Annual ACM/IEEE International Conference on Human-Robot Interaction, pp.11-18, 2015.

O. Sorkine, Laplacian mesh processing, Eurographics (STARs), pp.53-70, 2005.

F. Thomas, O. Johnston, T. , and F. , The illusion of life : Disney animation, 1995.

R. Urtasun, P. Glardon, R. Boulic, D. Thalmann, and P. Fua, Style-based motion synthesis, Computer Graphics Forum, vol.23, pp.799-812, 2004.

A. Van-breemen, Bringing robots to life : Applying principles of animation to robots, Proceedings of Shapping Human-Robot Interaction workshop held at CHI 2004, pp.143-144, 2004.

A. Van-breemen and Y. Xue, Advanced animation engine for user-interface robots, IEEE/RSJ International Conference on, pp.1824-1830, 2006.

A. Van-breemen, X. Yan, and B. Meerbeek, icat : an animated user-interface robot with personality, Proceedings of the fourth international joint conference on Autonomous agents and multiagent systems, pp.143-144, 2005.

A. Vinciarelli, M. Pantic, and H. Bourlard, Social signal processing : Survey of an emerging domain, Image and vision computing, vol.27, issue.12, pp.1743-1759, 2009.

H. G. Wallbott, Bodily expression of emotion, European journal of social psychology, vol.28, issue.6, pp.879-896, 1998.

C. W. Wampler, Manipulator inverse kinematic solutions based on vector formulations and damped least-squares methods, IEEE Transactions on Systems, Man, and Cybernetics, vol.16, issue.1, pp.93-101, 1986.

J. K. Westlund, G. Gordon, S. Spaulding, J. J. Lee, L. Plummer et al., Learning a second language with a socially assistive robot, 2015.

D. E. Whitney, Resolved motion rate control of manipulators and human prostheses, IEEE Transactions on man-machine systems, vol.10, issue.2, pp.47-53, 1969.

D. E. Whitney, The mathematics of coordinated control of prosthetic arms and manipulators, ASME Journal of Dynamic Systems, Measurement and Control, vol.20, issue.4, pp.303-309, 1972.

A. Witkin and M. Kass, Spacetime constraints, ACM Siggraph Computer Graphics, vol.22, issue.4, pp.159-168, 1988.

A. Witkin and Z. Popovic, Motion warping, Proceedings of the 22nd annual conference on Computer graphics and interactive techniques, pp.105-108, 1995.