Grenoble INP Rubrique Recherche 2022

James Crowley, pionnier de la vision par ordinateur et de la robotique mobile

James Crowley, professeur Grenoble INP – Ensimag et chercheur à l’INRIA, vient d’être nommé membre senior à l’Institut Universitaire de France (IUF). Cette nomination salue une carrière de pionnier dans le domaine de la vision par ordinateur et de la robotique mobile.
Pouvez-vous nous retracer votre carrière en quelques mots ?
James Crowley : J'ai débuté ma carrière scientifique par une thèse de doctorat à l'université Canergie Mellon de Pittsburgh, aux Etats-Unis, sur la description invariante des images, c'est-à-dire indépendamment du point de vue duquel on observe les objets. En se fondant sur des modèles mathématiques tels que les "champs réceptifs" et les filtres de Gabor, il est possible de reconnaître de nombreux objets malgré la déformation de leur image liée à un changement de distance, de direction de regard, ou une occultation partielle. De faible complexité de calcul, ces techniques peuvent facilement être utilisées pour construire des systèmes de vision temps-réel.  Dès 1994, j'ai étudié  la perception d'activités humaines, incluant la détection et reconnaissance du visage, de la posture, et des gestes. Parallèlement, j'ai travaillé à la détection de piétons sur des séquence d'images. La détection d'activités humaines passe également par la modélisation d'interactions entre personnes, en utilisant des éléments de psychologie cognitive. Dans mes recherches actuelles, j'élargis ces travaux à la reconnaissance des expressions, des émotions et à la mesure de l'état physiologique des individus.

Quelles sont les applications de ces recherches ?
J. C. : L'observation de l'activité humaine rend possible de nombreux services à la personne ! Pour n'en citer que quelques uns : la surveillance de bureaux, avec des options telle le filtrage d'informations qui permet par exemple de rendre certaines personnes invisibles dans les images, le maintien de personnes âgées à leur domicile grâce à un programme de surveillance informant leurs proches en temps réel de leur état et de leurs activités (sommeil, repas, détection de chutes éventuelles etc.).

Vous avez également travaillé en robotique mobile ?
J. C. : En 1980, je fus l'un des premiers chercheurs embauché lors de la créaction de l'Institut Robotique à l'Université Carnegie Mellon. Entre 1982 à 1985, j'y ai dirigé le laboratoire de robotique domestique, où j'ai développé des systèmes pour la perception et la navigation pour le robot autonome domestique. L'idée était de concevoir un robot capable de se déplacer de façon autonome dans une maison à l'aide de capteurs télémétriques d'ultrasons, tout en réalisant une cartographie de lieux. Ces travaux ont été repris dans le robot de sécurité commercialisé par Denning Security Systems, et le robot de nettoyage commercialisé par HelpMate Robotics et Kent, entre autres.

Vous avez également participé à la création de deux start-up. Pouvez-vous nous en dire plus ?
J. C. : Oui, en 2003, j'ai participé à la création de la société BlueEye Video, spécialisée dans la gestion des flux de personnes par l'utilisation de capteurs vidéos. Cette société propose des solutions de comptage d'individus, de gestion de file d'attente et d'analyse du parcours marchand. Parmi les premières réalisations de la start-up, citons un logiciel de comptage des passagers utilisé dans un grand nombre d'aéroports en France, et la surveillance des "effets de foule" lors du pèlerinage de La Mecque. Fondée en 2008, HiLabs est quant à elle une société d'ingénierie dans la conception et l'installation de systèmes d'affichage publicitaire interactif. Sa technologie EyeLight, brevetée, transforme n'importe quelle grande surface (vitrine, mur, plafond, sol...) en un écran interactif, couplé à un service d'information Web dynamique. Ainsi il est possible d'adapter le contenu publicitaire automatiquement en fonction du contexte.

Quels sont vos projet de recherche à venir ?
J. C. : L'objectif de mon programme de recherche pour l'IUF est de fournir les fondements scientifiques et technologiques nécessaires à la mise en œuvre de systèmes et de services numériques doués de capacités de perception de ce qu'on peut appeler "l'interaction sociale". La recherche actuelle en perception artificielle pour l'interaction est largement orientée vers la reconnaissance de signaux de type linguistique, alors que beaucoup d'interactions impersonnelles sont non verbales et dépendent largement du contexte social. La technologie capable de capter les interactions sociales doit être en mesure de percevoir et d'assimiler les signaux non verbaux comme les expressions du visage, les gestes, la position du corps, les intonations, de comprendre et de prédire les situations et d'acquérir des compétences générales en interaction sociale. Pour cela, je compte m'appuyer sur les modèles et théories des sciences cognitives et sociales, sur les facteurs humains ainsi que sur les architectures logicielles, afin d'élaborer de nouvelles théories et modèles pour la vision par ordinateur et l'interaction multimodale. Ce sont des enjeux impactants dans la compréhension et dans l'assistance aux interactions personnes-personnes et personnes-machines.