Complémentarité Kinect et Leap Motion

Kinect pour WindowsdifferentLeap Motion

Kinect, Leap Motion, capteurs de mouvement… 2012 et surtout 2013 seront les années des interfaces naturelles.

J’ai un Kinect pour Windows depuis de sa sortie et depuis peu j’ai aussi un Leap Motion. Laissez moi vous faire part de mes retours sur ces 2 périphériques nouvelle génération.

Tout d’abord, voici quelques informations sur le capteur Leap Motion:

Au niveau technique

J’ai pas encore démonté le mien, mais d’après ce que j’ai vu, c’est un simple triplet de lampes Infrarouge et 2 capteurs optiques.

L’émetteur IR (infrarouge) éclaire la scène, les capteurs captent l’intensité lumineuse réfléchie par les objets.

Au niveau précision

Le champ de vision du LeapMotion est un cône d’environ 60cm de diamètre sur 60cm de hauteur (du coup, si le Leap motion est posé au niveau au milieu d’un clavier d’ordinateur, il pourrait détecter si on touche l’écran).

La capture IR est parasitée par les lampes à incandescences et halogènes (dommage pour un capteur dirigé vers le plafond), heureusement la majorité des environnements d’utilisation en entreprise sont en économie d’énergie ou neons. Par contre, pour un usage à domicile avec une lampe plafonnier avec variateur ou un halogène, il y a des gros problèmes de précision.

C’est assez fluide et avec une latence très très faible (sauf en cas d’interférences lumineuses qui oblige Leap Motion à passer en mode Robust mais imprécis et lent).

Au niveau API

L’API renvoie une liste de paumes (avec orientation en 3D) et des listes de vecteurs « pointables » pour les doigts ou stylets. J’ai réussi à faire détecter au moins 4 mains, mais la zone de détection (angle de vision et distance) ne permet pas vraiment d’en mettre plus).

La société Leap Motion a démenti ses propres videos où l’on voyait une main en 3D sur l’écran: c’était en fait un modèle 3D prégénéré qui était ensuite animé via les vecteurs renvoyés par le Leap Motion.

L’API ne renvoie donc pas le « nuage de points » capté par le capteur, donc impossible de scanner un objet ou un visage.

Reste à déterminer si le nuage est transmis par l’USB (ce qui sous-entend un reconnaissance logicielle) ou analysé directement par le périphérique (reconnaissance matérielle). Sachant que lors du premier branchement du capteur, j’ai eu le droit à un « firmware update  » cela me laisse penser que le hardware joue un certain rôle dans la reconnaissance.

Ci-dessous, une rapide démonstration au second degré de Leap Motion:

Kinect ou Leap Motion, pourquoi choisir ?

Si quelqu’un me demande : « alors, c’est quoi le mieux: Kinect ou Leap Motion ? »

je répondrais : « Cela dépend du besoin » (superbe bottage en touche)

Il est intéressant de constater la complémentarité (ou opposition de phase) des 2 périphériques. Autant Kinect est adapté pour la détection de squelettes (complets ou buste) pour une plage de distance de 40cm à 4m (le flux brut peut même voir plus loin), autant le Leap Motion est conçu pour les très courtes distances (de 2.5cm à ~70cm)

2.5cm 60cm 2m 4m
Leap-FOV Seated-Mode Standing-Mode

LeapMotion

Kinect

Kinect

Doigt, Paume Audio, Main,
Buste, Face-tracking,
Flux bruts (RGB, IR)
Audio, Squelette complet, Flux bruts
(RGB, IR)

Leap Motion se concentre sur la détection des mains (orientation et ouverture de la paume) et des doigts. Cela s’adapte donc parfaitement à un usage « poste de travail » pour la visualisation/manipulation de données sur 3 dimensions. Sans aller jusqu’à développer des applications dédiées, Leap Motion est pertinent et rentable ($79) pour améliorer l’expérience du poste de travail.

L’écran tactile de mon ordinateur (non-tablette) m’a permis de gagner en efficacité sur des actions simples comme ouvrir, fermer une fenêtre, changer d’application, faire défiler un texte. L’utilisation du Leap Motion pourra faire gagner encore plus en ouvrant les possibilités d’intéractions proches et précises.

De son côté, le panel de fonctionnalités de Kinect est très large mais ne couvre pas vraiment le périmètre « bureautique » malgré l’ajout des modes Near et Seated (proche et assis). Il reste difficile de pointer naturellement et précisément vers un point de l’écran. Kinect est pertinent pour de l’interaction à distance : l’éducation, l’entrainement physique ou la thérapie, les environnements aseptisés, le commerce, les écrans interactifs…

Ces usages sont en quelque sorte des dérives professionnelles/industrielles de l’héritage gaming de Kinect pour Xbox.

Peut-être que Microsoft nous réserve de bonnes surprises pour les prochaines versions de Kinect pour Windows (miniaturisation, précision, reconnaissance…) qui permettront de couvrir le périmètre d’utilisation du Leap Motion. L’avenir nous le dira.

En l’état, il faut donc voir ces périphériques comme 2 outils différents ne satisfaisant pas les mêmes besoins. En faisant une segmentation à la hache, je dirai que Leap Motion s’adapte bien au grand public et l’usage « poste de travail » tandis que Kinect sera plus orienté B2C, B2E avec la mise à disposition de services et informations via des interfaces dédiées.

Des petits liens pour la route :

Cette entrée a été publiée dans News, Usages, et marquée avec , , , , , le par .

A propos Vincent Guigui

Expert en Technologies Innovantes et Interfaces Naturelles à OCTO Technology et Fondateur de la communauté des développeurs Kinect Diplômé de l’EPITA spécialité Sciences Cognitives en 2003, je suis à OCTO Technology en qualité d’Architecte et Expert en technologies Microsoft. J'ai acquis une très bonne connaissance de la plateforme .Net grâce au développement et l’accompagnement de projets stratégiques depuis ses toutes premières versions. J'ai aussi travaillé sur les différentes plateformes mobiles Microsoft (Windows CE/Mobile/Phone7/Phone8) J'ai conçu plusieurs prototypes d’interfaces innovantes utilisant Kinect, ce qui m’a amené à fonder le Microsoft User Group - Kinect Genius Bar et à être reconnu par Microsoft comme l'un des principaux experts Kinect d'Europe (titre Most Valuable Professional Kinect).

Laisser un commentaire