Archives du mot-clé kinect

jKinect : « kinectify the web »

Comme dirait Steve Ballmer : “Kinect, Kinect, Kinect”.

Si vous n’avez jamais entendu parler de Kinect, vous étiez surement dans une cave durant les 2 dernières années (je ne vous en veux pas, dans ce cas lisez Kinect: Tour d’horizon tout naturellement).

En début d’année (février 2012), Kinect s’est invité officiellement sur les PC grâce au SDK Kinect for Windows. Le SDK permet de créer des applications Windows (client lourd) utilisant Kinect. Les développeurs profitent d’un SDK mis à jour régulièrement par Microsoft et qui est passé dernièrement en version 1.6.

Comme tout SDK propriétaire, son utilisation nécessite un apprentissage. La marche est encore plus haute, si le développeur ne maîtrise pas déjà le langage d’utilisation des APIs (.Net: C++, C#).

Bien dommage, à une époque où les interfaces Web sont de plus en plus présentes et les technologies sous-jacentes de plus en plus populaires.

Et s’il était possible d’intéragir avec un site web directement depuis Kinect ?

Est-ce que cela serait techniquement possible ?

Dans quels cas cela aurait-il un sens ?

Pour quels usages ?
Lire la suite

Personify Live Uses Microsoft Kinect Or Other Depth Cameras For A Video Conferencing Service That Layers Presenters Over Content

Personify - Live

A video conferencing startup called Personify, Inc. (formerly Nuvixa) is launching its first product next week, which will allow users to take advantage of the motion sensing technology in Microsoft Kinect and other depth cameras in order to overlay video of themselves on top of their presentations in real-time. Using the Personify Live software, users can present on top of their content, gesturing to it as they go along. This content can include a slideshow, computer desktop screen, streaming video, or anything else you can run on your computer.

Personify co-founder Sanjay Patel, now a professor at the University of Illinois at Urbana-Champaign, has been involved in the startup industry for years. Most notably, he was CTO at Ageia Technologies, makers of the PhysX physics engine used in game development, acquired by Nvidia in 2008. Following the sale of the company, a colleague of his introduced him to the depth cameras, which he had been researching since 2004.

“They were these big, ‘research-y,’ industrial-looking machines,” says Patel. “But they eventually became the technology that’s inside Kinect.”

Upon seeing these cameras, Patel began to think about their potential use cases. “If we could get these to be cheaper somehow, and smaller, and integrated into a PC environment,” he thought to himself, “we could really improve the way people communicate with video. That was really what the passion of our founding team was,” he adds. After putting together the initial team in 2009, Personify, then Nuvixa, began to develop software to use depth cameras with video conferencing. Microsoft Kinect, of course, was known as Project Natal at the time Personify got off the ground, as Kinect’s technology wasn’t put on the market until November 2010.

The first beta test began in October of last year, offering access to a limited number of pilot users, which include SAP, McKinsey & Company, and LinkedIn, to name a few. Then a freemium product, the company had around 2,000 sign-ups for its tests, and it’s now in the process of converting those users to paying customers. Pricing starts at $20/user. Another package being offered includes 3 months of Personify’s service for free and Asus’ Xtion Pro Live depth camera for $199.

Unlike online meetings and web conferencing today, where video tends to not be as heavily used, sticking the presenter off to the side in a small box, Personify Live is designed to allow its users to better communicate with gestures, eye contact and other human-to-human interactions – more like how the presentation would appear in real world, face-to-face meetings.

Pilot testers have adopted the technology for inside sales, webinars, web app and online demos, training, education (both K-12 and higher ed) and more. However, Personify’s primary focus is on enterprise sales, where the technology works alongside the current in-house solutions including WebEx, GoToMeeting, and Microsoft Lync. It can also work with Join.me, but only if using Personify’s screenshare, not Join.me’s. “Most companies already have a web conferencing suite they use,” says Patel. “We don’t want them to stop using those things. Our product layers on top of those products,” he explains.

Now at team of around 20, split evenly between Illinois and Vietnam, Personify’s other co-founders include Dennis Lin, Minh Do, and Quang Nguyen. The company is also backed by $3.5 million in Series A funding from AMD Ventures, Liberty Global Ventures, Illinois Ventures, and Serra Ventures.

An interesting note about Liberty – they’re the world’s second largest cable operator, based in Europe. The company sees a potential for Personify in the living room, where users could one day video call each other over their TV’s. Instead of Skype or some other web chatting product (like what’s built into Kinect today), Personify could enable the overlay of just the person calling on top of the live TV show or movie being watched. That future isn’t as far off as you may think. Patel says that they should have demos of this by the end of next year, and possibly deployments by 2014.

In addition, he sees this as possibility on mobile by that time, too. Depth cameras on mobile?, we asked. Do you have direct knowledge of that?, we wanted to know.

“I can’t  really start talking about this stuff now,” says Patel. “But it’s happening. That’s all I can say.”



Vers des nouveaux usages de lecture ?

Octo Technology accompagne depuis presque un an le Labo BNF, un « lieu expérimental dédié aux nouvelles technologies de lecture et d’écriture » situé à la Bibliothèque Nationale de France.

Notre rôle est de proposer des idées prospectives sur la lecture et l’écriture au Labo, puis d’aider à leur mise en oeuvre.

Les nouveaux gestes de lecture

L’idée est d’expérimenter la façon dont les gestes traditionnels de lecture sont modifiés, voire bousculés, par l’apparition des nouvelles technologies. Déjà nous ne tournons plus une page papier avec nos doigts mais une page virtuelle en touchant l’écran tactile des liseuse et tablette. Bientôt, nous pourrons le faire à distance, sans toucher aucun écran, grâce à des systèmes de reconnaissance gestuelle et, dans un avenir très proche, sans même bouger, en pensant seulement à l’action de tourner une page…

Pour notre animation, nous avons travaillé sur deux scénarios rendus possibles par les technologies de 2012 :

  • L’interaction gestuelle sans contact avec un livre
  • L’interaction par la pensée avec un livre

L’interaction gestuelle consiste à détecter les mouvements du corps, comme dans le film “Minority Report” de Steven Spielberg. Ainsi, le lecteur bouge sa main de gauche à droite pour tourner les pages de son livre virtuel, et il rapproche ses mains pour le fermer.

Cette interaction gestuelle est rendue possible par le dispositif Kinect de Microsoft.

L’interaction par la pensée fonctionne avec un casque cérébral qui reconnait l’activité cérébrale liée à des pensées préenregistrées. Lorsque le lecteur reproduit la pensée qu’il a choisie pour tourner la page, celle-ci se tourne.

Cette interaction gestuelle est rendue possible par le dispositif EPOC de la société Emotiv dont nous avions eu la démonstration à l’USI 2011.

Les applications « Gallica pour Kinect et casque cérébral Emotiv » permettent ainsi d’explorer d’une nouvelle manière les livres de la bibliothèque numérique Gallica. Vous pourrez les tester par vous-même au Labo BnF (Hall Sud de la BnF) dans les prochaines semaines.

1ère démonstration publique au Salon du Livre 2012

La semaine dernière, les équipes BnF et Octo Technology étaient sur le pont afin de préparer l’inauguration publique de leurs travaux lors du Salon du Livre 2012 à la Porte de Versailles (du 15 au 19 mars 2012).

Sur le stand, plusieurs personnalités dont Frédéric Mitterrand, actuel Ministre de la Culture et de la Communication, ont pu expérimenter un futur possible de la lecture.

Gallica pour Kinect au Salon du Livre 2012

Comme vous le voyez, la facilité d’utilisation et le plaisir  étaient au rendez-vous. Il semblerait bien que les utilisateurs aient autant aimé utiliser l’application que nous à la faire. Durant toute la durée du salon les animations Kinect et Emotiv ont affiché complet. Merci à tous les testeurs et utilisateurs pour leur accueil et leur temps.

Ces périphériques qui prêtent à sourire au premier abord car issus du monde vidéo-ludique, sont en fait de réelles solutions d’interface naturelle que nous retrouverons bientôt dans notre quotidien. Les usages ne se limitent plus au grand public et commencent à trouver un écho favorable dans les entreprises. C’est un sujet que nous développerons dans un article ultérieur.

Si l’innovation Kinect vous intéresse n’hésitez pas à rejoindre le groupe facebook de la communauté Kinect : Kinect Genius Bar

Suggestion d’articles :

  1. Capture électronique de la signature manuscrite, des anciens aux nouveaux usages
  2. Exemple d’infrastructure MongoBD : haute disponibilité en lecture
  3. Kinect, I mock you so much