_DSC0118

Retour sur la session AngularJS chez Google

Le 25/11/2014, le portier nous autorise à nous garer dans le parking de … GOOGLE ! À vrai dire, nous sommes fatigués, mais excités.

IMG_3504

La salle telle que nous la découvrons lors du premier repérage

Cette session est un peu particulière, nous sommes pleins d’incertitudes quant au déroulement de notre plan et de notre bannière !

Bannière ??? Oui, une semaine plus tôt, nous avons enfin pris le temps de réfléchir un peu à la manière d’illustrer les avantages d’une technique permettant de simuler un système de production.

Une idée un peu folle à émergé lors d’une conversation, et si on introduisait un objet connecté dans la présentation, oui finalement c’est bel et bien un de trois focus sur lequel handson.io lab se concentre.

Quand @alanhortz fait une Demo ça donne ceci #lafeweb#angularjs

A video posted by John Wuurman (@nanth) on

Un objet connecté ? Oui vous savez bien, un truc connecté au réseau (WiFi par ex.) avec lequel on peut communiquer depuis n’importe ou dans le monde.

Notre idée est simple, il est important de montrer qu’on ne joue pas avec un système de production pendant le développement. OK, tout ça est toujours bien abstrait … Un feu d’artifice ??? Une bannière déroulante, on ne peut les déclencher qu’une seule fois !

On la tenait notre idée ! On allait proposer de développer une petite application web mobile permettant de déclencher via son smartphone un feu d’artifice et dans le même temps de dérouler fièrement nos couleurs.

Est-ce qu’il est possible en très peu de temps (une dizaine d’heures) de construire une bannière et un canon à confettis connectés ? À savoir une bannière de 2X2 m PVC imprimé avec le logo du lab et un canon suffisamment puissant pour garantir un chouette effet ?

Nous avons tenté de valider notre hypothèse de départ :

C'est de la super glue, pas bon sur du carton !

C’est de la super glue, pas bon sur du carton !

Ensuite nous reconstruit de manière plus solide sur base du même fonctionnement (puisque ça marche !) :

IMG_3550 IMG_3553 IMG_3568 handson_banner_iot_4

Avec l’aide d’un peu d’électronique (et franchement rien de très sorcier …), nous avons pu faire fonctionner l’ensemble et rendre tangible cette idée de départ.

WP_20141124_23_53_49_Pro

Arduino Uno R3 + Shield Wifi et … une pile

Pendant la réalisation de notre première itération, nous avons découvert des patrons de conception. Nous avons appris — avec la version finale — sur notre manière d’aborder les challenges. Enfin, le feedback des participants nous a permis de pointer nos erreurs.

Notre intention est de revenir sur les apprentissages et sur la réalisation de la bannière elle-même au travers d’articles dans ce blog.

À bientôt, Ben et Alan

Toucher la réalité virtuelle

Pour ceux qui ont eu la chance de tester un masque de réalité virtuelle (par exemple durant notre session sur le scan 3D) il y a plusieurs choses qui ressortent d’une expérience d’immersion.

On peut essayer de faire une liste de ces retours:

  • Manque de résolution.
  • Manque d’interactivité. Les utilisateurs font souvent la remarque suivante: « J’avais envie de toucher les choses mais je n’ai pas de corps dans la simulation..« 
  • Manque de liberté. « J’aurais voulu ouvrir cette porte mais ça n’était pas possible« 

Le premier feedBack est dû aux matériel. Clairement, les masques de réalité virtuelles qui sont accessibles aujourd’hui sont des prototypes et les écrans qui les équipent sont souvent d’une résolution un peu trop faible. On a cette impression d’être derrière un grillage. C’est le screen Door effect.

Ces limitations vont probablement tendre à disparaître (au moins à se réduire) vu les évolutions exponentielles de la qualité des écrans de petite taille.

Il reste les autres retours. Ces retours sont liés à l’expérience elle-même.

Pour moi ils sont positifs car cela signifie que l’utilisateur a passé la barrière de la limitation technique (résolution, champ de vision, couleurs,…) et qu’il fait un retour sur l’expérience elle-même!.

Chez handson.io Nous passons pas mal de temps avec l’oculus. On essaye beaucoup de démos, d’expériences, de jeux.. On développe nos propres expériences (Scan 3D de personnes et d’objets, visites virtuelles,..) et c’est en effet un point qui revient régulièrement..

« Ça serait génial de pouvoir saisir tel ou tel objet et de l’amener devant son visage.. » ou bien « .. Rhooo si je pouvais ouvrir cette boite avec mes mains plutôt qu’en utilisant le contrôleur.. » ou encore « Si seulement je pouvais juste voir mes mains…. »

On a donc voulu expérimenter une solution qui répond à ce besoin récurrent. Toucher l’environnement virtuel.

Entre en jeu le LEAP MOTION.

WP_20141007_12_39_23_Pro

handson.io a commandé un leap Motion

Le LEAP c’est un « détecteur de mains« . Il permet de suivre les mouvements des mains et leur positionnement dans un espace situé au-dessus du leap.

Il existe donc un tas d’applications qui permet de manipuler des formes, arracher des pétales de fleurs, zoomer/dezoomer, envoyer des commandes aux applications,…

Voici ce que ça donne, essayé chez handson.io:

En disposant le LEAP MOTION sur l’oculus, on peut détecter et suivre ses mains (puisque c’est le but du LEAP) quand on les place devant son visage!!

LEAP MOTION a bien compris l’intérêt et à mis à disposition des développeurs un SDK qui permet d’utiliser le LEAP MOTION de cette manière!

Et voilà donc ce que ça donne: