Du mercredi 24 au vendredi 26 octobre avait lieu à Amsterdam la dernière édition du salon VR Days.
La première journée s’ouvrait par une discussion impliquant des orateurs d’horizons variés sur les impacts et les opportunités du domaine de la réalité virtuelle/réalité augmentée. Au-delà des technologies, qui progressent rapidement, et dont les perspectives de convergences sont réelles, il s’agit désormais d’incarner les mondes virtuels, et de concevoir des expériences créant l’adhésion, susceptibles de s’insérer dans des usages quotidiens.
Un des axes revenant le plus fréquemment au cours des diverses interventions était celui des avatars autonomes suscitant l’engagement de l’utilisateur. Les travaux présentés sur le domaine étaient nombreux, et prometteurs, comme la technologie Siren présentée par Epic Games. Celle-ci présente un niveau de réalisme impressionnant pour un avatar animé en temps réel. Qu’ils servent d’interface à des agents conversationnels, de formateurs virtuels ou d’interlocuteurs médicaux à distance par exemple, leur intérêt dans leur capacité à capturer l’attention de l’utilisateur et à rendre plus naturelles les expériences de réalité virtuelle, laisse entrevoir un fort développement des techniques de représentation d’humains virtuels à l’avenir.
Du point de vue des solutions techniques, Antilatency présentait sa solution de suivi de position grande échelle, basée sur l’association d’une caméra miniature fixée au casque de RV (HMD) et d’émetteurs infrarouges répartis au sol. Son déploiement est flexible en termes de dimensionnement et indépendante du casque. Permettant le multijoueur et le suivi d’accessoires, et affichant une latence très faible lors de nos essais, ce système vient enrichir les possibilités de développement d’expériences de déplacement naturel sur des zones de plusieurs mètres². Cette solution semble donc prometteuse pour des casques de type Oculus Go ou Google DayDream qui sont actuellement limités à un suivi de position 3DoF. En revanche, qu’adviendra-t-il de la pertinence de cette solution lors de l’arrivée sur le marché de dispositifs comme l’Oculus Quest qui offre en natif un tracking 6DoF inside-out ?
Capteurs Antilatency
Autre démonstration que nous attendions avec impatience, nous avons pu avoir un aperçu de la Tesla Suit, une combinaison haptique qui laisse entrevoir des expériences d’Entertainment impressionnantes. Basée sur des stimuli électriques répartis sur tout le corps elle permet de faire ressentir à l’utilisateur des ambiances de type pluie/neige ou de simuler l’impact d’un projectile. Cette combinaison permet par ailleurs de fournir une solution de capture de mouvement inertielle intégrée. Concernant la dimension haptique, l’effet est saisissant et on a hâte de tester la démonstration avec un HMD en simultané. Le fabriquant nous a aussi indiqué qu’il travaillait à l’intégration de capteurs permettant de re-créer des sensations de chaleur, et de monitorer des paramètres physiologiques de l’utilisateur.
Enfin, dans l’éventail des démonstrations du salon, on retient surtout Birdly, le déjà bien connu simulateur de vol, et Xtal, un casque très haut de gamme permettant un affichage 5K et intégrant une calibration de la distance des yeux, et une détection des mains de type Leap Motion. Malgré ces qualités, un form factor assez encombrant et un poids important en font un dispositif assez peu confortable à utiliser. Tobii pro présentait sa solution d’ Eye tracking intégrée dans des casques VR à destination du retail, pour de l’étude de la visibilité d’un rayonnage, par exemple.
XTal
Intégration de la solution tobii pro dans le vive
On retient de notre présence sur cet événement, sorte de mini-laval virtual, un foisonnement de cas d’usage et de ponts possibles vers d’autres technologies émergentes témoignant d’un potentiel et d’un enthousiasme qui ne faiblit pas pour la RV/RA.
#SeeYouAmsterdam