DBO Design

DBO DESIGN

Content Reactor 3.0

Echo Frames d'Amazon, Game changer ou gadget ?

Rédigé par dbodesign Aucun commentaire
Classé dans : Réalité Mixte Mots clés : aucun
La révélation du lancement à titre de prototype, des lunettes connectées Echo Frames a surpris la presse, dans la mesure où la marque de Bezos n'avait jamais rien dévoilé auparavant sur le sujet. Le modèle dispose d’un micro, mais pas de caméra, donc son interactivité est singulièrement réduite, à celle d'un auxiliaire de maison comme Echo Show, le concurrent de Google Home dans la catégorie des "smart speakers". La Gamme echo s'étend simplement à des lunettes, accessoire portable, plutôt qu'à un device en place fixe. Quel intérêt, alors, d’opter pour ces lunettes plutôt que des écouteurs ou une bague ou une smartwatch interactive ? Les porteurs des lunettes pourront certes choisir des verres à leur vue. Pour le reste de la population qui ne porte pas de lunettes, Amazon aura peut-être plus de difficultés à convaincre de l’utilité de porter des smart glasses, surtout sans l'interactivité visuelle, un des atouts majeurs à la base du fonctionnement de la réalité augmentée et mixte. Overdose de lunettes connectées ? Il semble étrange de lancer un tel produit alors que ce genre de matériel, déjà proposé par d'autres marques, n'a pour l'instant pas fait de percée auprès du grand public. En effet en cette fin d'année 2019, Google, Facebook, Amazon et Apple rivalisent en annonces et effets de communication autour de futurs produits. Google est un vétéran de ce domaine, avec une offre entreprise bien rodée en concurrence directe avec Microsoft Hololens. Vu son prix et le manque de contenu proposé au grand public (créé sur mesure pour des applications pro), le géant de Cupertino est pour l'instant peu disert sur son modèle "grand public" très attendu depuis 2014. Facebook est derrière Oculus, mais n'a pour l'instant rien lancé, peaufinant un produit en réalité augmentée uniquement visible pour l'instant au travers de quelques dépôts de brevets. Mark Zuckerberg affirme que ses futures lunettes seront stylées, à l'image de son alliance avec Luxottica, le fabricant Italien des Ray-Ban. Que'elles seront probablement mixtes (AR/VR) de manière a basculer en mode réalité virtuelle en full opacité notamment pour accéder a son réseau social en VR. En outre la marque développe son propre assistant vocal. La date limite pour la sortie évoquée est tardive, 2025, mais l'idée est pour la firme aux pouces bleus de faire l'impasse sur un éventuel smartphone et passer directement à l'étape de lunettes connectées qui pourraient le remplacer. RDV dans quatre ans donc. Quand à Apple, c'est le secret le plus total, comme à l'accoutumée. La stratégie de ce dernier vise à créer un produit qui serait un levier d’adoption universel des services pour Apple. Apple a renforcé sont expertise en rachetant huit start-up spécialisées et investi massivement depuis deux ans. Donc que vient donc faire Amazon "dans cette galère" ? Ces premières lunettes intelligentes sont équipées d’Alexa, en relation avec le micro. D'une part la technologie est moins complexe et risquée que de s'attaquer à la vue, et sans doute d'expérimenter sur le terrain commercial sans prendre le risque de long développements, peut-être à l'image de Snapchat et de ses malheureuses SnapGlass, un produit de niche actuellement à sa version 3 sans vraiment rencontrer le succès. Expert en «dark patterns» tout comme ses concurrents, Amazon se dote maintenant d'un premier produit pour mieux cerner ses utilisateurs grâce à la foule de data qui seront collectés. Ce prolongement d'Alexa, l’assistant virtuel d’Amazon sorti en 2014 et ne permettant au début que 13 fonctionnalités différentes (jouer de la musique, écouter la radio, contrôler la domotique, les objets connectés, faire ses courses, gérer son calendrier, météo et news...) a en quatre ans augmenté les possibilités, proposant de nouvelles intégrations et de nouveaux partenariats. Auxiliaire domotique fixe, il est donc logique que ce portage soit une prochaine étape. En effet, on peut parler vu sa richesse d'un véritable écosystème, un OS qui ne dit pas son nom. Or, la firme de Seattle a raté son entrée dans les systèmes mobiles. Certes, Alexa est présent dans des enceintes Bluetooth et des systèmes audio maintenant proposées par quelques marques automobiles, mais son Fire Phone a été un échec commercial. De leur côté Google Assistant et Siri se sont implantés sur les smartphones. L'étape suivante est donc une extension de l'écosystème Echo en outdoor par un moyen ou un autre. Le nouveau produit (Frames) vient donc en complément de deux autres produits connectés, Echo Buds, rival des AirPods d’Apple, et la bague connectée Echo Loop, pour l'instant un prototype. L'ambition avouée est d'aller encore plus loin dans l'adoption d'Alexa en domotique, vers la mobilité, mais aussi d'instaurer quelques garde-fous par rapport à la vie privée, notamment de déterminer les fois ou Alexa "sors de son silence" et intervient sans sollicitation, de masque la caméra, ou bloquer l'écoute dans certains cas... Amazon a été en tout cas convié à travailler sur un projet de règlementation de l’usage décrié de technologies de reconnaissance faciale, déjà en pointe en Asie. Notons que la firme est juge et partie, commercialisant déjà via AWS son produit Rekognition, notamment aux états et grandes compagnies privées. En savoir plus & Sources: https://www.frenchweb.fr/decode-pourquoi-les-gafa-sobstinent-a-lancer-des-lunettes-connectees/379058 https://www.frenchweb.fr/decode-amazon-va-vous-ecouter-de-plus-en-plus/377257 https://www.cnet.com/how-to/amazon-echo-frames-heres-what-you-didnt-know-about-amazons-new-smart-glasses/ https://www.theverge.com/2019/9/25/20883892/amazon-echo-frames-smart-glasses-features-specs-alexa

Créer des expériences en XR: Le Panel

Rédigé par dbodesign Aucun commentaire
Classé dans : Realité Virtuelle, Réalité Mixte Mots clés : aucun
Le WebXR a graduellement pris en pas sur le WebVR, encore supporté mais en principe remplacé. Rappelons que le WebXR tend a être un standard international aussi bien pour la réalité augmentée que la réalité virtuelle. Or, en WebVR comme en WebXR, créer une expérience passe par la génération de code, aussi bien pour l'intégration de modèles 3D que des éléments associés, formes, couleurs, textures, lumière, effets de caméra et effets spéciaux, intégration audio/video, interactivité... Heureusement depuis 2016, les plate-formes de génération de ce genre de code, assez proche du Javascript (Wysiwig) ou celle intégrant une partie du process se sont multipliées. Les premières (non couvertes ici) se sont focalisées sur des besoins de "pure players" dans le real estate (Immobilier) comprenant l'intégration de photos 3D et quelques éléments informatifs simple sur un canevas très contrôlé. Donner la possibilité de créer toutes sortes d'expériences, basées sur l'ensemble des bibliothèques, est un challenge. Des plateformes qui couvrent ce besoins sont encore rares. Elles se destinent aux agences de communication qui doivent par exemple "disrupter" leur marché, ou pour des applications spécifiques et ponctuelles, sans avoir a y passer des heures. En effet pour avoir expérimenté pas mal avec le code (voir qwazaam.com) à part l'inspecteur de code, il n'y a guère de solutions pour créer des univers en VR utilisant toute la palette d'effets, textures, couleurs, animations et autres inserts multimédias qu'il est possible d'avoir. Pour s'en convaincre il suffit de parcourir la bibliothèque A-Frame. L'A-Frame Inspector, qui permet de modifier du code et de générer la version modifiée visuellement à copier-coller dans sa page Il existe en ce moment deux standards de base XR (VR-AR), un pour Google, appelé ARCore, une pour Mac appelée ARKit, et d'une certaine manière une pour Facebook appelé SparkAR, qui développe son propre écosystème principalement autour d'"effets snapchat" pour mobile (en concurrence avec ce dernier).

Le point sur les technos

ARKit et ARCore, frères ennemis: ARKit génère beaucoup plus de bruit que le second, et représente cinq fois plus de développement en volume combiné. Pourtant en 2018, 85% des smartphones sont sur Android et donc utilisent ARCore. Cela se traduit toutefois sur un accès plus faible à la VR/AR de qualité (ou tout court) sachant que les utilisateurs sous Android ont en général des smartphones de moins bonne qualité, donc la performances sont un frein à l'adoption. La dispersion des hardwares spécifique au marché des smartphones android est aussi un frein, tout n'est pas compatible avec la XR. Les Iphones sont beaucoup plus homogènes. Le gyroscope en particulier est problématique sur la plupart des smartphones android, soi un sous-standard, soi inadéquat pour le support XR. Facebook de son côté mise énormément sur ses filtres AR de caméra avec le marché des smartphones. Donc la logique du hardware conduirait donc a plus de chances de succès pour des éditeurs de solutions XR, afin de proposer des contenus plus recherchés, à même de conquérir et fidéliser une audience par la qualité. L'incompatibilité ARKit/ARCore est totale, les smartphones android n'autorisant pas l'utilisation de ce dernier. En développement Si la WebVR a été un petit évènement sur la sphère internet, cela n'a été que de courte durée: Il est actuellement considéré comme non compatible avec l'actuel WebXR qui est considéré toujours "en développement". Cela signifie qu'à cause des rétro-compatibilités, il n'est pas sûr qu'il soit bien judicieux de se lancer à présents dans d'importants développements. Ce que reflète l'actuelle tendance vers du "snacking" au niveau de la production. Sketchfab Editor (non testé encore) Protocoles XR: Deux cas de figures: -Soit l'application requiers une immersion -Soit l'application est en "magic window" (non immersif). 1-L'expérience requiers la création d'un calque graphique (rendus en bitmap) 2-Boucle de rendu lancée, produisant des frames graphiques pour display 3-La boucle se fait à travers ses vues et dessine le contenu à partir d'elles 4-Le process se répète à l'infini jusqu'à ce que l'utilisateur quitte la session. Considérations préalables: Pour développer une application simplissime en AR (sur ARCore) par exemple, afficher un modèle 3D en réalité augmentée, il est nécéssaire pour les tests d'avoir par exemple Android version 8.0 Orea ou plus, avoir ARCore installé, et Chrome Canary sur le device d'affichage, mais aussi un serveur adéquat (sécurisé et rapide). Enfin un cable USB de connection entre la station de travail et le device d'affichage (ex. smartphone). La connaissance du code web mais surtout de Chrome DevTools est un plus. Le webserver de développment Chrome possède l'adresse IP http://127.0.0.1:8887 et le port d'accès doit être à 8887 pour afficher le contenu sur localhost:8887, a vérifier sur chrome://inspect. Il y a des possibilités de l'affichage "unsupported browser", ce qui indique que la version du navigateur n'est pas la bonne. L'hébergement choisi si autre que Chrome, sera nécessairement en https. Notons qu'ici l'affichage passe par l'utilisation de THREE.js. Coder une expérience AR nécéssitera l'utilisation d'un "hit point", point d'affichage sur le sol "réel", nécéssitant en fait un calibrage du smartphone dans son environnement, et s'assurer que ce dernier, selon son inclination/disposition comprend bien son environnement réel pour une bonne intégration des objets. Cela passe par l'API XRSession. Une fois la mise en place de l'objet, son affichage dépend au préalable de l'affichage d'un réticule au sol. Pour les tests d'affichage les plus basiques, préalables, un simple cube en code peut permettre déjà de sécuriser le placement, l'étape suivante étant de charger par exemple un modèle 3D creative commons de la bibliothèque Google Poly. L'ajout d'une ombre se fait dans un second temps. Il utilise la propriété WebGLrenderer de THREE.js. La propriété pour l'ombre est Shadowmesh dont on définit la position comme propriété enfant du modèle 3D. Voir quelques exemples A noter que d'après le site Babylon.js, le plein support des animations en AR est toujours en développement, la version actuelle ne supporte que la parité WebVR/WebXR de manière à reconvertir les expériences vers ce format.

Les possibilité de création sans coder

Le grand standard AVEC CODE est assez riche, dès lors que l'on souhaite créer avec: A-Frame: (WebVR, Composants-entités, simple pour débutants), THREE.JS: Librairie javascript pour WebXR et Polyfill. React360: Pour utiliser la librairie React360 de Facebook, d'accès plus facile. Il existe deux types de plate-forme utilisables pour aider à la création: -PlayCanvas -Sumerian A noter que d'autres acteurs permettent d'utiliser ce système pour des applications: Ex. InstaVR https://www.instavr.co/ Ne pas oublier les acteurs de niche "pure players", notamment dans l'immobilier: https://delight-vr.com offrant aussi des possibilités de création sans code.

Playcanvas

A la base une moteur de rendu 3D pour le web. Permet de faire aussi bien de la VR que de l'AR. A la base conçu pour WebVR 1.1, mais disposant d'une extension AR. Point fort: Il dispose du PlayCanvas Editor qui permet de créér une expérience en drag-and-drop sans taper une ligne de code. A première vue, c'est un dérivé de l'inspecteur de code de base WebVR/AFrame. L'éditeur permet une large gamme d'expériences comme par exemple le déplacement par bonds plutôt que par les touches du clavier, ou certains niveaux d'interaction. Ex.https://playcanv.as/p/sAsiDvtC/

Sumerian

AWS Sumerian pic gallery Ce dernier fait part de la galaxie Amazon Web Services. Outre l'hébergement optimisé VR/AR d'AWS, les applications développées par Sumerian sont compatibles avec Oculus Rift, Oculus Go, Oculus Quest, HTC Vive, HTC Vive Pro, Lenovo Mirage Solo, Samsung Gear VR et Google Daydream. La mise en place des éléments, variables et interactions se fait via VR Asset Pack, important tout les prérequis dans la scène. Le pack cmprend l'Ajout de la fonctionnalité 'VR Grab' aux entités (haptique quand possible) avec les manettes, l'ajout de la fonctionnalité de téléport VR aux entités, et l'ajout de fonctionnalités aux entités VR déclenchant des comportements d'entités. Le lancement d'une scène demande d'importer les assets (bibliothèques de codes et d'effets) puis d'importer le Current VR camera rig, après avoir importé l'entité VRCameraRig. Coup d'oeil sur le tutorial de création Sumerian.

CreateWebVR pour en savoir plus

Ce site met en exergue les bibliothèques vues plus haut, Create WebXR, et permet de couvrir l'AR et la VR, et l'ensemble des plateformes connus, et les outils tels que: Pour l'AR: Pour la VR, outre ceux vus plus haut, et l'A-Frame inspector: En savoir plus & ressources: https://immersive-web.github.io/webxr-reference/webxr-device-api/lifetime.html https://webxr.nl/news/ https://ios-viewer.webxrexperiments.com/ https://codelabs.developers.google.com/codelabs/ar-with-webxr/#0 https://developers.google.com/web/updates/2018/05/welcome-to-immersive https://dev.to/chrystianv1/comparing-google-arcore-and-apple-arkit-2lin https://immersive-web.github.io/webxr-samples/ https://doc.babylonjs.com/how_to/webxr https://www.supermedium.com/

Open XR, le standard tant attendu de la VR/AR

Rédigé par dbodesign Aucun commentaire
Classé dans : Réalité Mixte Mots clés : aucun

C'est à la Game Developers Conference 2017 que Khronos (Qui opère et édite le standard WebGL) annonçait un groupe de travail créé spécialement pour le WebXR. Ce standard open source est destinée à devenir le grand standard accepté par tous, capable de supporter les expériences étendues de type réalité virtuelle, augmentées comme mixte. C'est une nouvelle d'importance, car c'est le web qui d'une part va servir ces expériences, d'un côté du prisme pour la diffusion la plus large possible, et de l'autre les casques pour des expériences plus haut de gamme, qui comme dans les jeux vidéos pourront exister dans des versions "dégradées" selon les performances du hardware, et correspondre aux moyens de chaque utilisateur.

D'après le site, "la norme OpenXR comprend deux parties, l'interface d'application, que les développeurs d'applications et fournisseurs de middleware éditent, et sert à définir et combiner des fonctionnalités communes et multiplateformes. Ce qui permet aux développeurs d'applications d'écrire du code une fois pour toutes, et concentrer sur l'innovation dans leurs applications plutôt que le support multi-interfaces pour une quantité d'appareils. Deuxième aspect, le Device Layer permet aux runtimes VR/AR de s'interfacer avec différents périphériques: Si un fabricant veut ajouter la prise en charge d'un nouveau périphérique, il implémente un code conforme à la spécification de la couche du périphérique, et son matériel sera immédiatement compatible avec les applications écrites pour le Layer d'application."

"Enfin ce standard est conçu pour permettre diverses différenciation d'implémentation entre fournisseurs avec des performances et fonctionnalités différentes, mais des implémentations d'exécution prenant en charge les mêmes interfaces standard. Le choix est donc nettement plus important pour les utilisateurs finaux."

On comprend l'importance de cette nouvelle quand on voit la composition des acteurs de ce groupe: AMD (processeurs), ARM (Systèmes embarqués), Antilatency, Collabora, Epic Games, Google, Huawei, Imagination, Intel, LG, LunarG, Mediatek, Mozilla, Nokia, Nvidia, Oculus, Qualcomm, Razer, Samsung, Sensics, Sony, Starbreeze, Pico, Pluto, Tobii, Unity, Valve, Verisilicon, zSpace, entre autres. HTC (Taiwan, associé à Valve), va probablement rejoindre également ce groupe. Le ticket d'entrée est de 3500 dollars.

Fonctionnement du standard, avec l'adoption d'OpenXR (https://www.khronos.org)

Seul à ne pas participer à ce standard: Microsoft, qui dispose de son propre standard propriétaire, et disposant d'un OS dominant le marché avec des liens de longue date avec les fabricants, peine à commercialiser sa gamme de casques de réalité mixte et virtuelle. C'est direct X contre Vulkan (API Graphiques) Windows Mixed Reality contre Open XR. Le standard Open XR est une bonne nouvelle pour les développeurs qui vont passer moins de temps à trouver des passerelles, aux Editeurs qui vont pouvoir décliner plus de contenus, les rendre rentables et de meilleure qualité, les consommateurs qui vont avoir plus de possibilités, et les fabricants qui vont pouvoir mieux justifier l'achat de leur hardware. Microsoft de son côté espère toujours capitaliser sur sa position dominante dans les jeux vidéos et contrôler le marché dans les années à venir.

En savoir plus:
  • http://voicesofvr.com/509-valves-joe-ludwig-on-khronos-groups-openxr-vr-standard/
  • https://www.khronos.org/blog/the-openxr-working-group-is-here

La Réalité Mixte en passe d'entrer dans le monde des entreprises

Rédigé par dbodesign Aucun commentaire
Classé dans : Réalité Mixte Mots clés : aucun

La MR ou "Mixed Reality" (en Français réalité mixte, mais le terme sera déjà obsolète quand nos académiciens décideront de l'adopter) est une forme intermédiaire de réalité étendue, entre la réalité augmentée et la réalité virtuelle. C'est à la base une réalité augmentée, mais sur stéroïdes en intégrant des éléments 3D complexes et des interactions riches, notamment en intégrant la gestuelle.

La réalité augmentée dans l'industrie

Cas d'école: Vinci et Agco

Le monde des entreprises avait déjà adopté la réalité augmentée dès la sortie de la version pro pour Google Glass, et depuis de nombreux prestataires ont créé des contenus, tandis que d'autres ont procuré des lunettes spécialisées. Le groupe Vinci, par exemple, a été le premier à adopter Google Glass, en 2015 pour ses techniciens, en France.

Vinci

Vinci Energie Le groupe en Décembre 2016 investissait dans Augmensys, une société Autrichienne spécialisée dans la réalité augmentée à usage industriel. En 2017, Axians et Actemium (VINCI Energies) annonçant leur alliance avec la start-up Fieldbit, pour développer un service d’assistance à distance basé sur la réalité augmentée. En outre Vinci immobilier utilise la réalité virtuelle depuis un certain temps,

AGCO

L'un des pionniers de cette technologie aux USA est AGCO, à Atlanta, qui produit des tracteurs, pulvérisateurs chimiques et équipements agricoles. Concrètement les Google Glass donnent aux employés des guidelines spécifiques en cours de route (process), donne des instructions en cas d'oubli et indique des pièces et parts. C'est un ordinateur embarqué qui procure également bien d'autres informations à la demande en vocal et en direct, comme les stocks, timing, etc. numérise le numéro de série et poste de travail, fait apparaître des manuels, photos et vidéos d'aide et même permet de laisser des notes vocales géolocalisées destinées au prochain travailleur posté.

Peggy Gullick, directrice process d'AGCO, reconnait que l'adoption de Google Glass à provoqué une révolution positive dans l'efficacité de l'entreprise. Les contrôle qualité sont 20% plus rapides, et permet une formation au vol et une intégration bien plus rapide des nouveaux arrivants succédant aux tablettes, fragiles, difficile à manier sur un haut tracteur. La solution des lunettes à permis de s'affranchir de ces risques en produisant les informations devant le porteur et libérant ses mains. 100 employés d'AGCO utilisent Google Glass avec une application dédiée qui leur est attachée, systèmes qui coûtent environ 2000 $ par personne. Les entreprises travaillant dans les secteurs de la santé, du divertissement et de l'énergie figurent parmi les partenaires certifiés Google Glass.

Autres exemples:

Tetra Pack, qui a adopté la RA pour la formation de ses opérateurs, la RTE vient de lancer la formation de ses techniciens en réalité augmentée (Avril 2018), Diota annonçait en Février 2018 vouloir automatiser le contrôle qualité industriel en mêlant robotique et réalité augmentée utilisé notamment par SAFRAN, FollowKnee (prothèses connectées) annonçait en Janvier 2018 la combinaison de la réalité augmentée, de l'impression 3D pour révolutionner la chirurgie du genou, Nomadeec propose une appli pour dispenser au SAMU des informations en opérations, Koolicar propose l'AR pour la location de voiture sur smartphone, Renault Truck teste la RA pour le contrôle qualité, La Redoute a lancé un catalogue virtuel en RA, Tencent propose une appli RA pour son service WeChat, FORD développe adopte la RA pour augmenter l'efficacité de ses équipes de design, IKEA a lancé une appli RA pour faciliter le shopping en ligne, Siemens a adopté la RA pour ses opérateurs de turbines à gaz avant d'autres déploiements (avec Daqri), Dassault Aviation utilise Hololens pour la maintenance, et teste la fabrication, Alstom a développé des preuve de concept avec HoloLens pour aider les équipes commerciales à la vente et la maintenance, Honeywell l'a adopté pour la formation, ThyssenKrupp le teste pour ses techniciens, Keyveo veut le généraliser dans le retail, Keolis Commuter Services l'a déployé pour ses mécaniciens, Newport News Shipbuilding le teste pour la construction de porte-avions, Toyota propose une app en réalité augmentée qui remplace sa notice dans ses voitures, Airbus la déploie pour le contrôle qualité... Et ce n'est qu'un échantillon.

Les promesse de la réalité Mixte   Sources
  • https://www.vinci.com/vinci.nsf/fr/actualites/pages/vinci_energies_investit_dans_la_realite_augmentee_autriche_122016.htm
  • https://www.cmswire.com/digital-experience/virtual-and-augmented-reality-are-ripe-for-the-enterprise/
  • https://www.npr.org/sections/alltechconsidered/2017/03/18/514299682/google-glass-didnt-disappear-you-can-find-it-on-the-factory-floor
  • http://www.newelectronics.co.uk/electronics-technology/combining-the-physical-with-the-virtual/172442/

Une Bibliothèque WebXR de modèles en code

Rédigé par dbodesign Aucun commentaire
Classé dans : Réalité Mixte Mots clés : aucun

Le WebVR et WebXR ont été présentés sur ce blog déjà en détail, mais c'est en travaillant sur des expériences concrêtes que j'ai eu l'idée de définir deux pistes pour améliorer le "produit" de la réalité mixte sur le web, en attendant que le language et la technologie soit plus mature.

L'interface de création WebXR

- La première idée est une interface qui permette de gagner du temps dans la conception des espaces VR/XR. Un "wysiwig" basé sur l'inspecteur AFrame que l'on peut obtenir sur n'importe quelle expérience VR en appuyant sur ctr+alt+i.

Il suffirait en effet de permettre à cette interface de générer du code en direct sur la page, ce qui est bien sûr impossible en l'état, le navigeur n'ayant aucune prise sur l'hébergement de l'expérience. Une adaptation serait donc la bienvenue, avec des simplifications plus "user friendly". C'est l'idée de qwazaam.com

Note: Il est toutefois possible d'exporter le code obtenu en html ou de copier la scène au clipboard (cache). cela permet ainsi de le transvaser facilement sur la page en cours d'édition. Mais l'utilisateur lambda lui, devra avoir un outil qui fasse cette étape également.

Il y a des applications spécifiques déjà destinées à créer des espaces virtuels en "3 clics" depuis son smartphone dans l'immobilier. Leur simplicité tient dans le fait que ces applications ne gèrent que quelques aspects basiques de l'expérience: Assemblage d'une photos 3d et quelques éléments de liens (flèches) qui ne sont pas personnalisables. Mais quid d'une interface permettant de créer n'importe quelle expérience VR/XR et générer le code ou intégrer des éléments externes (photos, vidéos, modèles 3d, textes...) avec une vue en 3d ? L'idée d'une telle interface suit son cours. Un exemple récent: XR.plus par l'agence Franco-Polonaise Lune.xyz.

banque de données 3d en code

-la seconde idée est celle d'une alternative à l'importation de modèles 3D externes, venant de Unity, 3DsMax, Blender, Maya... pour ne citer que ceux-ci. Il y a souvent des problème de liaison entre les textures et modèles, voire le modèle n'apparait pas sur des expériences WebVR/XR, limité par ailleurs aux modèles compatibles .gtlf ou .obj.

Cette alternative est la création de modèles 3d en code... Chercher et tester un modèle 3d pour une expérience prends du temps. Enormément en fait. Il est parfois plus rapide de créér le modèle que l'on souhaite en 3d en combinant des formes simples et une texture avec quelques effets au besoin. Touefois il reste des écueils à cette technique:

Créér les volumes 3d puis les assembler prends du temps (et heureusement l'inspecteur est là pour donne des coordonnées fiables !) "grouper" des groupes d'objets polyformes reste relativement complexe.
Ex. une table basique en code 3d nécéssite: Un rectangle orientés à 90° vertical pour l'un (dossier) et quatre cylindres (pieds) avec une texture. En code cela donne: <a-scene> <!--Piece principale--> <!--Table--> <a-box position="-1.5 0.76 4" rotation="0 0 0" scale="1 0.02 0.8" static-body material="src: #armoire"></a-box> <!--Pieds--> <a-cylinder position="-1.92 0.33 3.68" radius="0.02" height="0.8" scale="1 1 1" static-body material="src: #armoire"></a-cylinder> <a-cylinder position="-1.92 0.33 4.3" radius="0.02" height="0.8" scale="1 1 1" static-body material="src: #armoire"></a-cylinder> <a-cylinder position="-1.1 0.33 3.68" radius="0.02" height="0.8" scale="1 1 1" static-body material="src: #armoire"></a-cylinder> <a-cylinder position="-1.1 0.33 4.3" radius="0.02" height="0.8" scale="1 1 1" static-body material="src: #armoire"></a-cylinder> On peut toutefois créér un groupe avec <a-entity> et lui affecter une échelle et une position, une rotation, ainsi que la plupart des autres paramètres accessibles aux objets. Ce qui donne en code: <a-entity position="0 0 0"> <a-box position="-1.5 0.76 4" scale="1 0.02 1" static-body material="src: #armoire"></a-box> <!--Pieds--> <a-cylinder position="-1.92 0.33 3.68" radius="0.02" height="0.8" scale="1 1 1" static-body material="src: #armoire"></a-cylinder> <a-cylinder position="-1.92 0.33 4.3" radius="0.02" height="0.8" scale="1 1 1" static-body material="src: #armoire"></a-cylinder> <a-cylinder position="-1.1 0.33 3.68" radius="0.02" height="0.8" scale="1 1 1" static-body material="src: #armoire"></a-cylinder> <a-cylinder position="-1.1 0.33 4.3" radius="0.02" height="0.8" scale="1 1 1" static-body material="src: #armoire"></a-cylinder> </a-entity>

Maintenant qu'en est-il des groupes de groupes. Ex. Je place des objets séparés sur ma table, plus une chaise, et je souhaite bouger l'ensemble à l'autre bout de la pièce... cela veut dire que je vais devoir faire fonctionner des sous-groupes ensemble et donc emboiter des "entities" sur plusieurs niveaux.

Donc l'idée reste valide. On peut imaginer intégrer un bout de code qui sera l'objet 3D avec ses variables de lumière, textures, et images dans un dossier séparé. Le principal avantage - textures à part - c'est la vitesse d’exécution, le code directement dans la page étant nettement moins lourd que le chargement d'un modèle compilé;

L'implémentation cependant est dans ce cas tout sauf "user-friendly" a moins d'avoir un Wysiwig qui puisse comprendre et redistribuer les code fournis dans le bon ordre sur la page finale. Dans tous les cas, un test de performances s'impose !

L'enjeu ? Des expériences XR plus fluides (réalité mixte et augmentée), basée par exemple sur des marqueurs pour des applications print.

 
Fil RSS des articles de cette catégorie