Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierSonovision - Innovation Technologique

Canon EOS M50 : le concentré de technologies qui intègre la vidéo 4K !

Canon EOS M50 : le concentré de technologies qui intègre la vidéo 4K ! © DR

Canon Europe lance l’EOS M50, le nouveau représentant de la gamme des Canon EOS M. Ces modèles hybrides sont parmi les plus technologiquement avancés et les plus intuitifs à utiliser de la famille des appareils photo Canon. Conçu pour les photographes amateurs à l’esprit moderne et aventurier, l’EOS M50 est le premier de la gamme hybride proposant l’enregistrement vidéo 4K, un écran tactile orientable et un processeur Canon DIGIC 8.

 

 

L’EOS M50 est Bluetooth et Wi-Fi pour une connectivité pratique et d’un capteur APS-C de 24,1 millions de pixels. Ce capteur ouvre la voie à l’acquisition d’images de haute résolution, même en faible lumière, et à la possibilité d’isoler des sujets sur de très beaux fonds flous. Avec la puissance du processeur DIGIC 8, il permet également d’enregistrer des vues à la cadence de 10 images par seconde afin de saisir l’instant crucial dans les meilleures conditions.

Il représente un choix parfait pour les photographes habitués à un smartphone ou à un appareil photo compact mais qui souhaitent élever leur potentiel de prises de vues et de créativité à un niveau supérieur, en particulier grâce à la possibilité de disposer d’un système d’objectifs interchangeables tout en conservant un équipement léger et facile à utiliser.

Doté des technologies les plus récentes, le Canon EOS M50 réunit les qualités fondamentales d’un reflex dans un boîtier suffisamment compact et léger pour accompagner toute forme d’aventures. Afin d’assurer un autofocus ultra-rapide et très réactif, il embarque le système Canon AF CMOS à double pixel qui permet aux photographes de réaliser des photos et des vidéos HD de haute résolution avec un contrôle artistique optimum sur la profondeur de champ. Le capteur CMOS APS-C de 24,1 millions de pixels qui permet d’obtenir des vidéos à l’aspect cinéma atteint désormais de nouveaux niveaux de détails exceptionnels grâce à la possibilité d’enregistrer en 4K pour porter le niveau de résolution des images à 4 fois celui de la Full HD.

L’EOS M50 intègre le plus récent des processeurs Canon : le DIGIC 8, qui fait son apparition pour la première fois dans un appareil photo Canon. Ce nouveau processeur gère plusieurs fonctions et en particulier l’enregistrement vidéo 4K, la vidéo d’animation 4K, l’extraction de photos 4K depuis des vidéos 4K, l’enregistrement photo en continu rapide et la gestion de la sensibilité 25.600 ISO pour l’acquisition

d’images bien nettes en faible lumière. Le DIGIC 8 assure également le pilotage d’une grande partie des optimisations de l’autofocus, de l’optimiseur d’exposition automatique, de l’optimiseur d’objectif numérique et du mode priorité aux hautes lumières, afin de produire des images de haute qualité prêtes à être partagées dès leur sortie de l’appareil.

Son design audacieux et contemporain apporte une touche de modernité dans la pratique de la prise de vues classique, en particulier grâce à son grand viseur électronique central. L’utilisateur peut également expérimenter les cadrages créatifs, réaliser facilement des selfies et enregistrer des vidéos variées grâce à l’écran tactile orientable de 7,5 cm qui permet de multiplier les perspectives d’enregistrements de séquences originales. Les possibilités tactiles évoluées concernent l’autofocus par toucher/glisser pour faire la mise au point de manière rapide et instinctive sans avoir à quitter l’œil du viseur.

 

Connectivité et contrôle par Wi-Fi et Bluetooth

Le Canon EOS M50 s’intègre facilement parmi des périphériques mobiles par l’intermédiaire de l’application gratuite Canon Camera Connect, disponible pour iOS et Android. Une connexion Bluetooth constante à faible consommation d’énergie permet de « réveiller » l’appareil depuis un smartphone ou une tablette pour en contrôler le déclenchement à distance ou le passer en mode Wi-Fi pour une prise de vues en live View télécommandée ou encore, pour un transfert d’images.

Les photos et les vidéos peuvent être transférées automatiquement de l’appareil vers des périphériques mobiles afin d’être partagées sur des réseaux sociaux. Cela assure rapidité et grande souplesse entre la prise de vues et le partage des images. D’autre part, il est possible de sauvegarder photos et vidéos sur le Cloud grâce au service Canon irista, ou de synchroniser automatiquement et sans câble, des ordinateurs Windows et Mac après avoir installé l’utilitaire Canon Transfer Utility 2.

Pour les photos de groupes, les vidéos pour blogs vidéo et toutes les applications à visée créative, les utilisateurs d’un EOS M50 peuvent le contrôler à distance en live view par l’intermédiaire de l’application Canon Camera Connect qui permet le changement des réglages de prise de vues et la prévisualisation des images sur un périphérique mobile.

 

Des technologies inspirantes pour réaliser de belles histoires en images

Le Canon EOS M50 enregistre automatiquement des photos et des vidéos parfaitement équilibrées par les fonctions d’optimisation de résultat du processeur d’image DIGIC 8. Les simples images-souvenirs peuvent être transformées en véritables petites séquences de grand cinéma bénéficiant de la richesse de détail de la vidéo 4K et du réalisme de la couleur signée Canon.

Avec la possibilité d’enregistrement vidéo HD jusqu’à 120 images par seconde, les séquences d’action sont restituées de manière très fluide avec des possibilités de lecture spectaculaire au ralenti. En photo, de magnifiques instantanés peuvent être saisis au meilleur moment grâce à l’acquisition en continu à 10 images par seconde, une cadence atteinte pour la première fois par un appareil Canon hybride. Il est également possible d’enregistrer à 7,1 images par seconde en conservant l’avantage d’une mise au point autofocus en continu.

L’EOS M50 est le premier appareil photo proposant le nouveau format de fichier RAW CR3 sur 14 bits ainsi qu’une nouvelle option C-RAW qui génère des fichiers RAW de pleine résolution tout en économisant environ 30 à 40% de poids par rapport à un fichier RAW standard. Cela permet logiquement d’augmenter le nombre de vues qu’il est possible d’enregistrer sur une carte mémoire tout en conservant les avantages intrinsèques du format RAW.

 

Un objectif pour chaque circonstance

L’EOS M50 est compatible avec les objectifs compacts et de haute qualité de la gamme Canon EF-M. Cela permet à l’utilisateur de composer le système idéal et compact de son choix. Et pour une souplesse et un potentiel créatif encore plus grands, l’EOS M50 est également compatible avec plus de 80 des célèbres objectifs Canon EF et EF-S grâce à la bague d’adaptation EF-EOS M (Canon, N°1 du marché des optiques et du marché de la photo en France en 2017).

La photographie au flash est également un domaine d’exploration largement abordable grâce à la griffe porte-accessoire qui permet de connecter facilement l’un des flashes de la gamme Canon Speedlite. Côté audio, les possibilités sont également nombreuses avec l’entrée micro 3,5 mm qui permet le branchement d’un micro dédié tel que le modèle directionnel Canon DM-E1.

Avantages clés :

  • Simplicité et approche moderne de la prise de vues, superbes résultats 

  • Compacité, ergonomie, utilisation intuitive 

  • Connectivité complète, contrôle par Wi-Fi et Bluetooth 


Éléments fournis : 


  • Boîtier EOS M50 (disponible en version noir ou blanc) 

  • Protection R-F-4 

  • Courroie EM-200DB 

  • Batterie LP-12 

  • Chargeur de batterie LC-E12E 

  • Câble d’alimentation du chargeur de batterie


 

 

Prix et disponibilité :

L’EOS M50 est disponible à partir de Mars 2018. Il est disponible en pré-commande dans la boutique Canon en ligne ainsi qu’auprès de nos principaux revendeurs.

L’EOS M50 avec l’objectif EF-M 15-45 mm f/3,5-6,3 IS STM est au prix conseillé de 699,99€ TTC.

  • 27 février 2018 à 11:48

Mobile Word Congress : Huawei dévoile le premier terminal 5G au monde !

Mobile Word Congress : Richard Yu, PDG de Huawei Consumer Business Group revient sur les dix dernières années du développement de la 5G chez Huawei et dévoile le premier terminal 5G au monde ! © DR

Huawei a annoncé lors du Mobile World Congress à Barcelone le lancement de son équipement HUAWEI CPE 5G, le premier terminal commercial au monde prenant en charge la norme de télécommunication reconnue à l’échelle mondiale 3GPP pour la 5G. Ce dispositif marque une étape importante qui prépare le terrain pour la prochaine génération de connectivité sans fil.

 

 

Afin de garantir les meilleures performances de son CPE 5G, Huawei a utilisé sa propre puce réseau Balong 5G01 – la première puce réseau disponible commercial au monde à prendre en charge la norme 3GPP pour la 5G, avec des vitesses théoriques de liaison descendante allant jusqu' à 2,3Gbps.

Il supporte la technologie 5G sur toutes les bandes de fréquences, y compris les fréquences inférieures à 6GHz et les ondes millimétriques (mmWave), pour offrir une solution 5G complète et adaptée aux cas d'utilisation multiple. Cette puce Balong 5G01 fait de Huawei la première entreprise à proposer une solution 5G de bout en bout grâce à son réseau, ses appareils et ses capacités.

« La technologie 5G portera la prochaine avancée de notre monde intelligent, où les personnes, les véhicules, les foyers et les appareils seront pleinement connectés, offrant de nouvelles expériences, des idées et des capacités nouvelles », a déclaré Richard Yu, PDG de Huawei Consumer Business Group. « Depuis 2009, Huawei a investi 600 millions de dollars pour la recherche et le développement dans les technologies 5G, où nous avons ouvert la voie avec des innovations en matière d’architecture de réseau, d’utilisation de spectre, de vérification sur le terrain et plus encore. Qu’il s’agisse de véhicules connectés, de maisons intelligentes, de vidéos en Réalité Augmentée / Réalité Virtuelle ou d’hologrammes, nous nous engageons à développer un écosystème 5G mature afin que les consommateurs puissent profiter d’un monde réellement connecté, capable de transformer notre façon de communiquer et de partager. »

 

Le CPE HUAWEI 5G offre deux modèles, le CPE 5G à basse fréquence (en dessous de 6GHz) et le CPE 5G à haute fréquence (mmWave). Le CPE HUAWEI 5G à basse fréquence est petit et léger, compatible avec les réseaux 4G et 5G, et a démontré des vitesses descendantes allant jusqu' à 2Gbps - 20 fois supérieures à celles de la fibre 100Mbps. Cela offre une expérience utilisateur ultra-rapide, permettant de profiter de vidéos en Réalité Virtuelle et d’expériences de jeu, ou de télécharger une émission de télévision en une seconde. Le CPE HUAWEI 5G à haute fréquence est disponible en unités intérieures et extérieures.

Les réseaux 5G établissent de nouveaux standards pour les connexions sans fil à haut débit, à large bande passante et faible latence, avec un taux de liaison descendante de pointe de 20 Gbps, une prise en charge d'un million de dispositifs par kilomètre carré et une latence aussi faible que 0,5 ms. La 5G promet une connexion améliorée entre les utilisateurs et l’Internet des Objets, augmentant le nombre de dispositifs qui peuvent être connectés ainsi que la quantité et le type de données qui peuvent être partagées entre eux.

Huawei CBG a conçu une stratégie de développement d’appareils 5G qui fait usage des qualités de la 5G en matière de haute vitesse, de faible latence et de grande connectivité pour créer des expériences connectées plus riches et variées pour les utilisateurs. Cette stratégie comprend les smartphones, le Wi-Fi mobile, les modules industriels et d’autres dispositifs permettant de connecter les personnes et les objets dans leurs foyers, leurs véhicules et au- delà.

Huawei a établi des partenariats avec plus de 30 opérateurs de télécommunications internationaux, dont Vodafone, Softbank, T-Mobile, BT, Telefonica, China Mobile et China Telecom. En 2017, Huawei a commencé à tester des réseaux commerciaux 5G avec des partenaires, à promouvoir le développement de l’industrie et l’achèvement des essais d’interopérabilité, ainsi qu’à proposer une première série de réseaux commerciaux 5G en 2018.

  • 8 mars 2018 à 15:18

Innovation santé : prothèse connectée & Réalité Mixte

Innovation : prothèse connectée & Réalité Mixte © DR

Immersion, leader européen de la réalité virtuelle et augmentée et des solutions collaboratives, annonce le lancement de FollowKnee, projet de recherche en e-santé d’un budget global de 24,5 millions d’euros. Sa vocation : développer une prothèse de genou connectée destinée à améliorer le suivi des patients. Partenaire du projet, Immersion aura pour mission d’étudier, concevoir et produire l’expérience en Réalité Mixte qui aidera les chirurgiens, au bloc opératoire, à optimiser la pose de cette prothèse innovante. En santé comme pour les industries, Immersion démontre que la Réalité Mixte constitue une véritable opportunité pour la collaboration et la prise de décision.

 

Les belles promesses de la santé connectée

Face aux évolutions démographiques (population vieillissante, prévalence de l’obésité, patients toujours plus jeunes et plus actifs) qui impactent fortement les enjeux de la chirurgie du genou, l’évolution de la prise en charge de cette pathologie est devenue stratégique (la pose de prothèses de genou ne cesse d’augmenter, +600 % d’ici 2030). Aujourd’hui, les innovations émergent de plus en plus du côté des interventions chirurgicales. Tel est le cas du projet FollowKnee conçu pour révolutionner le traitement du genou et la prise en charge globale du patient : en amont de l’opération jusqu’à son suivi post-opératoire.

Dès le diagnostic, le genou sera scanné en 3D pour garantir la fabrication d’une prothèse sur-mesure. La numérisation des données rendra ensuite accessible le partage d’informations avec tous les acteurs du protocole, de l’acte chirurgical au suivi post-opératoire. Les capteurs intégrés à la prothèse permettront enfin de suivre le fonctionnement mécanique de l’articulation du genou et de détecter le plus tôt possible les éventuels signes d’infection.

 

FollowKnee, zoom sur un projet e-santé inédit et collaboratif

Dans un contexte où la sélection des projets de recherche est de plus en plus ardue, le consortium de ce projet de recherche a convaincu les experts de l’Agence Nationale de la Recherche (ANR) de financer ce projet d’un budget global de 24,5 millions d’euros. FollowKnee fait partie des dix projets RHU (Recherche Hospitalo-Universitaire) récemment sélectionnés par le gouvernement, dans le cadre du programme d’Investissements d’Avenir. Sa particularité consiste à associer recherche, médecine et entreprises pour incarner l’excellence française dans certains domaines technologiques d’avenir.

Très rares sont les équipes de recherche dans le monde qui travaillent sur le même sujet. D’une durée de 5 ans, FollowKnee propose d’apporter des réponses concrètes à chaque étape de la chaîne : améliorer la conception, la fabrication, la pose et le suivi personnalisé des prothèses implantées. Partenaires du projet : Le LaTIM (laboratoire à l’interface entre l’Université de Bretagne Occidentale (UBO), l’Institut Mines-Telecom Atlantique (IMTA), l’INSERM et le CHRU de Brest), piloté par son directeur, le Professeur Eric Stindel, coordinateur du projet ; Immersion ; Imascap ; la société SLS ; b<>com ; ID2Santé ; le CEA Grenoble.

« Avec FollowKnee, nous apportons non seulement notre savoir-faire et nos technologies dans un environnement particulièrement exigeant et contraignant, celui du bloc opératoire, mais aussi et surtout au service d’usages concrets aux enjeux sociétaux forts, ce qui est particulièrement motivant pour l’équipe » insiste Julien Castet, en charge de la Recherche à Immersion.

 

Des essais avec 250 patients

D’une durée de 5 ans, le projet s’articulera en deux étapes. « D’ici 3 ans, nous allons d’abord réaliser des prothèses de genoux imprimées en 3D qui seront implantées sur 220 patients, précise le Pr Eric Stindel, coordinateur du projet.

Ensuite, nous y implanterons les capteurs que nous testerons avec 30 patients. Nous proposerons cette nouvelle prothèse à des patients plutôt jeunes pour superviser son fonctionnement sur un temps long. » L’objectif est d’obtenir un produit commercialisable avec une évaluation clinique des résultats d’ici 5 ans.

 

La santé, un secteur collaboratif en phase avec la stratégie d’immersion

Immersion est déjà intervenue dans plusieurs projets santé comme Phénovirt, SCOAL et ACORFORMed. Immersion collabore régulièrement à des projets de recherche autour d’applications aussi différentes que l’usine du futur, le BIM, la gestion de crise, l’aéronautique, etc... Le point commun ? Tous ces domaines ont les mêmes besoins de compréhension, de collaboration et de prise de décision. Pour la réalisation des gestes techniques, le transfert de compétences, l’agrégation des données et le partage de connaissances, Immersion est convaincue que les bénéfices de l’utilisation de la réalité virtuelle, augmentée et mixte ainsi que des solutions collaboratives sont indéniables.

Grâce au projet FollowKnee, l’entreprise souhaite aujourd’hui continuer à démontrer que la Réalité Mixte constitue une véritable opportunité pour collaborer, en partageant les informations avec tous les intervenants, et faciliter la prise de décision.

« Le champ d’expérimentation ouvert par l’utilisation de la réalité virtuelle, augmentée et mixte ainsi que la collaboration dans le milieu médical est considérable. Ce type de projet nous permet de démontrer que les nouvelles technologies contribuent à avancer dans le suivi personnalisé des patients, véritable enjeu en termes de e-santé » explique Christophe Chartier, PDG et co-fondateur d’Immersion.

  • 22 mars 2018 à 15:27

Ericsson prévoit 1 milliard d’abonnements 5G en 2023

© Ericsson

Selon le dernier rapport Ericsson sur la mobilité*, la 5G couvrira, dans six ans, plus de 20 % de la population mondiale et le LTE atteindra les 5,5 milliards d’abonnés, soit plus de 85% des êtres humains. Le trafic de données mobiles poursuivra ainsi sa progression, principalement sous l’impulsion de la consommation de contenus vidéo par la génération Y.

 

Dans un premier temps, le déploiement de la 5G est prévu dans les zones urbaines denses. Les premiers réseaux commerciaux basés sur la technologie 5G NR (New Radio) devraient entrer en service en 2019, suivis de déploiements plus vastes à compter de 2020. Les premiers développements de cette technologie devraient intervenir aux États-Unis, en Corée du Sud, au Japon et en Chine.

En 2023, le trafic mondial de données mobiles pourrait dépasser les 100 exaoctets par mois. Le trafic de données mobiles serait multiplié par huit sur la période considérée, atteignant 110 exaoctets par mois à l’horizon 2023, l’équivalent de 5,5 millions d’années de streaming vidéo en HD.

Toutes les régions du monde continuent à enregistrer une progression du trafic de données mobiles. Le record de taux d’utilisation moyen par smartphone, à savoir plus de 7 Go par mois en cette fin 2017, est détenu par l’Amérique du Nord.

 

La consommation de contenus vidéo continue d’être le carburant de cette croissance du trafic haut débit mobile. La génération Y, correspondant à la tranche des 15-24 ans, en est le moteur, puisqu’elle consomme 2,5 fois plus de vidéos que les plus de 45 ans.

Le streaming effectué à des résolutions de plus en plus élevées et l’essor des formats immersifs, telle que la vidéo à 360°, auront un impact sur les volumes de trafic de données. Par exemple, une vidéo YouTube à 360° utilise quatre à cinq fois plus de bande passante qu’une vidéo YouTube normale de qualité équivalente.

 

 

L’essor du LTE se poursuit

D’ici la fin de l’année, le LTE deviendra la technologie d’accès mobile prédominante. Le VoLTE (voix sur LTE) a déjà été lancé sur plus de 125 réseaux dans plus de 60 pays. Les abonnements devraient atteindre la barre des 5,5 milliards d’ici la fin 2023, représentant plus de 80 % des abonnements LTE et 5G cumulés.

Les montres connectées sont un des derniers équipements à utiliser le VoLTE. L’utilisateur peut passer un appel vocal directement sur sa montre, sans smartphone à proximité (fonctionnalité multi-SIM). Il peut également transférer des appels de son smartphone vers sa montre.

 

 

Trois nouvelles tendances

Le rapport fait également un focus sur trois nouvelles tendances au sein de l’industrie :

- L’évolution vers des offres de données mobiles plus larges, ainsi que la consommation réelle de données selon les différentes propositions. L’étude met en lumière l’importance de proposer une offre variée, comprenant l’illimité, afin de répondre à la diversité des besoins du consommateur.

- La manière dont les opérateurs et les organisateurs d’événements peuvent améliorer l’expérience événementielle afin de satisfaire les besoins croissants des visiteurs en services numériques et en expériences immersives.

- Les attentes de la génération Y en matière de 5G, autrement dit sa perception de l’expérience mobile, ses désirs et ce que son point de vue implique pour les opérateurs.

 

 

Niklas Heuveldop, responsable stratégie et directeur technologie et activités émergentes d’Ericsson, conclut : « Notre dernier rapport sur la mobilité fait état des tendances en matière d’abonnements mobiles et de croissance du trafic de données, ainsi que des efforts déployés par l’industrie pour faire face aux besoins sans cesse croissants des réseaux mobiles dans le monde. Par ailleurs, le rapport analyse l’émergence de nouveaux cas d’usage au fil de l’évolution des capacités des réseaux, comme par exemple les montres connectées, les alarmes IoT ou encore la maintenance et la réparation assistées par la réalité augmentée, pour n’en citer que quelques-uns. A l’heure où nous nous préparons à l’arrivée de la 5G, ces tendances vont continuer à indiquer à l’industrie mobile la voie à emprunter pour aller de l’avant. »

 

 

* À LIRE ICI  Rapport Ericsson sur la mobilité, édition de novembre 2017 (en anglais)

 

Des rapports régionaux sur l’Europe de l’Ouest, l’Europe centrale et l’Europe de l’Est, le Moyen-Orient et l’Afrique ainsi que l’Amérique latine ont également été publiés parallèlement à ce rapport global d’Ericsson sur la mobilité.

  • 5 avril 2018 à 18:26

NAB 2018 : streaming live 8K VR et 6-Dof chez Kandao

NAB 2018 : Une solution de streaming live 8K VR et une solution 6-Dof chez Kandao © Nathalie Klimberg

La société chinoise Kandao Technology, distinguée par un «Best of Innovation Honoree» sur le CES 2017 pour ses solutions de captation VR Obsidian, renforce son écosystème de produits VR…

 

Sur le NAB, parmi ses nouveautés VR / 360 °, on pouvait découvrir une mise à jour de Kandao Live, logiciel de streaming capable de gérer des captations 8K 360 ° / 180 ° en direct, et une solution volumétrique 6-Dof basée sur un principe de cartes de profondeur généré par ses caméras 3D 360 ° Kandao Obsidian.

"La mise à jour du logiciel Kandao Live propose d’assembler et diffuser en direct de la 4K stéréoscopique sur un PC normal. Nous travaillons également avec des partenaires tels que Visbit pour fournir une solution de streaming et de lecture en direct 8K personnalisable pour répondre aux exigences haut de gamme. », commente Dan Chen, fondateur et PDG de Kandao.

Kandao Live qui fonctionne avec les caméras 3D 360 ° de Kandao Obsidian R / S, suréchantillonne les sources vidéo 6K / 8K pour mettre en place un workflow de streaming live VR en 4K stéréo sans complexité de mise en œuvre. Utilisant un algorithme avancé, Kandao Live, qui prend en charge l'assemblage des flux caméras en temps réel, offre la possibilité d’un réglage de l’exposition et d’un calibrage des couleurs pendant la prévisualisation et le streaming.

Offrant un encodage H.264 / H.265 et une large gamme d'options de sorties, y compris SDI et RTMP, Kandao Live peut gérer une commutation entre plusieurs positions de caméra. Pendant la diffusion en direct, les 6 flux vidéo prétraités capturés par Kandao Obsidian peuvent être sauvegardés sur des cartes SD en résolution 4K pour une post-production ou une lecture future.

Souhaitant hisser l'expérience VR à un niveau supérieur, Kandao développe actuellement une solution complète de capture pour une expérience volumétrique 6-Dof. Les images, générées via des cartes de profondeur capturées par plusieurs caméras Obsidian VR sont traité par un logiciel qui reconstruit les scènes en recréant la vue à partir de n'importe quel point du volume capturé proposant ainsi une expérience 6-Dof (6 Degree of Freedom).

 

Kandao, qui proposait sur le NAB une démonstration, devrait commercialiser bientôt cette solution 6-Dof de bout en bout…

  • 19 avril 2018 à 17:13

Samsung Onyx : L’écran Led entre dans la salle de cinéma

L’écran de 10 m de base, est 4K et 3D et comprend 9 millions de pixels. © Samsung

Le 20 mars 2018, cent-vingt-trois ans après la première projection des frères Lumière, la salle de cinéma Arena Cinemas de Zurich proposait une première mondiale, la diffusion d’un long-métrage grâce à la technologie Onyx Cinema Led de Samsung. Une technologie déjà connue dans le monde de l’affichage et de l’événementiel, mais une première pour la projection d’une œuvre cinématographique. D’ailleurs, il va falloir réinventer la grammaire, nous ne pourrons plus parler de la projection d’un film ! Utiliser un mur Led pour diffuser un film est une suite logique dans l’évolution des technologies audiovisuelles. Bémol, le prix ; et pour le moment, aucune indication n’est fournie.

 

Cette première salle Cinéma Led est au sein du Megaplex (18 salles) Arena Cinemas Sihlcity de Zurich ouvert il y a 11 ans et qui a connu de nombreuses évolutions technologiques, dont le passage au numérique, le passage à la projection Laser, au 4DX et aujourd’hui à l’écran Led.

« Arena Cinemas est un exploitant suisse 
avec un réseau de multiplexes dans les plus importantes villes en Suisse. Nous avons une cinquantaine de salles. Le groupe a été précurseur en Europe de nombreuses innovations technologiques, notamment nous avons été les premiers à installer la technologie de sièges dynamiques 4DX, nous avons six salles équipées à ce jour. Nous pensons qu’il faut être innovant pour aller chercher les clients et non pas être passif en attendant qu’ils viennent dans nos salles », indique Patrick Tavoli, président d’Arena Cinémas.

L’installation de l’écran, l’adaptation et la rénovation de la salle ont pris quatre semaines. Le tout a été réalisé par la société Imaculix. L’écran se compose de 96 panneaux, chacun des panneaux comprend 24 modules, soit un total de 2 304 modules. Les Suisses sont réputés pour leur précision horlogère dans la finition. Il en faut pour aligner les différents panneaux. Grâce au montage sans joint et au calibrage haute précision, le spectateur a l’impression de voir une paroi noire et uniforme. La salle de Zurich comprend 140 places, et l’écran mesure 10,2 m de base sur 5,4 m de haut, ce qui donne un écran d’environ 9 millions de pixels.

« La technologie Cinéma Led, offre de nombreux avantages par rapport à une projection traditionnelle. Notamment la qualité visuelle avec des noirs plus profonds, une diffusion de la lumière uniforme. Nous avons refait le gradinage pour avoir une vision parfaite sur l’écran. Cette salle n’aura pas de majoration, le prix du ticket sera le même que pour les autres salles », poursuit Patrick Tavoli.

 

La Technologie Cinéma Led

La technologie Onyx Cinéma Led a été développée avec le soutien des studios hollywoodiens et elle est bien évidemment compatible DCI. L’agrément a été obtenu en mars 2017. La technologie offre un contraste et une luminosité bien supérieurs à ce qui peut se trouver dans les salles actuelles. Samsung parle de contraste infini (Infinité : 1) ; il est vrai
 que pour faire du noir, il suffit d’éteindre les diodes (le noir est vraiment noir et les blancs très blancs !). L’écran est compatible HDR et la version est 4K et 3D.

À la différence d’une projection conventionnelle, la technologie Cinéma Led permet d’avoir une couleur uniforme sur tout l’écran, y compris sur les bords ; il n’y a pas de hot spot lumineux. Lors d’une projection 3D avec des lunettes, la luminosité est de 300 nits,
 ce qui permet d’apprécier les contrastes de l’image et d’obtenir une 3D plus réaliste. La luminosité générale est de 146 fL (environ 10 fois supérieure à une projection classique). L’écran chauffe, il dégage une température d’environ 28 °, mais cette chaleur se dissipe et n’est pas perceptible pour les premiers rangs. Des questions se posent quant à la diffusion sonore. En effet, le son ne peut pas venir de l’arrière de l’écran. Il vient du haut et du bas de l’écran et l’espace audio est simulé. Le son est conçu par JBL, qui appartient à Harman (aujourd’hui filiale de Samsung). L’algorithme et le système audio, baptisé Sculpted Surround, recentre le son et les murs font office de réflecteurs (un peu comme une barre de son géante).

 

De nouveaux services  

Cette nouvelle technologie d’écran va changer la morphologie des salles, modifier le gradinage et permettre de développer de nouveaux services ; l’exploitant de la salle pense notamment à proposer des dîners avec une ambiance lumineuse normale. Il est vrai que la luminosité est vraiment impressionnante. « La qualité de l’écran et sa technologie vont permettre de diffuser certes des films, mais l’écran pourra aussi servir pour du e-sport et pour des conventions d’entreprise », précise Patrick Tavoli.

« En déployant la technologie Samsung dans les salles de cinéma, les exploitants ont des opportunités de développements commerciaux plus importants. Notamment, ils gagnent de l’espace, il n’y a plus besoin de cabines de projection et il est possible de mettre plus de sièges dans la salle. Pour ce qui est de la gamme de produits, Samsung en aura trois, à terme. Le 4K Display (DCI), dans quelques mois une version 2K (DCI) et à la fin de l’année un modèle 4K de 15 m de base », indique Damon Crowhurst, directeur Samsung Display Europe.

NDLR : Lors de la projection, le film présen
té lors de cette avant-première était en 3D (Pacific Rim : Uprising). Personnellement, j’ai remarqué l’absence de certaines fréquences ; le technicien m’a précisé que les réglages n’étaient pas encore totalement finalisés. L’image est impressionnante, le spectre colorimétrique est étendu avec une précision dans les détails et un contraste unique pour un film dans une salle de cinéma.

La taille d’un panneau est de 640 x 900 mm et pèse 14,2 kg. Il y a 96 panneaux pour constituer l’écran (16 panneaux en largeur et 6 en hauteur), 4 096 x 2 160 pixels, pour un ratio de 2.39 :1 en scope et 1.85 :1. 
La durée de vie est donnée pour 100 000 heures.

 

* Extrait de l’article paru pour la première fois dans Sonovision #11, p.12-13 Abonnez-vous à Sonovision (4 numéros/an + 1 Hors-Série) pour accéder, à nos articles dans leur totalité dès la sortie du magazine.

  • 31 mai 2018 à 12:00

Salles de réunion: Overture de Barco révolutionne le siège de Videlio

Overture de Barco, la gestion, la surveillance simplifiées de matériels audiovisuels présent sur un site. © Videlio

Comment une grande entreprise peut-elle rationaliser la gestion de 25 salles de réunion, 150 appareils et 50 utilisateurs avec des rôles et des autorisations différents sans investir dans une solution lourde et personnalisée ? Avec Overture, Videlio-IEC a trouvé un outil idéal, économique et intuitif. Non seulement les coûts sont réduits au minimum et l’automatisation maximisée, mais, de surcroît, grâce à la fonction d’assistance à distance, Videlio est informée sur le champ de l’utilisation de ses espaces, des alarmes et des notifications. Le principal avantage ? Des gains de temps considérables.

 

Videlio-IEC est l’un des plus grands intégrateurs français de technologies audiovisuelles et collabore notamment avec Barco. L’entreprise se doit donc d’avoir une excellente collaboration interne et externe, et des processus audiovisuels rationalisés. Elle cherchait un outil de contrôle AV global et facile à utiliser pour les 25 salles de réunion de son siège de Gennevilliers. Ses exigences étaient les suivantes : un accès à distance, une modification aisée et une interface visuelle holistique et facile à utiliser. Le but étant que son équipe IT puisse disposer d’informations détaillées sur son écosystème de salles de réunion.

 

Fonctionnalité, expérience utilisateur, flexibilité


Comme Videlio dispose de nombreux bureaux, ses besoins différaient selon l’endroit. « Par exemple, certaines de nos salles de réunion contenaient déjà du matériel, tandis que d’autres n’étaient pas du tout équipées. De plus, les différents utilisateurs ont des rôles et des autorisations différents. Chaque solution de contrôle audiovisuel devrait être adap
table », explique Olivier Chaminade, directeur technique. Comme elle avait collaboré avec Barco dans le passé, Videlio connaissait déjà la capacité d’Overture à surveiller, gérer et contrôler les matériels audiovisuels. « Nous avons installé Overture à la Cité du Vin à Bordeaux, un de nos projets phares », relate Pascal Zerates, directeur général. « La solution répondait à toutes nos exigences. L’expérience de l’utilisateur est très importante pour nous. Celle d’Overture joint la fonction avec des éléments de conception visuelle dynamiques. La flexibilité, grâce à laquelle la solution peut être étendue ou réduite selon nos besoins – sans coûts informatiques énormes –, était importante aussi. »

Gérer 25 salles de réunion et 150 appareils Overture a été installé dans 25 salles de réunion à Gennevilliers. La fonction « Apportez votre propre appareil » a été implémentée et les tablettes existantes dans l’espace de réunion ont été configurées dans Overture pour permettre un contrôle total de tous les appareils. « Chaque salle de réunion contient entre quatre et dix appareils, pour un total d’environ 150 appareils, y compris les écrans, les projecteurs et les outils de collaboration ClickShare », souligne Olivier Cheminade. Lancé en 2017, Overture est un outil de surveillance audiovisuelle basé sur un logiciel. Adaptable en fonction de l’évolution des besoins d’une entreprise – sans nécessiter de compétences en programmation ou d’investissements informatiques lourds – il propose une vue d’ensemble complète des systèmes audiovisuels de l’organisation et offre des informations détaillées sur leurs statuts, quels que soient le type de technologie ou le vendeur des équipements.

 

Des informations sans précédent


Le service d’assistance à distance d’Overture permet de disposer d’informations en temps réel sur la manière dont les salles sont utilisées et sur les alarmes qui se déclenchent, même si l’équipe n’est pas sur le site. La fonction de planification est utilisée pour réduire les coûts en mettant des salles en veille la nuit. Des « modes » spécifiques ont été créés et sont appliqués aux salles de réunion, compte tenu de leur fonction actuelle : conférence, présentation, collaboration et cinéma. « Grâce à la fonction de création de modèles que comporte la dernière version d’Overture, nous avons rapidement dupliqué des configurations dans des espaces de réunion similaires », précise Olivier Chaminade. « Aujourd’hui nous disposons d’informations sans précédent sur nos salles de réunion. Les alarmes nous aident à visualiser l’emplacement d’un appareil pour lequel une intervention est nécessaire : nous pouvons résoudre les problèmes rapidement, localiser les écrans connectés et même surveiller la température de nos équipements. » Videlio prévoit à présent le déploiement d’Overture dans deux autres sites (Nanterre et Marseille), chacun doté de plusieurs salles de réunion.

 « Overture de Barco nous aide à gérer plus efficacement nos espaces et nos équipements de salles de réunion », Pascal Zerates, directeur général chez Videlio-IEC.

 

* Article paru pour la première fois dans Sonovision #11, p.72. Abonnez-vous à Sonovision (4 numéros/an + 1 Hors-Série) pour accéder, à nos articles dans leur totalité dès la sortie du magazine.

 

RETROUVEZ LA VIDEO BARCO POUR DECOUVRIR SES INSTALLATIONS DANS LES LOCAUX DE VIDELIO...  

  • 28 juin 2018 à 12:04

Avec l’AVoIP, les liaisons HDMI et HDBaseT basculent sur les réseaux IP

Dans une architecture de type AVoIP, la matrice de commutation est remplacée par le switch réseau. © Muxlab

L’AVoIP est le nouveau sigle mis en avant par tous les fabricants spécialisés dans le transport et la distribution des signaux vidéo et d’images informatiques. L’objectif est de basculer tous les câblages traditionnels spécifiques vers les infrastructures réseau déployées dans toutes les entreprises. Mais sous cette dénomination unique, les offres sont fort diversifiées avec des modes de compression, des interfaces réseau et des débits qui influencent directement les architectures de communication.

 

Après la numérisation des signaux et des contenus, l’audiovisuel s’engage dans une nouvelle évolution majeure : le transport des signaux sur les réseaux IP. L’objectif est de remplacer les câblages dédiés par ceux des réseaux informatiques déployés au sein des entreprises. Cette mutation irréversible est déjà largement entamée dans le domaine de l’audio avec Dante, Ravenna ou l’AES67. La production vidéo live suit un chemin identique avec de multiples travaux de standardisation autour des normes SMPTE 2022 et 2110 (voir les articles de Mediakwest sur ces questions). Avec les technologies de streaming et l’OTT, la diffusion TV et vidéo n’est pas en reste.

Un nouveau sigle est apparu récemment, l’AVoIP pour AudioVisual over IP, dont le but est de remplacer les câblages traditionnels HDMI, DVI, DisplayPort et même vidéo SDI sur les infrastructures réseau qui innervent l’ensemble des bâtiments tertiaires. Au lieu de déployer des câbles spécifiques et propriétaires, dédiés à chaque type de liaisons, l’objectif est de simplifier la distribution des signaux audiovisuels en passant par un support unique, le câble à paires torsadées muni de son connecteur RJ-45, (ou éventuellement la fibre optique) déjà largement distribué dans les bureaux et salles de réunion.

L’utilisation du câble réseau, appelé aussi
 cat. 5, 6 ou 7, a déjà été mise en œuvre avec les liaisons HDBaseT ou avec des extenders propriétaires. Mais dans ce cas il s’agit d’utiliser uniquement le support physique à paires torsadées pour une liaison point à point similaire à celle d’un câble HDMI ou autre. On remplace un type de câble par un autre avec une longueur de desserte plus grande, mais sans aucune modification dans l’architecture de distribution. Avec l’AVoIP, on ajoute toute la richesse du protocole réseau IP, avec le routage de signaux, la multidiffusion et le multiplexage d’autres données sur un câble unique.

 

Plusieurs modes de compression en concurrence

Pour transmettre les signaux vidéo ou les images informatiques avec le protocole IP, des interfaces d’encodage et de décodage sont indispensables aux deux extrémités de la liaison. Ces interfaces sont également appelées encodeur/décodeur ou émetteur/récepteur selon les fabricants. Ils assurent des fonctions de conversion et de réorganisation des signaux pour les sérialiser, les découper en paquets successifs conformément au protocole IP, mais surtout effectuent une compression des images pour en réduire le débit à la valeur autorisée par le réseau. Les images en résolution HD, et plus encore avec la 4K/UHD, dépassent largement le débit d’un gigabit par seconde. Un codec de compression est donc indispensable. Cette réduction de débit n’est pas nécessaire si l’encodeur est muni d’une interface réseau à 10 Gb/s. Comme pour tous les outils de streaming, les paramètres du codec de compression relèvent d’un compromis entre la qualité d’image, le débit sortant et la latence (temps de traitement). Une forte compression, donc avec un débit réduit plus facile à transporter et moins susceptible de saturer le réseau, conduit à une moindre qualité et à une latence plus élevée. La technologie de compression choisie influe directement sur le débit du signal transmis. Les choix effectués varient selon les constructeurs.

Beaucoup s’appuient sur le codec H.264, déjà couramment employé pour la diffusion TV et les systèmes de streaming. Son inconvénient majeur pour une utilisation circonscrite à une salle de réunion est sa latence, de l’ordre de plusieurs centaines de millisecondes. Cela provoque une désynchronisation des images par rapport au son amplifié par la sonorisation. Le codage H.264 est adapté à des diffusions vers des salles distantes. D’autres constructeurs ont choisi des codecs basés sur une compression de type ondelettes. La latence est plus faible, de l’ordre de quelques dizaines de millisecondes (soit une ou deux images de retard) mais le débit sortant de l’encodeur varie alors entre 50 et 900 Mbit/s, compatible avec un port gigabit côté terminal, mais qui exigera des switchs et des dorsales en 10 Gb/s pour transporter plusieurs signaux simultanément sur la même installation. Enfin, dernière alternative, transmettre les signaux sans compression, mais dans ce cas les terminaux et toute l’infrastructure réseau devront être compatibles 10 Gb/s. Ainsi il n’y aura aucune dégradation des images, ni aucune latence.
 Concernant le choix de l’algorithme de compression, les constructeurs ont deux approches : baser leur offre sur une seule technologie de compression pour simplifier leur gamme ou, au contraire, proposer deux ou trois séries de produits différents avec chaque mode de compression, le H.264, les ondelettes et sans compression.

 

Des contraintes sur les caractéristiques des switchs réseaux


Comme avec les extendeurs sur câbles cat. 5 ou cat. 6, les interfaces d’encodage et de décodage sont installées à proximité respectivement des sources d’images et des dispositifs d’affichage. Si la liaison est directe en mode peer to peer, il suffit de tirer un câble RJ-45 entre les deux boîtiers. Des mécanismes de détection automatique simplifient grandement leur configuration. Dans le cas d’un affichage du même contenu sur plusieurs écrans ou de la sélection parmi plusieurs sources vers un écran unique, les distributeurs et sélecteurs classiques sont remplacés par un unique switch réseau. De la même manière, la matrice ou grille de commutation laisse la place au switch réseau.

Pour assurer ces fonctions de sélection et de distribution, les systèmes de diffusion AVoIP exploitent les fonctionnalités de diffusion multicast basées sur les protocoles IGMP. Contrairement au réseau informatique classique qui travaille en mode unicast, avec une liaison établie entre chaque équipement communiquant en mode multicast, une adresse particulière différente de l’adresse IP habituelle est attribuée à l’équipement émetteur, sur laquelle viennent se brancher plusieurs dispositifs récepteurs. Ainsi, un seul flux vidéo circule sur le réseau et il est répliqué au niveau du switch pour être renvoyé uniquement vers les récepteurs qui l’ont demandé. Ces mécanismes gérés par le protocole IGMP (Internet Group Management Protocol) sont assez complexes. Ils exigent des switchs
 dotés des fonctions IGMP Snooping, maintenant habituelles sur les switchs récents et performants. Néanmoins, il faut prévoir que l’ensemble des équipements actifs desservant le réseau soient compatibles IGMP pour éviter une saturation du réseau.

Une autre exigence des systèmes AVoIP concerne la taille des paquets IP. Habituellement, sur un réseau classique, la taille des paquets (ou MTU pour Maximum Transmission Unit) est fixée à 1 500 octets. Avec les débits engendrés par les flux audiovisuels, tous les constructeurs de systèmes AVoIP exigent de passer au mode Jumbo Frame qui relève cette taille à 9 000 octets. Chacun d’eux édite des notes techniques précisant les spécifications nécessaires au fonctionnement de son système. Elles sont à consulter impérativement avant tout choix d’une architecture AVoIP et à soumettre à la DSI si les utilisateurs ne gèrent pas directement le réseau informatique.

 

Des outils de configuration

La configuration des procédures multicast est plus complexe que celle d’un accès à un serveur ou d’une connexion à Internet, maintenant bien intégrée au niveau des systèmes d’exploitation. Elle exige une bonne connaissance des technologies réseau et il est hors de question de demander à un utilisateur final de pénétrer dans les menus de configuration des switchs réseau. Tous les constructeurs de systèmes AVoIP proposent des solutions pour contourner cet obstacle. En général, elles prennent la forme de pages web accessibles via un simple navigateur, avec un serveur web intégré aux modules encodeurs et décodeurs. Ce mode de configuration convient pour un système AVoIP constitué de quelques unités d’encodage et de décodage. Au-delà de cette taille, des outils dédiés plus sophistiqués sont indispensables. Ils prennent la forme d’un logiciel de contrôle et de management 
à installer sur un serveur avec une unité dédiée. Les fabricants d’outils AVoIP présents sur le marché des systèmes d’automation proposent également le pilotage direct des émetteurs/récepteurs au travers de leurs interfaces tactiles. Gefen a conçu un vrai pupitre de contrôle au format traditionnel XY comme on les trouve pour les grilles de commutation. Kramer et Biamp ont intégré, dans certaines de leurs unités AvoIP, un sélecteur de canal comme sur un téléviseur, de manière à accéder directement aux contenus distribués sans devoir passer par une interface logicielle.

L’obligation d’un outil dédié de contrôle et de paramétrage atténue fortement l’argument
 de la simplification de l’architecture mis en avant par les acteurs de l’AVoIP. Tous les fabricants expliquent que cela simplifie le hard-ware et réduit son coût avec la suppression de la matrice de commutation centrale, mais s’il faut rajouter un système central de pilotage, où se trouve le gain de simplification ?

 

Une dizaine d’offres AVoIP

Les premiers systèmes de transport et de distribution AVoIP ont été lancés il y a trois ou quatre ans. Depuis, tous les constructeurs spécialisés dans la sélection/distribution d’images informatiques proposent des outils AVoIP. On ne compte pas moins de dix fabricants qui commercialisent ce nouveau type d’architecture en France. Mais toutes les offres sont loin d’être équivalentes. Il y a un premier choix à faire au niveau de l’algorithme de compression des images, soit du H.264, soit des ondelettes ou des systèmes sans compression, avec les conséquences sur les débits et la latence des signaux. Certains industriels s’en tiennent à une seule technologie comme Crestron, Atlona, Gefen, Aurora ou Lightware, tous partisans des ondelettes, tandis que d’autres laissent à leurs clients le choix en proposant à la fois des systèmes basés sur le H.264 et une seconde gamme fonctionnant avec des ondelettes comme Kramer ou Muxlab. AMX, avec sa gamme SVSI, va encore plus loin puisque son offre se décline en trois gammes, l’une basée sur les ondelettes, une seconde sur le H.264 et une troisième travaillant sans compression.

Lors du choix d’un système AVoIP, un second paramètre important concerne le type d’interfaces réseau et son débit. La majorité des produits se raccordent sur une liaison Gigabit pour les modèles fonctionnant en H.264 ou grâce aux ondelettes. Pour les systèmes sans compression, plusieurs fabricants font le choix de l’interface 10 gigabits/s. encore peu répandue et exigeant souvent un déploiement réseau spécifique.

 

Choisir un mode de compression adapté


Le choix de la technologie de compression et son incidence sur les débits dépendent égale- ment de la zone de diffusion à couvrir. Si les images sont diffusées et affichées dans la salle ou l’auditorium où se tiennent les intervenants, les systèmes sans compression ou basés sur les ondelettes sont à privilégier pour conserver un synchronisme de l’image et du son. En revanche, s’il s’agit de desservir des salles périphériques situées dans le bâtiment ou sur le même site, des outils utilisant le H.264 seront mieux adaptés en économisant de la bande passante sur le réseau interne.
 Un autre avantage du codage H.264 réside dans ses protocoles de distribution similaires à ceux du streaming (RTP, RTSP...) offrant la réception sur un simple ordinateur muni d’un player comme VLC. Il n’existe pratiquement aucun décodeur soft pour les systèmes basés sur les ondelettes, à part chez Extron.

La plupart des fabricants complètent les entrées/sorties image, en général du HDMI, avec d’autres signaux séparés, de l’audio analogique souvent, mais aussi du Dante ou de l’AES67 parfois. Pour faciliter le pilotage à distance des sources et des écrans, ils ajoutent également des connecteurs RS-232, USB ou pour la transmission de signaux infrarouges. La combinaison de ces signaux associés varie beaucoup d’un fabricant à l’autre et oriente les usages soit vers des fonctions de type KVM pour centres informatiques ou plus orientés vers le marché résidentiel. Il faut également signaler que plusieurs constructeurs spécialisés dans les systèmes KVM comme Guntermann & Drunck et Adder basculent aussi leurs outils sur des architectures IP et se rapprochent des outils AVoIP.

Concernant les résolutions d’images transportées, tous les systèmes commercialisés fonctionnent avec des formats HD 1080i et souvent en 1080p60. Les produits les plus récents sont compatibles UHD et/ou 4K,
 mais attention à la fréquence image et au sous-échantillonnage couleur. Beaucoup transmettent les résolutions 4K à la fréquence de 30 images/sec. en mode 4 :4 :4, mais pour la fréquence de 60 images/sec., uniquement en mode 4 :2 :0. Peu de produits sont compatibles 4K@60 en mode 4 :4 :4. On peut citer sur ce point Crestron NVX, AMX série N2000, DVIGear DN-200 ou encore Biamp Tesiralux. Une grande majorité de systèmes sont conformes à la norme HDMI 2.0 et au cryptage HDCP 2.2.

 

SDVOE, une offre standardisée et interopérable


Tous les systèmes de diffusion AVoIP sont basés sur des codages et des paramétrages propres à chaque constructeur et constituent de fait des architectures propriétaires, même si elles empruntent un réseau IP standardisé. Pour favoriser l’interopérabilité entre les outils AVoIP, plusieurs industriels ont lancé l’alliance SDVoE, Software Defined Video over Ethernet. Elle regroupe des industriels spécialistes des réseaux informatiques, Netgear et Aquantia, des constructeurs d’équipements audiovisuels, Christie et Sony, ainsi que des fabricants de puces de traitement vidéo, Semtech et Zeevee. Depuis la création de l’alliance en janvier 2017, les membres fondateurs ont été rejoints par une trentaine de membres dont, parmi les plus connus, Kramer, Belden, Xilinx, Canare, Broadata.

Leur objectif est d’offrir une architecture globale de transmission AVoIP avec une latence extrêmement réduite et une qualité d’image sans compromis. Dans ce but, ils ont choisi un mode de transmission sans compression compatible avec les résolutions HD et 4K à 30 images par seconde. Un rapide calcul de débit démontre que seule une interface à 10 gigabits/s. est capable de transmettre de telles images. La conséquence directe de ce choix exigeant est une latence inférieure à 100 microsecondes, donc bien plus faible que celle offerte par un codage par ondelettes. Cette solution offre la possibilité d’une diffusion sans retard, quel que soit le chemin emprunté par les signaux, liaison directe en HDMI ou HDBaseT et transport par réseau IP. Le SDVoE prévoit d’ailleurs des outils de resynchronisation d’horloge pour éviter les retards induits par la gestion des paquets sur le réseau.

Pour les images UHD avec une fréquence de 60 images/seconde, une légère compression intra-image avec un taux de 1,3 est appliquée.

Les signaux audio multicanaux et de télécommande IR et RS-232, ainsi qu’une liaison IP gigabit, sont multiplexés avec le transport des images. En se basant sur un réseau à 10 gigabits/s., ils démontrent que la simultanéité d’un transfert de gros fichiers sur le même réseau ne vient pas perturber les images, contrairement à des systèmes basés sur des liens à 1 gigabit. Mais leur affirmation que 
les dessertes à 10 gigabits/s. sont largement déployées en entreprise et que le SDVoE constitue la meilleure solution pour supprimer les liaisons audiovisuelles propriétaires semble un peu prématurée. Quand on observe l’évolution des réseaux sur une longue période, il est évident que l’augmentation des débits est inéluctable et qu’un jour les prises terminales à 10 gigabits jusqu’au poste de travail deviendront la norme. Il est exact que les équipements actifs et les câblages à 10 gigabits sont de plus en plus répandus avec des coûts en baisse, mais ils restent cantonnés aux data centers pour le raccordement des serveurs et les liaisons dorsales desservant les commutateurs d’étage. On en est encore loin pour la desserte systématique des salles de travail. Même si le consortium communique beaucoup et s’élargit régulièrement avec de nouveaux membres, seuls deux constructeurs proposent des produits SDVoE, Christie avec Terra et DVIGear avec les convertisseurs DisplayNet DN-200.

 

Bientôt une réponse de HDBaseT ?

De son côté, le consortium HDBaseT ne reste pas inactif et a annoncé courant 2017 qu’il travaillait sur une version IP du HDBaseT. Pour l’instant, aucune spécification n’a été publiée et les premiers produits ne devraient pas apparaître avant deux ou trois ans. La stratégie des deux consortiums est assez similaire : regrouper les acteurs du marché autour d’un ou plusieurs fabricants de puces pour garantir une interopérabilité entre les produits et permettre d’intégrer directement dans les équipements l’interface pour éviter de démultiplier les boîtiers externes d’encodage et de décodage.

Mais des observateurs avisés constatent que le pari est loin d’être gagné car, outre un surcoût non négligeable pour l’instant, la volonté de séparer les flux audiovisuels des flux informatiques plus classiques reste une habitude fortement ancrée. La majorité des DSI reste frileuse dès qu’elles entendent le mot « vidéo ». Un réseau IP spécifique (y compris pour les actifs réseaux) réservé à l’audiovisuel rassure tout le monde et facilite la recherche des causes d’un dysfonctionnement. Il n’est pas sûr non plus que les contraintes et les spécifications induites par l’AVoIP soient aisément prises en compte sur l’ensemble de l’infrastructure réseau de l’entreprise. Enfin, dernier point, le large déploiement des systèmes HDBaseT lui donne une longueur d’avance. D’ailleurs son succès n’est pas dû tant aux avantages technologiques de ce standard, mais d’abord parce qu’il apportait une réponse concrète à deux difficultés : l’absence d’interopérabilité entre les extendeurs sur paires torsadées et la longueur des câbles HDMI limitée à une dizaine de mètres.

Enfin un dernier élément constitue un frein au déploiement des outils AVoIP, leur coût. Les couples émetteurs/récepteurs fonctionnant en mode AVoIP restent nettement plus chers qu’un couple d’extenders sur paires torsadées. Pour une liaison point à point ou avec une simple distribution vers quelques écrans peu éloignés, tous les industriels reconnaissent que la solution traditionnelle 
à base de câbles HDMI ou de transport sur paires torsadées reste nettement plus avantageuse. Pour des architectures plus vastes avec une matrice centrale, ils argumentent sur la réduction du coût grâce à sa disparition et son remplacement par un ou plusieurs switchs nancés sur le budget réseau. Mais il ne faut pas oublier d’ajouter le montant du serveur indispensable au contrôle et à la supervision du système, et aussi le surcoût induit au niveau des switchs par les spécifications exigées par l’AVoIP. Pour l’instant, il est impossible de conclure à un avantage financier apporté par la technologie AVoIP. Une étude détaillée liée à l’architecture globale envisagée et à la zone de desserte à couvrir, actuelle ou future, est indispensable.

 

* Article paru pour la première fois dans Sonovision #11, p.66-69. Abonnez-vous à Sonovision (4 numéros/an + 1 Hors-Série) pour accéder, à nos articles dans leur totalité dès la sortie du magazine.

  • 28 juin 2018 à 17:11

Une nouvelle technologie de reconnaissance faciale en apprentissage évolué

Panasonic dévoile en Europe sa nouvelle technologie de reconnaissance faciale en apprentissage évolué © DR

Panasonic Business a choisi le salon IFSEC 2018 (19-21 juin) à Londres pour annoncer le lancement européen de sa nouvelle technologie de reconnaissance faciale en apprentissage évolué... 

Le serveur de reconnaissance faciale « Face Server » de Panasonic permet de reconnaître des visages difficilement identifiables grâce à sa technologie de reconnaissance faciale, tels que des visages capturés de profil à un angle de 45 degrés ou capturés à un angle vertical de 30 degrés (de haut ou de bas) ainsi que des visages partiellement cachés par des lunettes de soleil ou des masques, par exemple.

Combinée à une caméra de la gamme iPro Extreme de Panasonic, la technologie « Face Server » utilise le mode « iA » (intelligent Auto) et la fonction « Best Shot » (meilleure capture). Cela permet à la caméra d’ajuster automatiquement ses paramètres afin de capturer les meilleures images possibles. Grâce à la fonction iA, l’analyse des images se fait sur la caméra plutôt que sur le serveur. Ainsi, seules les meilleures images sont envoyées, réduisant la charge de travail du serveur et du réseau ainsi que le coût total du système.

Développée en collaboration avec l’Université Nationale de Singapour, cette nouvelle technologie offre une capacité maximale de traitement en temps réel de 20 caméras par serveur et peut effectuer des recherches à grande vitesse parmi 30 000 visages enregistrés.

“La technologie « Face Server » change les règles du jeu en matière de précision de détection. Non seulement le système garantit une précision de plus de 90 % dans le cas de visages partiellement cachés par des lunettes de soleil ou des masques, mais il reconnaît également des visages à partir de photographies vieilles de 10 ans,” précise Gerard Figols, Category Manager chez Panasonic Security.

Après une phase de test de trois ans, la plateforme est maintenant utilisée à l’aéroport Haneda de Tokyo, où elle a remplacé la reconnaissance des empreintes digitales lors du contrôle des passeports.

 

Pour plus d’informations sur l’installation à l’aéroport Haneda de Tokyo, rendez-vous ici

  • 28 juin 2018 à 18:39

BlueJeans et Voicera s’associent pour proposer un service de retranscription basé sur de l’IA pour les espaces de réunion

BlueJeans et Voicera s’associent pour proposer un service de retranscription pour les espaces de réunion basée sur de l’IA © DR

BlueJeans Network, Inc., le premier service cloud à connecter les postes de travail, les terminaux mobiles et les équipements de salles de réunion à une même visioconférence, et Voicera, le leader de l’IA vocale en milieu professionnel, annoncent la disponibilité du service de transcription Eva, un assistant de réunion doté d’une intelligence artificielle.

 

Les clients de BlueJeans bénéficieront désormais de notes des interventions de l’ensemble des participants. Celles-ci pourront être stockées, partagées, modifiées et récupérées en toute simplicité pour une utilisation ultérieure. Les entreprises commencent à intégrer de plus en plus de technologies émergentes dans le cadre de leur transformation numérique, et ce dans le but de rendre leurs réunions plus stimulantes et productives.

 

« Les organisations ouvertes aux nouvelles solutions technologiques doivent développer une stratégie de collaboration et de communication unifiée (UCC) en réunissant des responsables d’équipes métiers, des responsables de la transformation numérique, ainsi que des utilisateurs finaux et des spécialistes de la communication. Cette coopération permettra de tenir compte d’une grande variété de besoins et d’atouts afin d’encourager l’utilisation de technologies émergentes. En d’autres termes, les entreprises doivent accroître leur « dextérité » sur le plan du numérique dans le but d’obtenir de meilleurs résultats », analysent Drew Kraus et Mike Fasciani de Gartner.*

« Cette solution change la donne pour notre industrie. Nous avons travaillé sur cette plateforme afin d’adopter cette technologie avant même que les clients ne la sollicitent. Les réunions sont l’environnement idéal pour les assistants numériques. Ces derniers permettent d’automatiser des tâches fastidieuses comme la prise de notes, tandis que les participants sont libres de se focaliser sur les aspects stratégiques », déclare Steve Weinstock, Sr. Manager of Business Development and Integration Partnerships chez BlueJeans. « Grâce à ses puissantes API ouvertes, notre plateforme de réunion est conçue pour aider des partenaires tels que Voicera à créer des solutions innovantes ayant un impact fonctionnel et durable pour nos clients. Le simple fait de savoir qu’Eva participe à la réunion permet d’accroître la productivité des employés, ces derniers ayant l’assurance que les idées et points d’action seront retranscrits – ce qui favorise le développement de l’entreprise. »

 

Disponible pour les utilisateurs anglophones de BlueJeans dans un premier temps, Eva participe à vos réunions en prenant des notes, en effectuant des enregistrements complets, en créant une retranscription et un nuage de mots pouvant faire l’objet de recherches, et en mettant en avant les moments clés. Tous ces éléments peuvent en outre être aisément partagés avec d’autres individus. L'utilisation du service permet de faire le lien entre ce qui se passe dans vos réunions et le reste de votre journée de travail et, en fin de compte, rend vos réunions plus pratiques.

« Nous voulions que les clients de BlueJeans soient les premiers à bénéficier de retranscriptions intégrales de leurs réunions », déclare Omar Twakol, CEO de Voicera. « Il s’agit d’un service que nous proposons désormais via Voicera, mais qui fonctionne encore mieux avec le soutien de partenaires proposant des flux audio de meilleure qualité. Avec BlueJeans with Dolby Voice, les utilisateurs bénéficient en effet d’un son net au format 16k idéal pour le bon fonctionnement d’Eva. Outre ses capacités de transcription audio, Eva peut également créer un résumé des points marquants d’une réunion et y appliquer des fonctionnalités intégrées de correction pour un résultat nettement plus fiable. »

 

Pour en savoir plus, ou pour vous inscrire et essayer le service Voicera, rendez-vous ici.  

*Gartner, « Planning, Selecting and Deploying Unified Communications and Collaboration Primer for 2018 », Drew Kraus, Mike Fasciani, 23 janvier 2018.

  • 4 juillet 2018 à 16:06

Samsung offre une nouvelle dimension à l’espace de travail

Samsung offre une nouvelle dimension à l’espace de travail

Samsung Electronics France dévoile le Samsung C49J890, un moniteur professionnel incurvé ultra-large de 49 pouces. Son format de 32:9 offre toujours plus de performance, de puissance et d’espace aux professionnels à la recherche d’un outil leur permettant de gagner en productivité.

 

Nombreux sont les professionnels travaillant simultanément avec deux écrans, pour répondre aux spécificités de leurs métiers (finance, banque par exemple) ou pour avoir un aperçu optimal de leurs données (gestion des mails sur l’un des moniteurs, autres tâches sur le second).

Bien que pratique, cette configuration s’intègre difficilement à l’espace de travail : multiplication du matériel, câbles apparents entre autres. Sans oublier que le fait de travailler avec plusieurs écrans peut engendrer une situation d’inconfort au niveau du cou et des épaules.

Le moniteur C49J890 vient répondre à ces problématiques en permettant de bénéficier de l’ergonomie optimisée d’un double écran dans un produit unique, doté de spécificités propres à un usage professionnel.

 

Agilité et performance

La technologie KVM Switch contrôle jusqu’à deux appareils simultanément. Une touche sur l’écran permet à l’utilisateur de basculer agilement d’une source à une autre en utilisant un seul clavier et une seule souris.

Le logiciel Easy Setting Box offre la possibilité de diviser son écran jusqu’à six fenêtres en se servant de l’un des quinze modèles disponibles ou en configurant sa propre grille d’affichage. Le réglage s’effectue en un clic grâce à une interface intuitive.

 

Un confort visuel sans équivalent

Grâce à son design incurvé de 1800R, le Samsung C49J890 épouse la courbure naturelle de l’œil humain et offre une expérience visuelle inédite, qu’il s’agisse d’un plan de trésorerie sur Excel ou d’un tableau de bord de trading.

Le mode Protection, qui intègre la technologie Flicker Free, permet une réduction de lumière bleue et du scintillement et limite ainsi la fatigue oculaire pour une productivité accrue. Le C49J890 assure également la compatibilité VESA. L’utilisateur peut aussi incliner l’écran et le régler en hauteur pour l’adapter parfaitement à son environnement de travail.

 

L’espace de travail intelligent

Le connecteur USB de Type-C s’inscrit comme une avancée technologique majeure sur ce type d’appareil. Il permet de transférer des données entre des supports compatibles, d'afficher le contenu d'un autre appareil et de le recharger avec un seul câble.

Le Samsung C49J890 est un moniteur polyvalent équipé d’un large choix de connectiques. Il dispose des entrées display port, HDMI, USB-C, USB 3.0 et haut-parleurs stéréo. De fait, il est capable de gérer les périphériques principaux de l’utilisateur.

 

Il offre également un taux de rafraîchissement de 144Hz pour une transition en douceur.

  • 4 juillet 2018 à 20:56

Les microled, une nouvelle technologie pour les écrans vidéo?

Les écrans à microLED reprennent le principe des murs vidéo à LED en réduisant la taille des diodes et le pitch, distance entre les pixels. © DR

Les écrans à microled ont fait une timide mais remarquée apparition lors des récents salons du CES et de l’ISE. Cette nouvelle technologie associe les avantages respectifs des écrans LCD et Oled et pourrait se généraliser sur l’ensemble des équipements d’affichage, depuis les téléviseurs en passant par les smartphones et autres casques de VR. À condition que l’industrie relève les multiples défis posés par leur fabrication de masse.

 

Les téléviseurs et les écrans informatiques se partagent entre deux technologies, d’un côté les écrans LCD et de l’autre l’Oled. Chacune d’elles présente des avantages et des inconvénients qui font l’objet de multiples débats entre leurs partisans respectifs.


Les écrans LCD sont conçus autour de deux éléments : un système de rétro-éclairage, maintenant constitué de Led placées derrière la dalle, soit sur son pourtour (Edge LCD) soit réparties sur le fond de l’écran (Full Led).

Ces diodes émettent une lumière qui vient traverser des cellules à cristaux liquides dont la transparence varie en fonction de l’information qui leur est appliquée. Les cristaux liquides laissent toujours passer un peu de lumière résiduelle même quand la valeur lumineuse est égale à zéro, d’où l’impossibilité d’obtenir de vrais noirs, critique récurrente des amateurs de cinéma vis-à-vis des écrans LCD.

Les écrans Oled sont constitués d’éléments organiques – le « O » de Oled – qui émettent directement la lumière en fonction de la tension reçue. Quand le niveau lumineux reproduit est égal à 0, l’élément Oled est réellement éteint, donc noir. À l’opposé, le niveau lumineux maximal émis est plus faible que celui des écrans LCD. Ils offrent donc un très bon rapport de contraste et hélas avec l’inconvénient d’une diminution de leurs caractéristiques électroluminescentes au fil du temps.

 

Les microled, héritières des murs vidéo à LED

Une troisième technologie d’écrans vidéo commence à émerger. Il s’agit des écrans à microled qui ont pour ambition de combiner les qualités respectives de l’Oled et du LCD. Cette nouvelle technologie reprend le principe des murs vidéo à Led, largement déployés dans les stades et les grands halls publics. Chaque pixel de l’image est constitué d’un triplet de diodes Led, rouge, verte et bleue, et reproduit chaque point de l’image en fonction de son contenu. Comme le spectateur est éloigné d’au moins une dizaine de mètres, la structure discontinue de l’image n’est pas un handicap et il a l’impression de voir une image continue comme sur un écran LCD normal.

Au fil des années les constructeurs spécialisés dans ce type de mur d’image ont diminué la taille des diodes Led pour réduire l’espace interpixel appelé le pitch. Les tout premiers écrans étaient construits avec un pitch de l’ordre de 20 mm, et au fil des améliorations apportées à la technologie des Led, la valeur du pitch descend à moins d’un millimètre, pour les rendre utilisables en intérieur ou dans des grandes salles de réunion.

Les écrans à microled sont construits sur le même principe, mais en réduisant la taille de tous les éléments avec un facteur d’échelle compris entre 10 et 20. Le pitch entre chaque pixel descend à une valeur de quelques dixièmes de millimètres pour atteindre une densité de pixels similaire à celle d’un écran LCD classique. La taille des diodes est de l’ordre de 50 μm, de manière à offrir autour de chacune d’elles une large surface sombre permettant d’obtenir un vrai noir lorsque les pixels sont éteints. Les écrans à microled fonctionnent donc selon un principe émissif comme les dalles Oled, mais avec un niveau de puissance beaucoup plus élevée, dépassant les 1 000 cd/m2. En jouant sur les éléments actifs de la Led, il est possible d’obtenir un spectre colorimétrique beaucoup plus large et par là même, un gamut couleur plus étendu. La consommation électrique reste limitée et, contrairement à la technologie Oled, les diodes Led sont beaucoup plus stables dans le temps.

 

Un processus de fabrication très complexe


Malgré tous ces avantages, le processus de fabrication des écrans à microled reste la pierre d’achoppement de cette nouvelle technologie. Les microled sont fixées directement sur un substrat de silicium Cmos qui sert à la fois de support mécanique et de réseau d’alimentation et de commande. Les microled, 
de type nitrure de gallium et d’indium, sont fabriquées de manière traditionnelle sur des disques de silicium (ou wafers). Le support interne de l’écran, un substrat de type Si-Cmos, est muni de microcavités dans lesquelles 
on vient placer les microled et ensuite les connecter au réseau de commandes. Et c’est cette étape qui est la plus délicate, vu l’échelle microscopique de l’assemblage.

Plusieurs techniques sont testées avec, 
soit des transferts de panneaux entiers de microled (de 1 000 à 100 000 unités) afin de gagner en productivité, et ce pour chaque couleur, soit par soufflage des microled en suspension dans un gaz et guidage électrostatique. L’objectif est d’obtenir des temps de transfert raisonnables pour réduire le coût de production, sachant que pour un écran TV classique le nombre de microled à transférer est de l’ordre de 25 millions. Les écrans de petite taille, avec un nombre limité de pixels, semblent plus faciles à réaliser malgré une densité élevée de pixels, mais avec un taux de défaut plus faible.

 

L’écran Crystal LED de Sony

Sony est le premier constructeur à proposer un écran vidéo, plutôt un mur vidéo, basé
 sur la technologie des microled. Ce dispositif est dénommé Crystal Led Display System et 
a parfois été désigné aussi sous l’acronyme CLEDIS, maintenant abandonné. Il est destiné à l’affichage vidéo dans des espaces publics ou de vastes salles de réunion. Comme pour les murs vidéo à Led, il reprend le principe de modules d’affichage carrés d’environ 40 cm de côté, à assembler pour obtenir la surface et la forme d’écran désirée. Cela permet d’adapter sa taille à l’espace disponible, mais aussi de créer des ratios d’écrans particuliers ou des formes géométriques spécifiques.

Chaque module référencé ZRD-1 offre une résolution de 320 x 360 pixels avec un pitch de 1,26 mm, soit une résolution de 20 ppi. Il est muni sur ses quatre bords de dispositifs de verrouillage mécanique de manière à constituer un écran continu sans bords visibles au niveau de la jonction. La technologie microled offre des performances équivalentes aux meilleurs écrans actuels : une luminosité de 1 000 cd/m2, un rapport de contraste supérieur à un million, un angle de vision de 180 ° à la fois dans le sens horizontal, mais aussi en vertical, et un espace colorimétrique supérieur à 140 % du sRGB. Le taux de contraste est particulièrement élevé car Sony privilégie la surface du fond d’écran noir par rapport à la taille des Led. Pour chaque pixel, celles-ci occupent une surface de 0,003 mm2 soit 1 % de la surface du pixel et donc 99 % réservés au fond noir.

Le contrôleur Sony ZRCT-100 convertit les signaux vidéo DVI ou DisplayPort dans le format propriétaire des modules ZRD-1. Il est équipé de quatre entrées DVI et de deux DisplayPort et de sorties RJ-45 pour y raccorder au maximum de 72 modules pour constituer un écran de 4,80 m de large sur 2,70 m de haut. Selon les entrées, il accepte des signaux HD et UHD avec des fréquences de rafraîchissement jusqu’à 100p ou 120p, codés sur 8 ou 10 bits (DisplayPort uniquement) et en mode RGB 4 :4 :4.

 

De son côté, Samsung a présenté, lors du dernier CES à Las Vegas, un premier écran basé sur la technologie microled, dénommé « The Wall » eu égard à sa diagonale de 146 pouces, soit 3,70 m. Il reprend le même principe de construction que l’écran Crystal Led de Sony, des modules de taille raisonnable que l’on assemble pour adapter les dimensions ou à la forme de l’écran . Pour l’instant Samsung n’a dévoilé aucune information technique sur ce nouvel écran qui devrait être commercialisé d’ici la fin de l’année à un prix comportant au moins cinq zéros.

Le mode d’assemblage par modules, identique chez les deux fabricants, montre qu’ils sont encore confrontés à des problèmes d’industrialisation évoqués plus haut. La résolution reste faible, 20 pixels par pouce chez Sony et 25 pour Samsung, à comparer aux 80 ou 90 ppi des téléviseurs actuels. C’est la raison pour laquelle ils visent des dimensions imposantes pour des espaces publics, avec une distance de vision élevée.

 

Généralisation des écrans à microled ou marché de niche ?

Tous les industriels engagés dans l’étude et la fabrication de dalles à microled promettent la généralisation de cette technologie à de multiples dispositifs d’affichage, téléviseurs, ordinateurs portables, smartphones, tableaux de bord d’automobiles, mais aussi pour des écrans de petite taille comme les montres ou les casques de réalité augmentée. Et ce avec des densités d’affichage beaucoup plus élevées, de 500 ou 600 ppi ; certaines études annoncent même du 1 000 ou 2 000 ppi. Il est évident que de telles valeurs sont encore loin d’être atteintes avec des processus de production à large échelle. Apple s’intéresse de près à cette technologie pour ses montres et ses smartphones, puisque dès 2014 la société a racheté le spécialiste LuxVue et qu’elle teste en secret des terminaux équipés en microled. LG de son côté s’y intéresserait pour ses smartphones.

Soit les industriels parviennent à résoudre ces difficultés de production à un coût raisonnable et la technologie des microled, avec ses performances renforcées, balaiera les dalles LCD et Oled pour devenir prépondérante sur tous les dispositifs d’affichage, ou bien
 les difficultés d’industrialisation subsistent
et cette technologie restera cantonnée à des marchés de niche ou pour des dispositifs haut de gamme. Pour l’instant, il est impossible de prédire le scénario de son développement. Mais les évolutions technologiques récentes nous ont appris que la physique des composants et la puissance de l’industrie électronique recélaient des trésors d’innovation insoupçonnés, aptes à nous offrir des matériels aux caractéristiques et performances inimaginables il y a seulement une vingtaine d’années.

 

* Extrait de l’article paru pour la première fois dans Sonovision #11, p.70-71. Abonnez-vous à Sonovision (4 numéros/an + 1 Hors-Série) pour accéder, à nos articles dans leur totalité dès la sortie du magazine.

  • 12 juillet 2018 à 09:42

Hervé : les mondes immersifs à la française (Web TV Videoshare)

Hervé : les mondes immersifs à la française © DR

Hervé est une société spécialisée dans la réalité virtuelle et les mondes immersifs. Son président et co-fondateur, Guillaume Lucas revient sur le développement de sa société ainsi que sur son partenariat avec le Videoshare Festival…

 

« Hervé a été fondée il y a trois ans avec le souhait de développer une offre autour du monde de la réalité virtuelle et des mondes immersifs. Nous parlons d’environnement virtuel mais l’activité autour de ces univers est très concrète. Nous nous appelons Hervé comme le prénom mais qui signifie aussi tout simplement réalité virtuelle : R et V. Ce prénom nous permet d’inscrire notre activité avec de nouveaux médias, de nouveaux supports avec une identité bien française ! »

 

Guillaume Lucas détaille ensuite le partenariat développé entre sa société et le Videoshare Festival.

« Nous avons eu le plaisir de rencontrer les équipes du Videoshare Festival en premier lieu qui souhaitaient accueillir du contenu dans la catégorie des contenus immersifs… Puis en discutant nous avons réalisé qu’il existait une catégorie spécifique de contenus immersifs, liée aux réseaux sociaux. Nous avons réalisé qu’il y avait la possibilité d’exposer dans cet environnement mais que nous pouvions aussi installer du matériel pour regarder le contenu exposé dans de bonnes conditions. Nous sommes donc devenus partenaire et sponsor de cette édition et nous en sommes très contents ! Hervé fait des productions de contenus de type immersif… »

 

Dans la suite de l’entretien Guillaume Lucas détaille les différentes activités développées par sa société. Il revient également sur les ambitions et projets futurs menés par Hervé…

 

DÉCOUVREZ VITE LA SUITE DE L’ENTRETIEN VIA L’INTERVIEW VIDÉO !

  • 12 juillet 2018 à 16:51

Sony revisite la production de directs avec Virtual Production

Sony révolutionne la production Live © DR

Sony Virtual Production est un service de production à la demande sur le Cloud qui propose une gamme complète d’outils de production pour la création et la livraison de contenu multiplateforme, lors du Red Bull Alpenbrevet, une course de moto organisée cet été à Sarnen en Suisse.

 

Jusqu’à présent, pour obtenir une production en direct d’excellente qualité, il avait toujours fallu de grosses infrastructures, un investissement initial conséquent et une armée de créateurs et de techniciens talentueux. Le service Virtual Production de Sony propose de remédier à cela en créant un workflow de production sans encombre, en accédant simplement à un mélangeur vidéo professionnel basé sur le Cloud et de diffuser le contenu rapidement sur les réseaux sociaux, des sites web, des applications ou des réseaux de diffusion de contenu.

Le jour de l’évènement, Red Bull s’est servi de la solution Virtual Production de Sony pour diffuser en direct la course sur tous ses réseaux sociaux. Déployer des infrastructures physiques de production pour la course, qui s’est déroulée au beau milieu des montagnes suisses, aurait représenté un véritable défi. Cependant, grâce aux services Virtual Production basés sur le Cloud et à la connexion 4G, Red Bull a pu filmer et diffuser l’ensemble de l’événement en n’utilisant que quelques caméras et un ordinateur portable pour accéder à l’interface utilisateur du mélangeur virtuel.

« Au fil des ans, le Red Bull Alpenbrevet est devenu en Suisse et en Europe un événement important pour les pilotes de moto amateurs. Bien que ce soit ce qui attire les participants, la nature pittoresque de la route pose un défi majeur à notre équipe de radiodiffusion qui souhaite filmer et diffuser l’événement en direct dans le monde entier », a expliqué Hubert Zaech, Directeur de la production chez Red Bull. « Virtual Production de Sony était la solution parfaite pour notre événement car elle nous a offert la liberté, la souplesse et l’agilité nécessaires pour filmer et diffuser du contenu rapidement, sans avoir à installer des infrastructures physiques dans ces endroits éloignés, ce qui représente un véritable cauchemar logistique ».

 

La proposition de Virtual Production de Sony est simple : les utilisateurs paient seulement pour ce dont ils ont besoin, quand ils en ont besoin. Le service maison a été conçu pour soustraire le coût à la production Live, tout en permettant aux créateurs de contenu d’élargir leur public et d’accroître leurs revenus. Les équipes de production, qui n’ont besoin que d’un kit d’acquisition de caméra, se connectent à leur portail Virtual Production, synchronisent leurs caméras et diffusent leur contenu grâce à un système à la demande.

Les équipes de tournage sur place utilisent des émetteurs sans fil pour alimenter un mélangeur de production virtuel hébergé dans le Cloud par le biais d’Amazon Web Services, tandis qu’un mélangeur vidéo se connecte simultanément au service Virtual Production via un navigateur web ordinaire, où que ce soit dans le monde. Les utilisateurs peuvent changer de flux des caméras, ajouter des images, des logos et des légendes et diffuser rapidement le résultat sur une série de plates-formes, notamment YouTube et Facebook Live. Tout ça sans avoir besoin d’installer ou d’utiliser un logiciel.

 

« Sony s’est donné pour mission d’aider ses clients comme Red Bull à renforcer leur marque et à élargir leur public », explique Stuart Almond, Directeur du marketing et de la communication, Media Solutions chez Sony Professional. « Nous sommes entrés dans une ère où les habitudes des téléspectateurs changent, l’ère des multi-écrans et des multiplateformes, les entreprises du secteur multimédia doivent se tourner vers de nouveaux services et de nouvelles technologies permettant d’augmenter la valeur du contenu et de mieux captiver l’attention du public. Virtual Production a été conçu à cet effet. Le Red Bull Alpenbrevet était l’événement idéal pour mettre cette nouvelle solution à l’épreuve et montrer la valeur qu’elle apporte à nos clients. »

La production virtuelle permet de combler l’écart entre les solutions de production Live des professionnels et les applications de streaming en direct des téléspectateurs. Avec sa flexibilité unique, le service permet de couvrir plusieurs événements à la fois tout en offrant des sorties de programme professionnelles, car une grande partie de la production est hébergée dans le Cloud.

 

Le service Virtual Production de Sony sera disponible en Europe à partir de septembre 2018.

Visitez le stand Sony à l’occasion du salon IBC 2018 (14 au 18 septembre 2018 à Amsterdam) pour en savoir plus sur le service…

  • 23 août 2018 à 22:23

IFA 2018 : Philips TV intègre la fonctionnalité Amazon Alexa

Amazon Alexa : la commande vocale arrive chez Philips Smart TV © DR

Aimeriez-vous allumer votre téléviseur ou changer de chaîne avec une simple question? C’est la nouvelle fonctionnalité de commande vocale Philips Smart TV pour Amazon Alexa qui va permettre de contrôler les téléviseurs Philips compatibles uniquement avec votre voix. 


 

Rien de plus simple, il suffira de dicter "Alexa, allume le téléviseur" ou "Alexa, met la BBC".
 La commande vocale permettra également de régler le volume du téléviseur, changer de source d’entrée et contrôler le lecteur multimédia. 


Pour bénéficier de cette nouvelle fonctionnalité, les utilisateurs auront besoin d'un appareil compatible Alexa, tel qu'Amazon Echo ou Echo Spot, associé à l'application Alexa préinstallée sur leur téléviseur Phillips compatible.


La compatibilité Amazon Alexa “Philips Smart TV Voice Control” sera lancée dans le cadre de la mise à jour vers la version O d'Android TV. Elle sera disponible au dernier trimestre de cette année pour tous les téléviseurs Android Philips de la gamme 2018, ainsi que pour les téléviseurs Android Philips équipés du processeur P5 de la gamme 
 2017.

Le menu d'accueil des téléviseurs Android Philips compatibles intégrera une chaîne « Comment faire... » avec des tutoriels vidéo sur l’activation de la fonctionnalité.

 

Voici quelques exemples des fonctions disponibles, une fois la fonctionnalité activée :

ALLUMER/ETEINDRE LE TV

“Alexa, allume le TV”

“Alexa, éteint le TV”

 

CHANGER DE CHAINE


“Alexa, met la chaîne 15 sur le TV”

“Alexa, met la BBC sur le TV”

 

CHANGER DE VOLUME


“Alexa, met le volume à 15 sur le TV”

“Alexa, baisse le volume du TV”

“Alexa, coupe le son du TV”

“Alexa, remet le son du TV”

 

CHANGER LA SOURCE D’ENTREE

“Alexa, met le mode Blu-ray sur le TV”

“Alexa, met le TV sur HDMI 1”

 

CONTROLER LA LECTURE DES PROGRAMMES

“Alexa, met le TV en pause”

“Alexa, fait avance rapide”

“Alexa, revient en arrière”

  • 31 août 2018 à 23:59

IFA 2018 : les solutions AI de LG omniprésentes sous l'appelation LG ThinQ

LG présente à l’IFA ses robots LG CLOi © Nathalie Klimberg

Sur l’IFA 2018, LG Electronics (LG) met carrément le cap sur l'IoT avec sa nouvelle marque LG ThinQ accompagnée de son slogan  "Innovation for a Better Life". Plus d’un tiers du vaste espace d’exposition du constructeur est ainsi consacrée à l’intelligence artificielle (AI), avec une gamme de produits LG ThinQ répartis sur trois zones « mode de vie » : ThinQ Travel, ThinQ Gourmet et ThinQ Style...

 

Chaque zone est aménagée pour représenter les différents modes de vie des consommateurs modernes et met en scène les produits AI dans des environnements domestiques à la fois ordinaires et futuristes, dans des domaines essentiels tels que le style, la cuisine, le confort de la maison, la mobilité et le divertissement.

La zone ThinQ Travel montrera combien il est facile de chercher sa destination de vacances idéales sur les téléviseurs LG AI, puis de réserver des vols et des hébergements sur le smartphone LG G7ThinQ. L’Assistant Google sera bientôt disponible sur tous les téléviseurs LG AI webOS sur sept nouveaux marchés : Australie, Canada, France, Allemagne, Corée du Sud, Espagne et Royaume-Uni. La plateforme, qui a déjà connu un succès considérable aux États-Unis, prendra désormais en charge jusqu’à cinq langues, conformément à la stratégie mondiale de LG qui vise à amener à un niveau encore supérieur ses solutions de commande vocale. Les téléviseurs LG AI avec Google Assistant intégré offrent une expérience simplifiée permettant aux utilisateurs de gérer d’une main experte des tâches quotidiennes, de trouver des réponses à des questions importantes ou de piloter des appareils domestiques connectés et compatibles. Les visiteurs de l’IFA peuvent ensuite passer dans la salle de séjour IoT, créée en collaboration avec Natuzzi, fabricant de meubles de luxe italien. Cet espace de vie a été présenté lors de la Semaine du design de Milan. Cette zone accueillante présente les fonctions de commande des enceintes XBOOM AI ThinQ qui permettent de modifier les réglages des canapés connectés et des éclairages.

Dans la zone ThinQ Gourmet, le réfrigérateur intelligent InstaViewThinQ occupe le centre de cet espace dédié à la cuisine. Les visiteurs peuvent y découvrir en direct les fonctions avancées de ce réfrigérateur qui peut recommander des recettes et régler instantanément le mode de cuisson du four connecté ou les paramètres d’autres appareils culinaires.

La zone ThinQ Style rassemble toute une palette d’appareils pilotés par commande vocale, dont le nouveau LG StylerThinQ. Cette nouvelle armoire séchante est équipée de fonctions exceptionnelles destinées à améliorer le confort de l’utilisateur tout en veillant à la propreté, à l’hygiène et à l’aspect impeccable de ses vêtements – tout ceci par simples commandes vocales. Bon nombre des produits LG révolutionnaires exposés dans les trois zones ont été récemment salués par l’EISA (European Imaging and Sound Association) pour leur technologie avancée, leur design et leur innovation.

Aux zones dédiées au mode de vie LG ThinQ succède la zone centrale, où sont exposés les technologies innovantes intégrées dans les produits LG ThinQ tels que les téléviseurs LG OLED et LG SUPER UHD, ainsi que le système LG Centum. Les visiteurs découvriront à cet endroit le téléviseur OLED 8K 88 pouces d’une résolution de 7 680 x 4 320 pixels, avec son rendu de noirs profonds et de couleurs éclatantes et des angles de visualisation très larges. Parmi les autres technologies clés dévoilées pour la première fois dans cette zone, les visiteurs découvriront l’écran Micro LED 173 pouces constitué de LED microscopiques qui forment les pixels individuels. Cet écran est mis en scène dans un espace de home cinéma spectaculaire qui montrera comment personnaliser la taille de l’écran suivant les besoins de l’utilisateur.

 

LG présente également à l’IFA ses robots LG CLOi, qui vont des robots de service aux exosquelettes. Cette gamme de robots avancés jouera un rôle fondamental dans la réalisation de la vision AI de LG, tant à l’intérieur qu’à l’extérieur de la maison. L’exosquelette CLOi SuitBot de LG est présenté pour la première fois dans cette zone. Idéal pour des secteurs tels que la fabrication et la construction, le LG CLOi SuitBot contribuera à une meilleure qualité de vie en facilitant la mobilité de son utilisateur.

Pour compléter la visibilité de l’espace LG ThinQ, les visiteurs du stand LG sont accueillis par le LG OLED Canyon qui propose une plongée immersive dans des images époustouflantes du monde entier. Cinq paysages magnifiques – glacier de Columbia, chutes d’Iguazy, Antelope Canyon, parc national Redwood et volcan Haleakalā – sont affichés avec un détail incroyable sur 258 panneaux LG OLED convexes et concaves sans encadrement. 

Les nouveaux produits LG SIGNATURE présentés à l’IFA sont la cave à vin, le réfrigérateur combiné et le sèche-linge LG SIGNATURE, qui illustrent le potentiel des appareils électroménagers haut de gamme sur le marché mondial. Pour mettre en avant l’esthétique séduisante et les technologies de la cave à vin, LG SIGNATURE organisera pendant le salon plusieurs dégustations de vin avec le célèbre critique James Suckling. Pour souligner le design élégant de ces produits, LG a collaboré pour l’IFA avec le Jason Bruges Studio, studio collectif et artistique de Londres, pour créer une nouvelle galerie haut de gamme LG SIGNATURE autour du thème One Fine Day (Un beau jour). 

LG, qui cible également le marché européen des appareils électroménagers encastrables, inaugure la nouvelle marque de luxe SIGNATURE KITCHEN SUITE pendant l’IFA. Un espace d’exposition dédié à la SIGNATURE KITCHEN SUITE est installé dans un jardin extérieur, au centre du Messe Berlin. La SIGNATURE KITCHEN SUITE a été développée dans le cadre d’une collaboration avec des designers de meubles de luxe italiens, Valcucine et Arclinea, pour le marché européen. Elle proposera des produits reposant sur la performance, l’innovation et l’artisanat d’art.

L’IFA 2018 a ouvert ses portes avec une allocution de Jo Seong-jin, président-directeur général, et de Monsieur I.P. Park, président et directeur technique de LG Electronics. Ce discours d’ouverture commun, au cours duquel ils ont présenté l’orientation stratégique vers une nouvelle ère de l’intelligence artificielle, revêt une importance majeure car c’est la première fois que des directeurs exécutifs de LG interviennent à ce niveau à l’IFA. Cette intervention intitulée Think Wise, Be Free: Living Freer with AI (Penser intelligent, être libre : vivre plus libre avec l’intelligence artificielle) s’est tenu le vendredi 31 août dans le Hall 26b du Messe Berlin. Le président-directeur général Jo Seong-jin a expliqué comment la stratégie AI de LG améliore le quotidien de chacun en s’appuyant sur la philosophie unique de la marque LG ThinQ : une plateforme ouverte, un partenariat ouvert et une connectivité ouverte. De même, Le docteur Park a montré que cette technologie est présente dans des produits de tous les jours, et que les consommateurs sont les premiers à profiter de la stratégie IA de LG puisqu’elle vise à leur offrir à la fois plus de contrôle et plus de confort.

 

 

  • 4 septembre 2018 à 15:12

IFA 2018 : JVC signe le premier projecteur de Home Cinéma 8K

JVC passe au 8K ! © DR

En cette fin d’année, JVC lance une nouvelle gamme de vidéoprojecteurs 4K en première mondiale !  À la pointe de l’innovation et à la recherche de nouveautés pour parvenir à répondre aux exigences des amoureux du cinéma, la marque japonaise réalise un tour de force avec SON passage du 4K au 8K....

 

Reconnu dans le monde entier pour les performances de ses vidéoprojecteurs, JVC n’a de cesse de se renouveler. L’entreprise avait déjà réussi une prouesse en 2017, avec le lancement de son modèle phare, le DLA-Z1 mais les cinéphiles attendent désormais davantage de produits 4K, accessibles, leur permettant de profiter d’images à la résolution au plus proche de la réalité.

 

DLA-NX9 Premier projecteur 8K E-shift au monde

La marque japonaise présente, en exclusivité mondiale, le premier vidéoprojecteur à la résolution d’affichage 8K à destination d’un usage à domicile. Ce nouveau modèle permet de visionner des images d’une qualité spectaculaire grâce à plusieurs fonctionnalités remarquables telles que : la technologie e-shift, le mappage tonal pour une image HDR10 optimale, une nouvelle matrice D-ILA de 0,69’’, etc. Leurs utilisateurs seront saisis par le réalisme et la fluidité des images.

Plus fort que le 4K, le 8K E-Shift offre une expérience grandiose

Pour la première fois, JVC propose un vidéoprojecteur e-shift 8K pour une image ultra premium à découvrir à domicile. Combinant une haute luminosité de 2 200 lumens, ainsi qu’un contraste élevé et une large gamme de couleurs, son niveau de détails saura éblouir ses utilisateurs.

Technologie E-Shift pour plus de réalisme

Développé par JVC, la technologie e-shift est saisissante. En décalant chaque pixel d’un demi-pixel en diagonale, e-shift permet de reproduire des images 8K, fidèles à la réalité. Associée à la technologie « contrôle multiple des pixels », elle convertit des images Full HD et/ou 4K en résolution 8K.

 

Un objectif et des lentilles en verre haute résolution

Doté d’un objectif en verre de 100 mm de diamètre, le DLA-NX9 projette des images en haute résolution dans chaque coin de l’écran et permet une large plage de décalage de +/- 100% sur l’axe verticale et de +/- 43% sur l’axe horizontale.

De plus, l’optique du DLA-NX9 est composée de 18 éléments dont 16 lentilles parmi lesquelles 5 à faible dispersion sont spécialement dédiées à la suppression des aberrations chromatiques, des débordement de couleurs et permet de reproduire avec fidélité la résolution 8K.

 

SÉRIE N : Caractéristiques communes

Nouvelle génération de matrice D-ILA

La dernière-née des matrices D-ILA en 4K natif de 0,69’’ avec un pas de pixel de 3,8 μm, permet d’afficher une résolution de 8,8 millions de pixels (4096 x 2160 pixels). Les défauts tels que la diffusion et la diffraction de la lumière, sont considérablement réduits grâce à l’association de la technologie de planarisation optimisée et de la matrice.

 

Fonction de mappage tonal pour une image HDR10 optimale

La nouvelle gamme de vidéoprojecteurs intègre une fonction de Mappage tonal automatique qui permet d’ajuster automatiquement les réglages sur la base d’informations de masterisation des disques Blu-ray 4K. Ainsi, cette option permet un gain de simplicité et de temps puisqu’il n’est plus nécessaire d’adapter manuellement les paramètres pour un visionnage à la qualité HDR10 optimale. Avec cette fonctionnalité avancée, la vision du réalisateur apparait naturellement sous les yeux des téléspectateurs.

Compatible HDR pour un réalisme total

Précision et performances résument à la perfection cette nouvelle génération de vidéoprojecteurs puisqu’ils restituent fidèlement les contenus HDR10 et prennent en charge la technologie HLG (Hybrid Log-Gamma), qui associe haute luminosité, contraste élevé et large gamme de couleurs.

Un contraste dynamique exceptionnel

En intégrant une nouvelle matrice D-ILA en 4K natif de 0,69’’ et un ensemble optique à grille filaire, JVC assure un rapport de contraste natif remarquable : 100 000 :1 pour le DLA-NX9, 80 000 :1 pour le DLA-N7 et 40 000 :1 pour le DLA-N5. La fonction ouverture de diaphragme intelligente permet elle, d’analyser l’image source et de déterminer automatiquement le niveau de noir. Ainsi, le contraste dynamique du DLA-NX9 est de 1 000 000 :1 pour le vidéoprojecteur 8K, de 800 000 :1 pour le DLA-N7 et enfin de 400 000 :1 pour le DLA-N5.

Luminosité et dynamisme

Grâce à la matrice D-ILA réduisant l’espace entre les pixels à 3,8 μm, la lumière est utilisée de manière plus efficace (2.200 lm pour le NX9, 1 900 lm pour le N7 et 1 800 lm pour le N5) et les images sont plus fluides.

 

Autres caractéristiques

- Certification THX 4K DISPLAY du DLA-NX9 en cours d’obtention

- Avec la technologie de contrôle du mouvement « Clear Motion Drive », les signaux 4K60P (4 :4 :4) sont pris en charge, améliorant ainsi la fluidité des images et réduisant l’effet de flou. De son côté, le « Motion Enhance », atténue le ou cinétique en optimisant l’entraînement des matrices D-ILA. Combinées ensemble, ces deux technologies assurent un niveau de détails élevé.

- « Mode installation » mémorisant jusqu’à 10 configurations d’installation (mémoire de position de l’objectif, réglage des pixels, masque d’écran, etc.)

- Compatibles avec les fonctions d’auto-étalonnage, optimisant ainsi la qualité d’image en fonction des conditions d’installation et compensant les éventuelles ruptures dans l’équilibre des couleurs en cas d’utilisation prolongée du projecteur.

- « Mode optimisation des couleurs », permet de corriger l’équilibre des couleurs susceptibles de varier selon l’écran utilisé.

- « Mode faible latence », réduisant les décalages par rapport à la source.

- Configuration optimisée des circuits accélérant le temps nécessaire à la reconnaissance du signal par rapport aux modèles précédents.

  • 5 septembre 2018 à 12:37

Des lunettes de réalité augmentée pour malvoyants !

Les lunettes à réalité augmentée eSight pour malvoyants ont été désignées « Invention de l’année 2017 ». © DR

Rêvant de redonner la vue à ses deux sœurs aveugles à la suite d’une maladie de Stargardt, l’ingénieur en électronique canadien Conrad Lewis a mis douze ans pour concevoir eSight. Ces curieuses lunettes blanches ont été présentées lors de la Paris Games Week et désignées « Invention de l’année 2017 » par le magazine Time.

 

Concrètement, une caméra HD (21,5 megapixels) capte en temps réel ce qu’une personne valide peut percevoir, et transmet cette image sur deux petits écrans Oled placés juste devant les yeux, sous la visière. Un algorithme pilote ce dispositif et ajuste l’image à la vision résiduelle de l’utilisateur, afin de maximiser son acuité visuelle. Grâce à une télécommande, ce dernier peut aussi zoomer (x24), faire varier les contrastes, les couleurs, mais aussi prendre des photos ou visionner des contenus en streaming.

À cela, s’ajoute un système de reconnaissance vocale des caractères doté d’une synthèse vocale en anglais (le son arrive au niveau des tempes de l’utilisateur). D’où la possibilité de déchiffrer des panneaux dans une gare, par exemple. En effet, grâce à sa batterie, eSight est totalement autonome. Ce système est aussi connectable via wifi ou en bluetooth.

Si eSight ne rend pas la vue aux personnes non voyantes, il améliore la vision fonctionnelle des personnes atteintes de basse vision ou de cécité légale (personnes ayant au minimum 3 % d’acuité visuelle).

 

Pour le moment, eSight n’est pas à la portée de toutes les bourses, puisqu’une paire de lunettes coûte 11 900 euros*. Afin de rendre cette technologie plus accessible, la fondation française Retina s’est associée avec lesBigBoss, une organisation qui relie les plus grands professionnels du numérique, pour récolter les dons et lutter contre le handicap visuel grâce à la technologie d’eSight.

 

 

* Distributeur exclusif en France : Ceciaa

  • 2 novembre 2018 à 10:31

La fiction VR « Dinner Party » remporte le Grand Prix du 360 Film Festival 2018

Remise des prix du 360 Film Festival 2018. © MK

Dévoilé le 6 novembre au coeur du village Screen4ALL sur le SATIS, le palmarès de la troisième édition du 360 Film Festival, vitrine internationale des contenus VR/360/Interactifs - et également pour la première fois cette année de Réalité Augmentée Grands Formats - incarne la vitalité de la création des nouveaux formats numériques puisque le Festival 2018 accueillait dans sa compétition non moins 135 contenus en provenance de 22 pays ! Le Grand Prix est revenu à « Dinner Party », fiction en VR d’Angel Manuel Soto (USA).

 

La quantité était certes au rendez-vous, mais également la qualité, et ce Festival organisé par Screen4ALL (le Lab du Satis) propose une sélection de près de 85 contenus tous formats confondus que les visiteurs du Satis peuvent continuer de découvrir jusqu’à ce mercredi 7 novembre à l’espace 360 Film Festival. Sont notamment projetés, en première exclusivité mondiale, « Dans la peau de Thomas Pesquet – Partie 2 », « Uturn » et « Fan club ». Ce troisième palmarès du 360 Film Festival est visible sur le stand de Diversion Cinema sur la station indépendante VR Rodéo.

Pour décerner ses 12 prix, le jury a évalué la créativité de la narration, la qualité technique et le confort de l’expérience utilisateur. Voici les programmes qui ont attiré son attention parmi les 85 expériences en compétition…

 

 

PALMARÈS 2018

GRAND PRIX attribué à « Dinner Party » de Angel Manuel Soto pour « la qualité de sa narration, l’utilisation de la VR, sa direction artistique maîtrisée, sa singularité et la performance des acteurs ». Produit par Skybound Entertainment et RYOT, VR, 13’, 2018, États-Unis

COUP DE CŒUR attribué à « Dans la Peau de Thomas Pesquet – Partie 2 » de Pierre-Emmanuel Le Goff et Jürgen Hansen pour « féliciter l’exploit technique, le rendu exceptionnel de l’expérience et la qualité de la narration et des images ». Produit par la Vingt-Cinquième Heure, VR, 17’, 2018, France

PRIX MEDIAKWEST attribué au « Projet Bourdelle » de Frédéric Purgal pour « l’immersion complète dans l’atelier de l’artiste, la qualité incroyable du scan 3D et les degrés de déplacements qui permettent de se déplacer soi-même dans l’atelier ». Une œuvre photogramétrique produite par Art of Corner, VR/Interactif, 2018, France

PRIX 360 FILM FESTIVAL, catégorie FICTION, attribué à « Fluchtpunkt » de Béla Baptiste pour « l’intelligence du dispositif et une spatialisation du son qui invite le spectateur à voir et revoir le film pour découvrir différentes histoires ». Film indépendant, VR, 6’, 2018, Autriche

PRIX 360 FILM FESTIVAL, catégorie DOCUMENTAIRE, attribué à « The Real Thing » de Benoît Felici et Mathias Chelebourg pour « l’immersion complète dans des villes surréalistes à travers le regard de leurs habitants. ». Produit par Artline Films, DVgroup, Arte, VR, 15’, 2018, France

PRIX 360 FILM FESTIVAL, catégorie FILM DE COMMANDE, attribué au « TROT » de Raphael HADDAD pour « la qualité de la réalisation, la sensation de l’expérience VR et l’aboutissement du produit ». Produit par Digital Immersion, VR, 3’, 2018, France

PRIX 360 FILM FESTIVAL, catégorie ANIMATION, attribué à « Back to the Moon » de Hélène Leroux pour « la qualité de l’animation et de l’expérience, la magie de l’histoire et les références faites à Méliès ». Produit par Nexus/Google Spotlight Stories, VR, 3’, 2018, États-Unis

PRIX 360 FILM FESTIVAL catégorie ART, attribué à « HanaHana » de Mélodie Mousset pour « son jeu créatif et original avec la VR et de très bonnes qualités techniques ». Autoproduit, VR/Interactif, 2018, Suisse

PRIX 360 FILM FESTIVAL catégorie CLIP VIDEO, attribué à « Ornette – Take your Time » de Bettina Kee pour « son clip-vidéo inventif, drôle et frais ». Autoproduit, VR, 4’, 2018, France

PRIX 360 FILM FESTIVAL catégorie REPORTAGE, à « Journey of Gold » de Jenn DUONG pour « l’immersion au cœur d’une mine d’or du Congo et le quotidien de ses travailleurs et de leur famille ». Produit par StoryUp XR, VR, 8’, 2018, États-Unis

PRIX 360 FILM FESTIVAL catégorie A.R., attribué à « Innovation World » de Josselin Colletta pour « l’inventivité de son portail et la qualité de l’expérience utilisateur ». Black Euphoria, AR, 2018, France

PRIX 360 FILM FESTIVAL catégorie GRAND FORMAT, attribué à « Chapelle des Jésuites » de Ludovic Burczykowski pour « l’utilisation complète du bâtiment, la qualité du storytelling et des projections». Produit par les Rencontres Audiovisuelles, Mapping 3D, 14’, 2017, France

 

 

Composition du jury 2018

Jan Kounen - Scénariste et Réalisateur - Président du Jury

Maud Clavier - Maison des Scénaristes

Daniel Daum - Consultant VR

Laurent Dondey                            

Samantha Donovan - Cofondatrice PrismaXR Lab  

Christophe Lacroix - Directeur général adjoint d’Ymagis

Grégory Maubon - Fondateur de RA’Pro

Mauna Traikia - Conseillère territoriale en charge du développement numérique.

 

Le 360 Film Festival continue sur l’application VRrOOm

Pour la première année, 360 Film Festival et VRrOOm s’associent pour vous permettre de découvrir ou redécouvrir une partie des contenus en compétition lors du festival. Pour cela, rien de plus simple, scannez le QRcode et téléchargez l’application.

 

DOTATIONS

LaCie offre son nouveau disque DJI Copilot, d'une valeur de 549,99 €, au lauréat du GRAND PRIX.

Tapages & Nocturnes prête du matériel audio, pour leur prochain tournage, aux lauréats du GRAND PRIX, du COUP de CŒUR et des catégories FICTIONDOCUMENTAIRE et REPORTAGE.

La Maison des Scénaristes offre aux 12 Lauréats un accès à sa plateforme WeFilmGood pour les accompagner dans la réalisation de leur prochaine création d'une valeur de 450 €.

 

A VOS AGENDAS !

D’ores et déjà, notez les dates du 360 Film Festival qui se déroulera en 2019 :

15 juin : Ouverture de l'appel à programmes du 360 Film Festival

30 septembre : Clôture de l'appel à programmes du 360 Film Festival

7 octobre : Date limite d’envoi des contenus

14 octobre : Annonce de la sélection

Novembre : Remise des prix

5 et 6 Novembre : Diffusion des contenus sélectionnés par le Jury sur l’espace « 360 Film Festival » du SATIS- Screen4ALL.

 

 

Le SATIS 2018 en chiffres...

  • 5000 m2 d’exposition - 3 Halls, plus de 150 exposants et partenaires - près de 9000 visiteurs - 85 contenus présentés lors de la troisième édition du 360 Film Festival, vitrine des contenus VR/360/Interactif, A.R. et Grands Formats - Près d’une cinquantaine de conférences, Keynotes et ateliers...

Les sujets phares : HDR - VFX - I.A. - UHD - GRANDS CAPTEURS - STOCKAGE - VR - ESPORT - AR - 6DOF - DRONES - BLOCKCHAIN - INTERCOM - WORKFLOW - DATAVIZ - TV - BROADCAST - CORPORATE - 8K - SON IMMERSIF -IP - STREAMING - INTÉGRATION - MEDIATION CULTURELLE - CYBERSÉCURITÉ - PIRATAGE…

Retrouvez la captation des conférences sur le site à partir de mi décembre....

Le SATIS 2019 vous donne rendez-vous les 5 et 6 Novembre 2019 aux Docks de Paris à La Plaine Saint-Denis.

 http://www.satis-expo.com

 

 

  • 15 novembre 2018 à 17:17

CyberLink FaceMe primé parmi 20 moteurs IA de reconnaissance faciale

L’homme d’affaires Fardad Zabetian, président de Kudo, dans son bureau à New York. © DR

Le MegaFace Challenge, concours de reconnaissance faciale international, a identifié le moteur de reconnaissance faciale FaceMe de CyberLink Corp comme l'une des 20 technologies de reconnaissance faciale les plus précises au monde. Son taux de précision peut atteindre 98,41%, ce qui a valu à CyberLink de coopérer avec plusieurs entreprises nationales et internationales pour intégrer FaceMe aux services et produits actuels et créer des solutions commerciales et grand public pour le commerce intelligent, la sécurité, l’Administration et les applications AIoT.

 

Le modèle ultra haute précision de FaceMe génère un faux taux d’acceptation (FAR) inférieur à 10-6 (0,000001), ce qui lui permet de se classer globalement parmi les 20 principaux moteurs de reconnaissance faciale aux côtés de sociétés de technologie renommées telles que Google, Microsoft, Tencent Sogou et Samsung Research. Avec un algorithme aussi performant, FaceMe est désormais le principal moteur IAde reconnaissance faciale à Taiwan et est bien positionné pour devenir un leader mondial.

« L’annonce de MegaFace Challenge par l’Université de Washington confirme l’engagement de CyberLink dans la recherche technologique de reconnaissance faciale haut de gamme », a déclaré Jau Huang, CEO de CyberLink. "Avec FaceMe, CyberLink s'efforce de développer un algorithme de reconnaissance faciale multi-plate-forme le plus précis et le plus flexible, afin d’accélérer la création et l’adoption d’applications intelligentes pour faciliter et simplifier la vie des consommateurs et des entreprises à l’échelle mondiale."

En plus de fournir une reconnaissance faciale très précise, FaceMe est très flexible et peut être facilement intégré dans des solutions matérielles et logicielles sur toute plate-forme clé telle que Windows, Linux, Android et IOS. Son moteur IA de reconnaissance faciale peut fonctionner sans difficulté sur des systèmes avec peu de mémoire ou avec des CPU ou GPU moins avancés, ce qui permet un déploiement rapide sur les marchés de masse à prix sensible, les IPC à grande échelle ou les périphériques AIoT à plus petite échelle.

Outre son intégration dans les solutions clients et partenaires, FaceMe est inclus dans Power Media Player (Android), l’application mobile de CyberLink avec plus de 2,5 millions de téléchargements. L'intégration de Power Media Player avec FaceMe permet aux utilisateurs de rechercher et de baliser rapidement des visages dans un grand nombre de photos. CyberLink est également en train d’intégrer sa technologie FaceMe dans ses futurs produits pour développer l’expérience multimédia de prochaine génération.

 

  • 19 novembre 2018 à 21:53

Réalité augmentée au menu de TeamViewer 14

L’homme d’affaires Fardad Zabetian, président de Kudo, dans son bureau à New York. © DR

TeamViewer vient d'annoncer la disponibilité immédiate de la version finale de TeamViewer 14. La solution phare de TeamViewer étant passée de la version de prévisualisation au stade final, elle peut désormais être mise en œuvre dans les environnements productifs. Cette nouvelle mouture intègre des fonctionnalités inédites de réalité augmentée, ainsi que des améliorations majeures sur le plan des performances, de la productivité et de la sécurité.

 

Fonctions révolutionnaires de réalité augmentée

TeamViewer 14 permet de profiter de la solution novatrice de réalité augmentée, TeamViewer Pilot, qui étend les possibilités de la solution d'assistance à distance au-delà du dépannage informatique pour les mettre au service du monde réel. En effet, elle permet à des experts de guider les utilisateurs à distance pour réaliser des opérations complexes, grâce au partage de caméra en direct et à des annotations sur l'écran. Au cours d'une période d'essai prolongée, tous les abonnés - existants et nouveaux - sont invités à découvrir de leurs propres yeux l'expérience de la réalité augmentée.

 

Performances accrues

Meilleures performances pour les faibles bandes passantes

TeamViewer 14 améliore la vitesse et la fiabilité pour les utilisateurs dont les connexions sont inférieures à 1 Mbit/s, grâce à un système intelligent de compression adaptative, capable de détecter automatiquement les faibles bandes passantes et d'adapter le taux de compression.


Performances optimisées sur macOS Mojave

TeamViewer 14 utilise les dernières technologies macOS Mojave. Avec sa qualité d'image améliorée et son affectation intelligente des ressources, TeamViewer vous offre la solution de téléassistance pour macOS, la plus innovante et la plus performante du marché.


Infrastructure de serveur simplifiée et qualité de connexion améliorée

TeamViewer a étendu son infrastructure réseau dans le monde entier afin d'améliorer les performances tout en jetant les bases de son futur développement. Au lancement de TeamViewer, les utilisateurs sont désormais connectés au serveur le plus rapide disponible, afin de bénéficier d'une qualité de connexion optimale.

 

Productivité améliorée

Exécution de script à distance en un clic

Les utilisateurs peuvent désormais utiliser des scripts pour automatiser les processus récurrents et gagner du temps sur les opérations de routine. Les scripts peuvent être chargés sur la Management Console afin d'y avoir aisément accès au cours de chaque session. 

 

Groupage d'appareils avancé et données personnalisées (Premium/Corporate)

TeamViewer 14 donne la possibilité aux administrateurs d'entreprise de prédéfinir des attributs d'appareils gérés et de les grouper facilement sur la base de ces informations afin de faciliter la gestion des stocks.

 

Accès amélioré à l'assistance client (Premium/Corporate)

Les utilisateurs de TeamViewer peuvent rendre leurs services encore plus facilement accessibles à leurs clients en leur donnant la possibilité de créer un ticket de service dans le module Quick Support, même si le chargé d'assistance est hors ligne.

 

Nouveau design du client & Dark Mode pour Windows, Linux et Mac

Une nouvelle interface utilisateur sombre pour Mac, Linux et Windows, plus agréable pour les yeux, permet aux utilisateurs d'adapter le logiciel à leurs besoins et à tout type d'environnement.

 

Nouveau processus de partage d'écran iOS

TeamViewer 14 permet désormais aux utilisateurs d'iOS de lancer un partage d'écran en cliquant sur un bouton dans le chat QuickSupport. 


 

Sécurité

 

Gestion des équipements de confiance

Les administrateurs d'entreprise peuvent garder une trace de tous les périphériques et adresses IP auxquels les utilisateurs ont fait confiance, mais aussi afficher en une fois tous les périphériques de confiance de l'entreprise afin de vérifier et de supprimer facilement les autorisations pour un maximum de sécurité.

  • 20 novembre 2018 à 21:44

HTC Vive annonce la 4ème liste d'entreprises pour son programme Vive X Accelerator

Scénographe de l’image projetée, Clémence Farrell a ouvert sa propre société de production audiovisuelle, Muséomaniac. © Clémence Farrell

VIVE X, l’accélérateur global de start-ups AR/VR, annonce aujourd’hui la nouvelle liste des entreprises sélectionnées pour rejoindre son programme. Ainsi, 18 nouvelles start-ups à travers le monde intègreront le programme VIVE X dans les bureaux de San Francisco, Londres, Taipei, Shenzhen, Beijing et Tel Aviv.

 

Vive X démontre une fois de plus son implication active dans le domaine de l’AR/VR, secteur où il a investi, depuis ses débuts en juillet 2016, dans une centaine d’entreprises. Alors que l’industrie AR/VR continue de se positionner comme une technologie grand public, Vive X a sélectionné un portefeuille varié d’entreprises hardware et software, de différents secteurs. La quatrième vague du programme met davantage l'accent sur l’utilisation de la réalité virtuelle en entreprise, alors que le marché table sur un chiffre d'affaires annuel de 12,6 milliards de dollars d'ici 2025 (d’après Tractica). Avec cette nouvelle approche, Vive X investit dans des sociétés qui créent des solutions d’entreprises telles que des simulateurs d’entraînements, des modèles de divertissement basés sur la localisation et des outils de visualisation de données.

 

Alors que nous abordons notre quatrième vague d’entreprises Vive X, nous nous tournons vers le grand public dans le secteur de la consommation, tout en mettant également l’accent sur la manière dont les entreprises intègrent la réalité virtuelle à leur travail, explique Marc Metis, Vice-Président, HTC VIVE. Nous avons sélectionné au sein de cette vague des entreprises qui vont nous aider à concrétiser cette promesse et à amplifier l’expérience d’entreprise, en développant des outils pour former les employés, accroître la sécurité sur les lieux de travail et améliorer la collaboration et l’acquisition de clients.

 

La mission de VIVE X est d’aider à entretenir, favoriser et faire grandir l’écosystème global de la VR, en soutenant des start-ups et en leur fournissant une expertise opérationnelle et des financements. En plus de cet investissement, Vive X accompagne les entreprises participantes en leur offrant un soutien dans des domaines clés comme la stratégie, le développement commercial, l’ingénierie et le marketing. Elles peuvent ainsi accélérer leur expansion en tirant parti des capacités opérationnelles de HTC VIVE.

 

 

Les entreprises de cette 4ème vague VIVE X incluent :

 

San Francisco : 

  • Visby crée des logiciels d’imagerie holographique fondamentaux, pour placer le réel dans une réalité étendue. La technologie de champ lumineux de Visby permet aux professionnels des films et vidéos de capturer et de publier des vidéos photoréalistes pour des affichages holographiques immersifs.
  • Primitive estime que la collaboration et la visualisation immersives sont l'avenir du développement logiciel. L'interface de programmation Primitive transforme des analyses logicielles complexes en structures 3D interactives, visualisables dans une réalité virtuelle immersive.
  • Modal a été inspiré par le succès du cofondateur, Nolan Bushnell, avec Atari et Chuck E. Cheese’s. Modal propose au grand public des expériences de réalité virtuelle multi-joueurs à la fois amusantes et dynamiques pour les sites LBE comme les salles de jeux ou parcs d’attraction.
  • ybVR dont la technologie de streaming pour plusieurs points de vue optimise la diffusion immersive en direct et le contenu vidéo à la demande en résolution 8K.
  • MyndVR est une entreprise nationale de santé et de bien-être offrant des solutions en VR pour l’assistance à l’autonomie à domicile, les villages-retraites avec soins de longue durée, les foyers pour vétérans et pour les prestataires de soins à domicile de plus de 55 ans.

 

Londres :

  • ImmersiveFactory a développé des exercices de formation HSE (Hygiène, Sécurité & Environnement) en réalité virtuelle basés sur des situations réelles. Toutes les formations, disponibles sur une plateforme dédiée,  ont été créées en partenariat avec des clients grands comptes comme Veolia, EDF, Colas, Saint Gobain, Suez etc…
  • LIV permet aux streamers VR de mieux se connecter et de monétiser leurs audiences en temps réel.  Avec plus d’un milliard de vues sur les réseaux sociaux depuis avril 2018, LIV possède la plus grosse communauté de créateurs de contenus VR au monde. 
  • Kagenova développe des technologies permettant de produire des interactions réalistes pour la prochaine génération d’expériences immersives. Leur premier produit, KageMove, permet à n’importe quel media 360 d’être visualisé avec 6 DOF.

 

Taipei :

  • 360Stories utilise des images immersives à 360° pour transporter son utilisateur vers des destinations incroyables sur la terre. Il est possible d’écouter les habitants raconter leur histoire tout en découvrant leur pays. Aucune recherche en ligne ne peut vraiment procurer le sentiment de voyager, alors que l’expérience 360Stories le permet ! 
  • Z-Emotion construit une plateforme de conception 3D connectée pour le futur de la chaine d’approvisionnement digitale des industries des vêtements en tricot et des vêtements de sport. Cette dernière fournit des analyses prédictives de big data à tout le processus de fabrication pour permettre des décisions plus efficaces, plus intelligentes et plus rapides. 
  • Pumpkin Studio a développé du contenu de jeu AAA LBE en VR dans « Unreal Engine 4 », en partenariat avec HTC, SEGA, Smilegate et bien d’autres encore. Leur but est d’associer leurs connaissances du milieu LBE afin de créer des jeux VR qui conviendraient aux besoins des différents acteurs.

 

Shenzhen :

  • Inload excelle dans la conception, fabrication et l’exploration de VR Kiosk. La société dispose d’un laboratoire interne de recherche et de développement, d’un studio de jeu VR, d’une base de production de matériels informatiques et d’une équipe d’opérations de marque. Son business model VR Kiosk s’est rapidement développé dans de nombreux centres commerciaux à Shenzhen, générant des flux de trésorerie positifs et sera bientôt dupliqué dans tout le pays.
  • Yaoan. Avec plus de 20 ans d’expérience industrielle dans les logiciels d’entreprises, Yaoan a lancé un hall d’expérience de sécurité en VR, un système de formation immersif en VR, un système de forage d’urgence en VR, une plateforme cloud de formation à la sécurité et d’autres solutions pour l’industrie. La société est devenue un leader en matière d’éducation et de formation en matière de sécurité.

 

Pékin :

  • ifGames est l’un des premiers studios de jeux en VR en Chine. Ce studio a produit ifGames produit Ark of the Stars, premier jeu de grande envergure en Chine, qui a remporté de nombreux prix, dont celui de Chin VR et de jeu de l’année Gyro VR. CyberCraft, son premier titre de réalité virtuelle avec un suivi du corps entier, a suscité l’enthousiasme de la critique et a déjà été lancé dans les grandes villes de Chine. 
  • Yuanji a développé un système de Visualisation Judicaire en VR qui permet de reconstituer les scènes de crimes et de présenter des preuves directement et de manière transparente. Le système accélère la procédure et promeut l’équité sociale et la justice via la science et la technologie.

 

Tel Aviv :

  • Sixdof.space a développé une nouvelle technologie de suivi qui représente une véritable avancée en termes de précision et de rapidité. Ils associent optique, électronique et algorithmes pour offrir un appareil indispensable au développement actuel de produits dans plusieurs secteurs, à commencer par la réalité virtuelle. 
  • AyayuGames développe, crée et fabrique des contrôleurs Action-VR. Ils permettent aux joueurs de contrôler et de jouer avec leurs figurines dans leurs espaces de réalité virtuelle et leurs expériences immersives.

 

  • 21 novembre 2018 à 16:36

Les astronautes peuvent désormais compter sur un assistant audiovisuel doté d’Intelligence artificielle...

L’homme d’affaires Fardad Zabetian, président de Kudo, dans son bureau à New York. © DR

CIMON (pour Crew Interactive Mobile Companion), le premier assistant astronaute au monde doté de l’intelligence artificielle, a fait ses premiers pas à bord de la Station Spatiale internationale. 

 

Le plus récent membre de l'équipage de l'ISS, développé et créé en Allemagne, a été appelé à l’action jeudi avec le commandement, Réveille-toi, CIMON !, par l’astronaute allemand de l’Agence Spatiale Européenne (ESA), Alexander Gerst, qui vit et travaille à bord de l’ISS depuis le 8 juin 2018. 

 

CIMON a répondu au chef Gerst en disant : Que puis-je faire pour vous ?.  La boule en plastique de cinq kilogrammes, de la taille d’un ballon de gymnastique, a ensuite franchi une série d'étapes opérationnelles, dont la navigation en apesanteur, pour démontrer ses capacités. 

 

Airbus a développé et construit CIMON pour le compte du Centre aérospatial allemand (DLR) et a fourni les capacités de navigation autonome du robot pour la planification des mouvements et la reconnaissance des objets. IBM Watson permet à CIMON de reconnaître les visages et de répondre aux commandes vocales et aux requêtes de Gerst à l'aide de l’IA à commande vocale hébergée dans le cloud d’IBM.

 

CIMON a pu chercher le visage de Gerst et établir un contact visuel. Deux caméras fournissent à CIMON les données nécessaires à la reconnaissance faciale, tandis que cinq autres caméras sont utilisées pour l'orientation et la documentation vidéo.

 

La mise en service de CIMON est un événement marquant de deux ans et demi dans la préparation de l'équipe d'exploitation du centre de contrôle au sol BIOTESC de l’Université des Sciences appliquées et des Arts de Lucerne, en Suisse. Après une préparation intensive et d'innombrables heures d’entraînement, CIMON est sorti du module Columbus de l'ISS, où il est entreposé depuis son arrivée le 8 juin.

 

Le robot alimenté par l’IA a fait la démonstration de ses compétences d'assistance et, a affiché sur son « visage », les instructions d’une expérience scolaire de cristallisation. Le robot a également effectué quelques manœuvres, enregistré une vidéo et des photos avec son appareil photo intégré et a joué de la musique.

 

Les aspects humains du système d'assistance ont été co-développés et supervisés par des scientifiques de l'hôpital universitaire Ludwig Maximilian de Munich. Les « oreilles » de CIMON se composent de 8 microphones pour la reconnaissance directionnelle et d'un microphone directionnel pour une bonne reconnaissance vocale. Sa bouche est un haut-parleur à travers lequel il peut parler et jouer de la musique. 

 

Douze ventilateurs internes permettent à CIMON de se déplacer et de tourner librement dans toutes les directions. De cette façon, CIMON peut se tourner vers un astronaute particulier quand on s’adresse à lui, hocher ou bouger la tête et suivre l'astronaute dans l'espace, indépendamment ou sur commande.

 

Une équipe de projet de 50 personnes du Centre aérospatial allemand (DLR), d'Airbus, d'IBM et de l'hôpital universitaire Ludwig Maximilian de Munich, financée par le Ministère fédéral allemand de l'économie et de l'énergie, a commencé à travailler sur CIMON en août 2016. Près de deux ans plus tard, CIMON est arrivé à l'ISS avec un équipage dirigé par Gerst, un astronaute allemand de l'ESA qui effectue sa deuxième mission vers la station spatiale.

  • 21 novembre 2018 à 20:48

État des lieux de la réalité augmentée avec Grégory Maubon (WebTV Satis)

Etat des lieux de la Réalité Augmentée (WebTV SATIS) © DR

Sur notre plateau WebTV SATIS 2018 nous avons accueilli Grégory Maubon, président de l'association RA Pro.  Spécialiste de la réalité augmentée depuis plus de 10 ans, il animait, en tant que partenaire de l’événement un cycle de conférences consacrée à cette technologie de plus en plus d'actualité aujourd'hui. Grégory Maubon redéfinit pour nous la réalité augmentée…

 

« La réalité augmentée, c’est un ensemble de technologies qui permettent de percevoir des données dans le monde réel. Imaginons que je mette un casque ou que je regarde à travers mon smartphone et que nous voyons apparaître devant nous un nouveau modèle de caméra. Nous allons le voir apparaître. Il ne va pas exister, mais le modèle sera là et nous allons pouvoir tourner autour, nous en rapprocher, nous en éloigner… Nous pourrons peut-être même voir ce qu’il y a dedans ! La réalité augmentée, c’est cela à la base. »

 

Grégory Maubon présente ensuite les marchés intéressés par cette technologie…

« Il est d’abord plus facile de parler aujourd’hui des marchés pour lesquels la réalité augmentée n’a aucune importance. Depuis quelques années, ce genre de technologies va à peu près sur tous les domaines. Le marché industriel est peut-être le plus avancé. Nous avons des retours sur investissement, des cas très pertinents dans la formation et dans la maintenance. Et puis je pense que nous avons tous essayé une application d’une célèbre marque de meubles pour tester son canapé dans son salon ou d’un grand fournisseur de maquillage pour le tester. Ces domaines-là sont moins développés, mais en tout cas, à travers les exemples évoqués, ils sont très pertinents. »

Dans la suite de l’entretien, Grégory Maubon revient sur la spécificité française dans le domaine de l’animation et les synergies entre technologie de réalité augmentée et création de contenu…

 

DÉCOUVREZ LA SUITE DE L’ENTRETIEN DANS L’INTERVIEW VIDÉO …

 

<<<<<<<<<<<<< 

 

Le SATIS, en bref 

5000 m2 d’exposition - 3 Halls, plus de 150 exposants et partenaires - Près de 9000 visiteurs - 85 contenus présentés lors de la troisième édition du 360 Film Festival, vitrine des contenus VR/360/Interactif, AR et Grands Formats - Près d’une cinquantaine de conférences, Keynotes et ateliers développés autour de sujets phares : HDR - VFX - I.A. - UHD - GRANDS CAPTEURS - STOCKAGE - VR - ESPORT - AR - 6DOF - DRONES - BLOCKCHAIN - INTERCOM - WORKFLOW - DATAVIZ - TV - BROADCAST - CORPORATE - 8K - SON IMMERSIF -IP - STREAMING - INTÉGRATION - MEDIATION CULTURELLE - CYBERSÉCURITÉ - PIRATAGE…

 

Suivez le SATIS et Screen4ALL sur les réseaux sociaux …

Facebook : Satisexpo / Screen4All

Twitter : @satisexpo / @Screen4allforum

LinkedIn : Satis Expo and Screen4all groups

#SATISEXPO2019  #360FILMFEST

 

Le SATIS 2019 vous donne rendez-vous les 5 et 6 novembre 2019 aux Docks de Paris à La Plaine Saint-Denis.

 

http://www.satis-expo.com

  • 15 janvier 2019 à 15:56

L’Institut national d’histoire de l’art modernise l'équipement AV de ses salles de conférences

©DR

L’Institut national d’histoire de l’art a fait le choix d’un équipement haut de gamme dédié à l’enseignement. Magic Hour s'est chargé du déploiement de cette nouvelle configuration qui ouvre l’utilisation d’équipements multimédia de salles de conférence aux non-spécialistes. Tour d'horizon…

 

Pour Maxime Greslé, régisseur au Service des moyens techniques de l’Inha (Institut national d’histoire de l’art), la modernisation s’imposait : « les professeurs et conférenciers devaient bénéficier d’une installation simple, efficace, accessible via un unique interrupteur marche-arrêt et un pilotage sur support tactile intuitif. » Côté public et étudiants, il s’agissait aussi de proposer des enseignements dans d’excellentes conditions d’écoute et de visualisation des supports de cours.

 

Pour cette installation, le département intégration corporate de Magic Hour a proposé une solution clef en main pour deux salles de 100 et 60 places. Au cœur de la diffusion images, deux projecteurs laser tri-LCD NEC, les PA653UL (6500 lumen ANSI - 2500000:1 de contraste – 4K) et P502HL (5000 lumen ANSI 20000:1 – Full HD) font bénéficier chaque salle d’un confort de visualisation inégalable dans des conditions d’utilisation en lumière ambiante.

« Ces projecteurs qui nécessitent très peu de maintenance, notamment au regard de leurs sources lumineuses laser phosphore dont la durée de vie atteint 20000 heures contre 2 à 3000 heures pour les lampes traditionnelles, » souligne Maxime Greslé. Chaque projecteur illumine respectivement son écran de 3m80 et 4 mètres de base et est alimenté par un sélecteur/scaler automatique à 8 et 12 entrées (4 HDMI, VGA, YUV et leur audio associée). Parmi les sources, on retrouve un lecteur Bluray Denon rackable 1U acceptant cartes SD et supports USB.

Côté restitution sonore, c’est vers un système professionnel Bose FreeSpace ampli-enceintes que s’est dirigé l’Inha : « adaptées à la volumétrie de chaque salle, outre la restitution sonore, l’intervenant évolue avec un micro HF Sennheiser supercardioïde. Les intervenants et étudiants sont en immersion dans un confort acoustique exceptionnel ». Pour piloter l’ensemble et associer l’esprit haut de gamme de l’installation, l’automation personnalisée par Magic Hour est architecturée autour d’un écran tactile Kramer 7 pouces KTouch et son logiciel associé, et vient jouer les chefs d’orchestre au sein d’un pupitre clair et efficace. 

« Ce nouveau système inauguré à l’occasion des Journées du Patrimoine en septembre dernier correspond parfaitement à nos attentes, souligne Maxime Greslé. Les retours d’expérience s’avèrent très positifs de la part des usagers. Cette nouvelle configuration permet désormais aux intervenants de s’affranchir de difficultés d’utilisation moyennant une formation de quelques minutes de la part des services techniques et d’un confort d’enseignement accru significativement. », conclut-il.

  • 12 décembre 2018 à 17:00

Laval Virtual – 20 ans et après !

Avec ses installations numériques, Laval Virtual n’oublie pas la dimension artistique. © DR

2019 représente une étape importante pour Laval Virtual dont la prochaine édition se déroule les 20 et 24 mars. La VR et l’AR ne sont plus des technologies émergentes, de nombreuses applications se développent. Ainsi Walmart a annoncé avoir acheté 17 000 Oculus Go pour former ses employés et l’armée américaine a acheté 100 000 casques Hololens pour ses soldats sur le terrain. Les technologies immersives et interactives sont devenues mainstream. Voulant continuer à jouer son rôle de facilitateur des usages et applications BtoB VR/AR, Laval Virtual poursuit son développement et souhaite améliorer l’expérience utilisateur de ses visiteurs.

 

Laval Virtual, qui a fêté ses 20 ans l’année dernière, représente la référence mondiale en termes de présentations et de conférences sur la réalité virtuelle et la réalité augmentée. Cette plate-forme relationnelle importante réunit des industriels, chercheurs, investisseurs, étudiants. L’événement reste axé sur les applications BtoB et dans les secteurs de l’industrie (35 % Automobile, 35 % Manufacturing et 30 % Utilities). En 1999, il y avait 30 exposants, en 2018 il y en avait 320 avec 10 000 visiteurs professionnels et 10 000 visiteurs grand public. C’est le plus grand événement sur la VR/AR en Europe.

L’accélération est récente, elle est liée à la démocratisation des outils de production et des masques VR. Aujourd’hui l’espace d’exposition occupe 9 000 m2. « Les technologies immersives, interactives sont devenues abordables pour un nombre croissant d’utilisateurs, néanmoins Laval Virtual souhaite conserver sa place de leader. Pour assurer ce développement et gagner encore en lisibilité, et pour renforcer son empreinte internationale, Laval Virtual 2019 opère un lifting de son programme de conférences », souligne Laurent Chrétien, directeur général de Laval Virtual.

 

 

Évolution des conférences

Les conférences changent de format et de lieu. Autrefois hébergées pour la plupart sur la zone d’exposition, elles seront désormais au diocèse qui se situe à 100 mètres de l’exposition. Il s’agit de simplifier et d’unifier les conférences. Chaque cycle de conférences possède une dénomination différente.

VRtical rassemble une série de conférences thématiques avec cinq cycles d’une demi-journée ; les thèmes seront architecture & construction, santé, retail, Industrie 4.0 et défense. L’ensemble des conférences sera en anglais. Le but étant de faire venir des visiteurs étrangers. Un choix qui est peut-être radical, car le visitorat reste majoritairement français. Il y aura toutefois de la traduction simultanée.

Le cycle TransVRsals réunit un ensemble de conférences visant à faire comprendre et anticiper les évolutions technologiques. Ce cycle s’intéresse à cinq thématiques adressant tous les secteurs d’activité : Utiliser les nouvelles technologies et leurs environnements dans son activité ; Comment améliorer les expériences immersives ? L’utilisation des nouvelles technologies pour faire le « bien » ; Créer du contenu pour la réalité virtuelle ; Comment ajouter la réalité virtuelle à sa chaîne de valeurs ?

Le dernier module, ConVRgence, propose des conférences scientifiques qui ont pour vocation de tisser des passerelles entre la recherche et l’industrie : ou montrer comment scientifiques et leaders de l’industrie font avancer les technologies immersives issues de la recherche académique.

 

 

L’Art, une présence renforcée

L’Art&VR Gallery est de retour à Laval Virtual pour sa deuxième édition et s’intéresse à la thématique « Illusion réelle/Illusion virtuelle ». Lors de la première édition, près de 5 000 visiteurs étaient venus découvrir le travail d’artistes internationaux réunis au sein de l’Art&VR Gallery, ou présentés dans le cadre d’un parcours artistique installé dans quelques lieux emblématiques et patrimoniaux de la ville de Laval (bateau lavoir, bains douches, etc.).

Pour Judith Guez, directrice de l’Art&VR Gallery, « les illusions, entre surprise et émerveillement, déstabilisent et amusent. Elles interrogent nos perceptions de notre réalité quotidienne. C’est entre illusion réelle et illusion virtuelle, par l’immersion et l’interaction, que nous voulons explorer de nouvelles formes artistiques qui peuvent questionner nos habitudes perceptuelles et nous faire basculer sur une autre conception du monde. »

 

 

Une remise des trophées totalement revue et des prix plus sélectifs

Il y avait auparavant deux remises de prix, une sur l’expo et une au théâtre de Laval. La cérémonie se déroulera désormais au théâtre le jeudi soir avec 11 prix au total. Plus sélectifs, les Laval Virtual Awards sont composés de deux catégories :

            6 awards qui récompensent des solutions VR/AR exceptionnelles :

  • Améliorer la productivité des entreprises ;
  • Sécuriser et améliorer l’environnement de travail ;
  • Apprendre et former avec la VR/AR ;
  • Vendre et communiquer grâce à la VR/AR ;
  • Gestion de données et l’aide à la décision ;
  • Faire le « bien » avec la VR/AR (santé, écologie, etc.).

            3 awards qui récompensent les talents émergents :

 

Les compétitions « ReVolution » permettent à des projets et à des technologies en avance de phase ou à des utilisations avant-gardistes de la VR/AR de bénéficier d’un véritable tremplin grâce à l’exposition pendant Laval Virtual. Elles se déclinent en quatre catégories :

  • ReVolution#research : pour les projets issus de la recherche universitaire ou privée ;
  • ReVolution#starts-up : pour les start-up technologiques ;
  • ReVolution#experiences : pour les studios de production ayant créé des contenus et des usages avant-gardistes ;
  • Revolution#students : pour les projets étudiants (cette dernière catégorie n’est pas prise en compte pour les awards).

 

Pour chaque catégorie « ReVolution », entre 10 et 16 projets sont sélectionnés pour leur qualité et leur capacité à faire évoluer le secteur de la VR/AR. Ils viennent exposer à Laval Virtual sur les pavillons labellisés « ReVolution ».

Un Art&VR Award récompense une œuvre issue de l’exposition artistique Art&VR Gallery. Le grand prix Laval Virtual récompense une solution qui se démarque par son impact sur l’ensemble du domaine de la VR/AR, que ce soit par l’intérêt de la rupture technologique qu’il présente, la qualité de l’immersion qu’il propose ou tout simplement sa réalisation. Le grand prix est choisi parmi l’un des gagnants des awards.

 

 

Autres nouveautés

Hormis les nouvelles orientations des conférences, parmi les nouveautés de 2019, citons une Bourse à l’emploi dédiée à la rencontre Employeurs/Talents. La Job Fair est un nouveau lieu d’échanges et de rencontres au sein du salon. Elle vise à mettre en relation, pendant la durée du salon, les entreprises à la recherche de collaborateurs avec les jeunes talents de la communauté VR/AR et des technologies immersives, tous présents à Laval Virtual.

Les organisateurs veulent poursuivre leur développement international. À ce titre, il existe une déclinaison en Chine (Laval Virtual Asia). Il sera important de voir comment le salon évolue et s’approprie également de nouvelles thématiques afin de rester un lieu d’innovation en avance de phase sur le marché.

 

Article paru pour la première fois dans Sonovision #14, p.46-47. Abonnez-vous à Sonovision (4 numéros/an + 1 Hors-Série) pour accéder, à nos articles dans leur totalité dès la sortie du magazine.

  • 20 février 2019 à 17:00

La Corée du Sud inaugure son premier réseau national 5G

La Corée du Sud et le premier réseau 5G au monde ©DR

Après Verizon, le géant américain des télécoms qui avait lancé commercialement son service 5G dans plusieurs villes des Etats-Unis dont Minneapolis et Chicago, la Corée du Sud a annoncé aujourd’hui être le premier pays à déployer un réseau 5G au niveau national.

 

Des appareils mobiles compatibles 5G sont également fournis et SK Telecom a annoncé le 3 avril à 23H00 l’activation de la 5G pour plusieurs personnalités et célébrités coréennes.

Pour rappel, Ericsson équipe les opérateurs coréens KT et SK Telecom dans l’accélération de la commercialisation d’une technologie qui va révolutionner les usages mobiles.

Après les 13 accords de commercialisation annoncés lors du Mobile World Congress à Barcelone, Ericsson continue ses efforts en vue d’un déploiement rapide de la 5G. A cette date, 18 accords ont été signés entre Ericsson et des opérateurs des Etats-Unis à l’Australie, découvrez-en la liste exhaustive.  

  • 23 avril 2019 à 15:17

Ça pulse pour la start up Augmented Acoustics !

Orange Fab ©DR

La start up Augmented Acoustics et sa solution Supralive ont le vent en poupe. Augmented Acoustics était ce week-end activement présente sur le Festival INASOUND et elle vient d'être choisie pour intégrer la pépinière Orange Fab France...

 

Augmented Acoustics sur la zone “Startup” d'INASOUND...

Parrainé parJean-Michel Jarre, président d’honneur de l’INA-GRM, le festivalINASOUND, véritable hub électronique, s'est donné l'ambition de connecter tous les acteur d'un univers qui touche aujourd'hui aussi bien l’audio, la vidéo, le web, le spectacle vivant que l’art contemporain, le gaming ou la mode....

Dans ce cadre, l'équipe d’AUGMENTED ACOUSTICS était présente dans la zone “Startup” (espace Réaumur dans le Palais Brongniart) et  la zone VIP pour faire découvrir la solution d’écoute SUPRALIVE qui via une application permet notamment à un public muni d'un casque de faire son propre mix en temps réel sur son smartphone ou encore de choisir une piste sonore et donc une langue dans un contexte de traduction simultanée.

Pour l'occasion, Jean-Michel Jarre leur avait confié une version multipiste de son morceau “Robots don’t cry”. Ainsi grâce à Supralive, pouvaient revisiter cette œuvre au travers d’une écoute inédite, immersive et interactive.

 

Le meilleur de Supralive à venir avec Orange Fab France...

Pendant douze semaines a minima, Orange Fab va suivre 8 start-ups impliquée dans les univers numériques et leur prodiguer des conseil de mangement et de business, avec a terme la possibilité d'un contrat avec une Business Unit ou avec une direction métier d’Orange. Pendant ce temps de mentorat, les jeunes pousses auront accès à l’espace start-up du site Orange Gardens (éco-campus Innovation du Groupe situé à Châtillon).

Les entreprises lauréates bénéficieront de l’accompagnement d’Orange Fab France, d’expertises avec des mentors dédiés et du réseau des 16 Orange Fabs répartis dans le monde. Augmented Acoustics a rejoint ce programme d’accélération de trois mois aux côté de 8 autres start ups : Apizee, D’un Seul Geste, DocnYou, EspritsCollaboratifs, MySim, Ogo Security, Res publica et Zeetta Networks...

  • 24 avril 2019 à 17:00

La Nurserie d'Audiens fait un appel à candidatures...

La Nurserie ©DR

La Nurserie, la « pépinière-incubateur » d’Audiens qui accueille et accompagne des entrepreneurs des secteurs des industries créatives et culturelles lance son appel à candidature.

 

Le dispositif :

  • Un espace de co-working au sein des locaux d’Audiens à Vanves.
  • Un accompagnement ponctuel en interne (juridique, financier et social).
  • L’accès aux espaces et services d’Audiens.
  • La participation au Réseau Culture & Innovation : évènements, rencontres professionnelles, outils de communication...

 

 Les start-ups précédemment accompagnées  : Artify -Vizity - Clic Muse - Linkaband - Elson - Okast - Nomadmusic - Brightzone - Toot sweet - Invidam - Rhythm and Town - Tracktl - Hirvi.

L’admission s’opère sur dossier. L’appel à candidature de la promotion 2019-2020 est ouvert jusqu’au 3 juin, pour une intégration au dispositif début juillet.

 

> Informations et dossier de candidature  

  • 8 mai 2019 à 16:00

Vivatech : Cenareo bientôt leader sur le marché de l’affichage dynamique…

Cenareo bientôt leader sur le marché de l’affichage dynamique… © DR

CityMeo, startup française qui développe une solution de gestion d’affichage dynamique intuitive et collaborative en mode SaaS a été rebaptisée Cenareo au début de l'année. On peut actuellement découvrir son offre sur le Stand Hewlett Packard Entreprise de Vivatech dans le Hall 1 du Parc des Expositions de Versailles...

 

Créée en 2012 par quatre ingénieurs, Cenareo, propose une technologie, ouverte, intuitive et résolument « usercentric », pensée pour permettre aux gestionnaires de parcs d’écrans de déployer facilement les stratégies de communication les plus inventives.

En phase d’hyper croissance depuis sa création, la société est déjà composée de 32 collaborateurs. Avec sa nouvelle identité, elle se donne l’objectif d’asseoir ses aspirations et de marquer son changement d’envergure…

 

« Avec déjà 8 000 écrans équipés dans 32 pays et un bureau à Munich, en Allemagne, nous avons l’ambition de devenir un leader mondial. Nous avons voulu jouer avec le nom Cenareo (prononcé “Scénario”) qui fait référence à la mise en scène pour appuyer nos objectifs et nous positionner en tant qu’acteur majeur pour donner vie aux histoires de nos clients », souligne David Keribin, CEO de Cenareo.

« Nous sommes prêts à accompagner davantage de communicants dans l’orchestration de leurs contenus, dans la création de leurs scénarios de diffusion et la théâtralisation des points de vente », complète Valérie Besnard, directrice de la communication de Cenareo.

 

 www.cenareo.com

  • 15 mai 2019 à 17:00
❌