Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierMediakwest - Broadcast

Un programme de radio filmée diffusé quotidiennement sur France 3 région avec MULTICAM SYSTEMS

Un programme de radio filmée diffusé quotidiennement sur France 3 région © DR

Radio France et France Télévisions se sont associés pour produire un direct vidéo des matinales de France Bleue et c’est la société française MULTICAM SYSTEMS qui a été choisie via un appel d’offre pour son système de production live automatisé MULTICAM RADIO.

 

« Il fallait fournir un système automatisé pour la captation vidéo mais également une interface de contrôle de l’habillage graphique. En effet, un opérateur est en charge d’habiller le programme radio selon une ligne éditoriale télévisuelle bien définie qui comprend des illustrations pour les reportages vidéo, des synthés pour l’actualité, le recouvrement des publicités radio… », précise Arnaud Anchelergue, directeur associé de MULTICAM SYSTEMS.

L’opérateur dispose de deux écrans tactiles : il peut agir sur la production du direct via l’écran de gauche (commandes pour l’IA et l’Auto-framing, gestion de l’enregistrement et du streaming) et sur l’habillage et les illustrations via l’écran de droite. Une charte spécifique a été implémentée, ses ajustements et la mise à l’antenne s’opèrent sur MULTICAM ASSIST, interface disponible sur cet écran de droite.

« L’ergonomie et la facilité d’utilisation du système permet une prise en main rapide. L’opérateur n’a pas besoin d’être un technicien, son profil étant plutôt orienté journaliste… », complète Arnaud Anchelergue.

 

Le système adopté pilote 5 caméras PTZ (Panasonic HE130) avec un module d’Intelligence artificielle basé sur la prise de parole. Un module de recadrage automatique (auto-framing) permet des presets en fonction des différences de position des intervenants.

L’émission, qui est diffusée avec un décrochage de 7h à 8h40 est diffusée sur la TNT, sur l’application France 3 régions et sur le site internet de Radio France. Un support d’assistance opérationnel quotidien de 6h00 à 9h00 a par ailleurs été spécifiquement déployé par MULTICAM pour ce projet.

Quatre sites ont déjà pris l’antenne, à Nice, à Lille, à Guéret et à Toulouse et au total, une quarantaine de stations seront équipées d’ici 3 ans. Les stations France Bleu seront aussi équipées de projecteurs 30 watt Mini Twinled fournis par Eurolight System.

Sur IBC, MULTICAM démontrait une configuration avec un pilotage de têtes robotisées, adapté aux caméras broadcast. Ses clients ne seront donc plus limités à un choix de caméras PTZ tout-en-un et pourront intégrer dans leurs studios des systèmes avancés comme des rails de traveling et dollies… Une intégration opportune qui devrait séduire les producteurs medias en recherche de solutions de direct tournées vers la simplification et la rationalisation…

 

L’équipe MULTICAM SYSTEMS vous donne rendez-vous sur le SATIS, le 5 et 6 Novembre prochains pour vous présenter toutes ses solutions…

  • 14 octobre 2019 à 17:00

Les résultats du POC organisé par Videlio et l’IIFA sur l’interopérabilité du ST-2110

Lors de la présentation des enseignements du POC, Emanuele Di Mauro a détaillé le fonctionnement des matériels dans le laboratoire de formation de Videlio. © IIFA

L’intégrateur broadcast Videlio Media et l’institut de formation IIFA ont organisé début juillet 2019 un POC centré sur l’interopérabilité au niveau de la structure et du contrôle des flux audiovisuels, transmis selon le standard ST-2110 pour la production live en IP. Réunissant douze constructeurs, ils ont montré que le transport vidéo sur IP est devenu une réalité en déployant six workflows de production.

 

Dans le domaine de la production vidéo live, la migration du câblage SDI vers des infrastructures tout IP est un mouvement inéluctable, en particulier grâce à la généralisation des interfaces 10, 25, 40 ou 100 Gb/s compatibles avec les débits nécessaires pour exploiter les flux non compressés, gérés par la norme SMPTE ST-2110.

Ces ports IP, destinés au transport en mode paquets des signaux vidéo et audio sans compression, sont de plus en plus présents sur les équipements de production : mélangeurs vidéo, processeurs, convertisseurs…

Après une première période centrée sur les normes SMPTE 2022, conçues dans une optique de transport global des signaux et de leur sécurisation, la norme ST-2110 répond en priorité aux besoins de la production au cours de laquelle il faut traiter de manière séparée chacune des « essences », la vidéo, les multiples pistes audio, les métadonnées, le contrôle et les références temporelles.

C’est pourquoi la norme ST-2110 est organisée en une longue série de chapitres (ST-2110-10, -20, -21, -30…), certains étant encore en cours de rédaction (voir tableau). La séparation des « essences » se prête bien à la mise en place des workflows média, dans lesquels chaque module est spécialisé pour traiter une essence donnée.

L’exploitation des équipements ST-2110 fait basculer l’univers traditionnel des broadcasters vers celui de l’IT et des réseaux IP pour lesquels les technologies et les procédures sont basées sur des concepts totalement inédits pour le monde de l’audiovisuel. La complexité de la norme ST-2110 et les nouvelles méthodes sur lesquelles elle s’appuie ne rassurent pas les exploitants et techniciens qui doivent entreprendre une véritable conversion culturelle.

Face à l’émergence de nouveaux projets basés sur le tout IP, les responsables de Videlio Media et de l’IIFA, un organisme de formation qui a déjà accompagné de nombreuses chaînes et équipes audiovisuelles dans ce travail de mutation vers l’IT, ont décidé d’organiser un POC (Proof Of Concept) pour vérifier l’interopérabilité des flux entre des équipements provenant de plusieurs constructeurs.

Outre cet aspect, il s’agissait également de montrer que la norme ST-2110 offre une véritable souplesse dans la gestion séparée des divers flux audiovisuels, à la fois pour optimiser au mieux la charge réseau, mais aussi offrir toute la souplesse indispensable en phase de production. L’une des fonctions clés d’une architecture tout IP est remplie par l’orchestrateur qui facilite le passage d’un workflow à l’autre et offre des outils de pilotage et des panneaux de commande similaires à ceux des régies câblées en SDI.

Enfin, le dernier objectif était de découvrir en configuration de production les bonnes pratiques de mise en œuvre de ces nouvelles architectures, leurs limites et les points à surveiller lors de la mise en place d’un système tout IP.

 

Douze constructeurs associés à ce POC

Au départ, les initiateurs du POC avaient prévu d’interconnecter cinq ou six équipements distincts fonctionnant en ST-2110. Mais devant l’intérêt suscité par une telle expérimentation, d’autres constructeurs ont contacté Videlio Media et l’IIFA pour s’y associer. Ce sont en définitive douze constructeurs qui ont participé au POC en mettant à disposition seize équipements distincts, le tout piloté par un orchestrateur Magellan d’Imagine Communications et par un logiciel développé lors du POC, exploitant les API fournies par les constructeurs.

Au cœur du dispositif, se trouve un switch réseau Cisco de la gamme Nexus 9000 avec 48 ports recevant des modules SFP avec un débit de 1, 10 ou 25 Gb/s et six interfaces 40 ou 100 Gb/s compatibles QSFP28. Aja avait fourni deux modules de conversion HDMI <-> ST-2110, l’un en sortie d’une caméra JVC et le second pour afficher des signaux ST-2110 sur un écran JVC. Embrionix a mis à disposition deux modules de conversion SFP équipés l’un d’une double entrée SDI et l’autre en double sortie SDI, eux aussi raccordés à des caméras et à des écrans, Sony et JVC en l’occurrence.

La fonction de playout était assurée par un serveur Harmonic Spectrum X. En plus de l’orchestrateur Magellan déjà cité, Imagine Communications avait fourni un module de monitoring multiviewer Epic, ainsi qu’un processeur de conversion et de traitement vidéo Selenio Network Processeur. Il permet de traiter 32 entrées et 32 sorties HD-SDI depuis et vers du ST-2110 sur un port 100 Gb/s. Sony était également présent avec une caméra HDC-3100 équipée d’une sortie IP ST-2110 et un mélangeur XVS-8000 équipé full IP. Il récupérait des sources via ses interfaces IP et renvoyait un mixage vidéo vers l’installation.

Une passerelle Nevion Virtuoso était affectée à la conversion de la sortie SDI du mélangeur NewTek, mais servait aussi à du monitoring. Un châssis Micron MediorNet de Riedel récupère quatre flux IP via son interface ST-2110, effectue du clean switch et extrait un contenu audio renvoyé vers le PowerCore Audio de Lawo. Malgré ses multiples possibilités de traitement et de conversion audio, ce dernier avait surtout pour fonction d’extraire des signaux audio depuis des flux IP et de les convertir en analogique vers une enceinte amplifiée.

En plus d’un mélangeur TC-1 et d’un TriCaster, NewTek était également présent avec sa passerelle NC1 I/O IP. Avec le NDI, ce constructeur développe son propre protocole vidéo sur IP, basé sur des principes techniques totalement différents de ceux du ST-2110. Mais grâce à cette passerelle les signaux ST-2110 du POC étaient renvoyés vers les mélangeurs NewTek et en retour la sortie mixée repartait vers les équipements du POC. Une première technologique en Europe qui montre avec quelle facilité le passage d’un environnement à l’autre se fait de manière transparente.

Tektronix jouait un rôle central dans la mise en œuvre de ce POC en fournissant un générateur de référence PTP SPG8000A et un outil de mesure Prism pour l’analyse des signaux.

 

Une gestion des workflows totalement inédite

L’ensemble de ces équipements ST-2110 a été déployé en sept jours dans l’espace de formation de Videlio à Gennevilliers sous la coordination de Pascal Souclier et d’Emanuele Di Mauro (respectivement directeur et responsable de projet à l’IIFA) et de Marc Deshayes, directeur technique de l’ingénierie système et Jean Felix Luigi, chef de projet chez Videlio.

L’objectif des organisateurs était de parvenir à configurer six workflows simples et opérationnels correspondant à des configurations de travail habituelles dans les chaînes TV : sélection et contrôle d’une source vers un écran, sélection d’un process vidéo IP vers IP, clean switch entre plusieurs sources (dont une non adressable directement), playout avec habillage et commutation sur une source live, gestion séparée de chaque flux audio et contrôle d’une sélection de sources via une API.

Lors de la présentation des résultats de ce POC, Emanuele Di Mauro est revenu sur quelques éléments essentiels concernant le déploiement d’une infrastructure tout IP : « Dans une installation tout IP, on est un peu démuni car on ne voit pas directement son workflow. En SDI, chaque matériel est équipé d’entrées et de sorties, câblées successivement. On voit physiquement son workflow et c’est très rassurant. Dans une architecture tout IP, tous les équipements sont reliés en étoile sur le switch central (ou dans une topologie arborescente de type Spine Leaf) grâce à des liaisons IP fonctionnant de manière bidirectionnelle. Avec la même infrastructure on peut passer d’un workflow à l’autre sans rien modifier au niveau câblage. Ça donne beaucoup plus de souplesse car on passe alors à une gestion dynamique des workflows. Mais il faut alors un autre outil : l’orchestrateur. »

L’orchestrateur peut fonctionner de deux manières. Soit il contrôle directement les équipements réseau pour aiguiller les paquets entre la source et la destination, soit il pilote les équipements de destination. Dans ce cas, les sources de contenus transmettent des flux émis en mode multicast, et c’est l’orchestrateur qui indique aux destinations sur quels flux elles doivent se connecter.

Dans le premier cas, on utilise des outils de type SDN (Software Defined Network) qui virtualisent les couches réseaux et transforment les switchs réseaux en sorte de gare de triage. Cette approche a l’inconvénient de dépendre de la couche de messagerie utilisée par les switchs. Pour ce POC, la méthode de contrôle des destinations a été choisie, en cohérence avec la tendance actuelle qui privilégie le contrôle des flux au niveau applicatif, en lien avec le standard NMOS. Ce dernier va probablement s’imposer, mais il n’est pas encore totalement implanté et confirmé.

Pour la mise en place du POC, ses responsables ont alors choisi de piloter les équipements grâce au protocole Ember +, créé à l’initiative de Lawo, et choisi par de nombreux constructeurs broadcast. Il offre une structure similaire à celui du SNMP avec des branches de paramètres imbriquées.

L’orchestrateur Magellan d’Imagine Communications contrôlait de manière directe les équipements de ce constructeur (le multiviewer Epic et le processeur Selenio), puis grâce à Ember + les modules SFP d’Embrionix et les convertisseurs AJA. Pour l’outil de mesure Prism de Tektronix, Imagine Communications avait déjà développé un « connecteur » logiciel approprié.

Pour d’autres matériels comme le serveur Spectrum X d’Harmonic ou l’interface audio Lawo, une technique particulière a été adoptée : au lieu de contrôler directement ces destinations par l’orchestrateur Magellan, ce dernier envoyait les commandes via un dispositif central de conversion IP <-> IP, le processeur Selenio qui faisait office de passerelle NAT Multicast.

 

Le rôle essentiel du protocole PTP

Comme dans les architectures de type SDI, l’intersynchronisation des sources est un élément essentiel pour assurer une commutation propre entre les sources d’images. Dans une infrastructure IP, celle-ci est obtenue grâce au protocole PTP (Precision Time Protocol), issu de la norme IEEE-1588, adaptée à la vidéo dans le cadre du ST-2059 et maintenant intégré dans la ST-2110-10. Le signal de référence temporelle est fourni par un équipement « maître » sur lequel tous les autres équipements vont se synchroniser en mode slave.

Dans le cas du POC, le signal de référence était fourni par le générateur Tektronix SPG8000A, renvoyé ensuite vers le switch Cisco et redistribué à tous les équipements qui y sont connectés. L’outil d’analyse Prism de Tektronix est un élément indispensable pour contrôler l’intersynchronisation des signaux entre eux. Le protocole PTP tient compte des temps de propagation aller et retour des signaux sur les liens IP. Lors du POC, il a fallu ajuster la durée de certains tampons pour tenir compte de disparités de latence entre les matériels de divers constructeurs.

La qualité et les performances des modules SFP sont aussi des éléments fondamentaux dans l’exploitation d’un système de production tout IP. Cisco fournit des modèles en conformité avec les spécifications de ces actifs réseaux. Mais il existe de nombreuses autres sources d’approvisionnement plus économiques. Lors du POC, les équipes techniques ont constaté des écarts importants de performances selon leur origine avec parfois des incidences sur les signaux, pas évidentes à diagnostiquer. L’outil d’analyse Prism s’est révélé être d’un grand secours pour détecter l’origine de ces dysfonctionnements.

Plusieurs fois, une manipulation sur un équipement ou même un simple déplacement de câble provoquait une perte d’images ou de signaux, qu’intuitivement il semblait facile à corriger alors qu’en réalité les analyses et les mesures du Prism permettaient d’en déceler la cause sur un autre équipement. Le surcoût engendré par les modules SFP performants et fiables est également un paramètre à prendre en compte dans la mise en place d’un système tout IP.

 

Une grille de commutation fonctionnelle grâce à une API programmée sur place

La plupart des équipements et des applicatifs sont fournis avec des API afin de les piloter par des systèmes externes. Dans le cadre du POC, Emanuele Di Mauro a développé à titre expérimental une interface web tactile pilotant les modules Embrionix de manière à les exploiter dans une configuration de grille de commutation. Ce module de contrôle a été développé en cinq heures en PHP-MySQL. Il démontre ainsi que dans une équipe technique en charge d’un système de production IP, il est fort utile qu’au moins l’un de ses membres possède des compétences en développement pour gérer des API pour des besoins spécifiques et remédier aux limitations des outils de pilotage ou de l’orchestrateur mis en place.

Au cours de la présentation qui a conclu la semaine de tests du POC, Emanuele Di Mauro est revenu sur plusieurs points essentiels à prendre en compte lors du déploiement d’une architecture de production tout IP.

« La mise en place d’un réseau IP pour traiter des flux audiovisuels ne s’improvise pas et exige de solides compétences IT dans l’équipe d’intégration. Les actifs réseau se configurent grâce à de multiples lignes de commande avec lesquelles il est indispensable d’être à l’aise », explique-t-il.

Le POC était organisé autour d’un seul switch réseau, mais pour un vrai système de production, plusieurs switchs seront associés dans des architectures redondantes et complexes comme celle des « Spine Leaf ». Il faut également maîtriser toutes les subtilités de l’adressage multicast et être très rigoureux dans le plan d’adressage des machines.

 

Associer des compétences réseau et métier

Les équipes techniques ont dû faire face également à des difficultés d’accès aux manuels et documentations techniques des matériels. Elles sont soit incomplètes ou pas tenues à jour par rapport aux évolutions des « firmwares ». Plusieurs fois, ils ont dû se faire confirmer des informations techniques via des échanges directs avec les supports techniques des constructeurs.

Encore plus surprenant, certains matériels ont été fournis dans des configurations ou avec des versions logicielles ne correspondant pas à ce qui était annoncé. L’analyseur Prism a été d’un grand secours pour détecter immédiatement les caractéristiques réelles du signal fourni. Ainsi, par exemple, un équipement était annoncé ST-2110 alors que les signaux fournis étaient en 2022-6.

Mais pour Emanuele Di Mauro, « Le plus gros challenge lors du déploiement d’un système de production tout IP se situe au niveau de la constitution de l’équipe technique. Trois pôles de compétences doivent être réunis. Bien sûr un chef de projet avec une vraie expérience métier du broadcast, et au même niveau, un second responsable avec une véritable vision IT de l’installation et en complément un ou plusieurs développeurs selon la taille du projet. Ces derniers prendront en charge la conception des IHM pour piloter et centraliser l’interface utilisateur avec les API fournies par les équipements. »

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.50/52. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 13 octobre 2019 à 16:03

NextRadioTV, prêt pour le futur

Les moyens techniques des régies sont uniformisés le plus possible. Il y a pour le moment sept régies, qui peuvent gérer les différents plateaux. © DR

Inauguré officiellement il y a quelques mois, le nouveau siège de NextRadioTV est une réalisation exemplaire qui associe des outils de pointe sur une infrastructure hybride. L’une des difficultés du projet fut de maintenir une activité de continuité alors que progressivement le site du nouveau Campus montait en charge. Cela a été rendu possible notamment grâce à la solution Riedel, permettant un maillage étroit facilitant la migration. Entretien avec Antoine Robelin, directeur technique broadcast, et Steven Robert, chef de projets broadcast au sein de NextRadioTV.

 

Le site historique de NextRadioTV de la rue d’Oradour-sur-Glane, dans le 15e arrondissement de Paris, était considéré comme trop exigu depuis un certain temps, avec les activités croissantes sur le site de RMC, BFMTV, BFM Business, puis le lancement des chaînes sport. En recherche d’un nouveau site, le projet s’est arrêté avec le rachat par le groupe Altice.

Une fois cette acquisition opérée, le projet est revenu sur le devant de la scène. Ce projet consistait, pour les chaînes du groupe, à intégrer le Campus Altice (siuté en face de France Télévisions) qui comprend quatre bâtiments. NextRadioTV devait être ainsi constitué de la partie Media Radio, Télévision et digital au sein du bâtiment Est qui comprend également quelques titres de presse comme Libération et L’Express.

Il a fallu redimensionner, en cours de rédaction du cahier des charges, les infrastructures, comme le souligne Antoine Robelin. « Nous avions défini les moyens techniques sur le site pour accueillir BFMTV, BFM Business, RMC Radio, RMC Découverte et RMC Story, et pendant que nous étions dans l’écriture du cahier des charges, le groupe a acquis les droits de la Ligue Europa et de la Ligue des Champions. Nous avons modifié pendant le projet une grosse partie du cahier des charges et des spécifications techniques. Cela a conduit à la création de chaînes et d’un rebranding complet de toute l’offre sport. Le projet à l’origine comprenait cinq plateaux, cinq régies et au final nous nous sommes retrouvés avec sept plateaux et sept régies. Toutes les continuités TV et Radio ont été intégrées pour l’ensemble du groupe. »

Pour simplifier les process de travail pour les techniciens, et rendre plus aisé le travail entre les différentes régies, les moyens techniques sont les plus uniformes possible. Ainsi, des mélangeurs Kahuna Grass Valley ont été choisis pour les régies 1, 2, 3 et des mélangeurs plus compacts Kula pour les régies de 4 à 7. Pour les moyens audio, ce sont des consoles Studer Vista, y compris sur les radios. Les routings vidéo et audio sont basés sur un système Riedel mediornet et sur des routers audio studer et le tout piloté par Cerebrum d’Axon.

Une régie finale unique assure la continuité pour l’ensemble des chaînes de TV et radios du groupe. Quelque 13 départs TV premiums sont opérés, dont 1 en UHD, 10 chaînes évènementielles pour les évènements sportifs, ainsi que 2 radios nationales. Le trafic unique gère le routing de l’ensemble des signaux de contribution entrants et sortants ainsi que l’ingest.

 

Une expansion rendue possible grâce à la modularité du système

Toutefois, malgré l’arrivée des nouvelles chaînes, il reste encore du potentiel de croissance ; le groupe travaille d’ailleurs sur le projet de déploiement régional. Récemment, Altice a fait l’acquisition de la chaîne locale TLM (Télé Lyon Métropole), qui va devenir BFM Lyon, et une envie d’avoir d’autres chaînes en région se fait sentir.

Trois catégories de chaînes sont développées : des chaînes news (live) avec, entre autres, BFMTV qui est le vaisseau amiral avec vingt heures de direct par jour, 4h30/00h30 en 24/24 sur la production, avec également BFM Business, BFM Paris, et prochainement BFM Lyon. Des chaînes de flux sont également proposées avec RMC Story, RMC Découverte, qui comprennent aussi des tranches de live, notamment avec le direct de Jean-Jacques Bourdin sur RMC Découverte chaque matin, et les Grandes Gueules sur RMC Story.

Le troisième cas de figure, et c’est l’une des spécificités du groupe, ce sont les synchros radio TV : « Faire de la radio, on savait faire ; de la télévision, on savait faire, mais radio et TV dans une plate-forme intégrée, c’est le plus gros challenge du groupe. Chaque plateau, chaque régie est capable de faire de la radio ou de la télévision. Il est possible de prendre l’antenne de n’importe quel endroit – nous ne sommes pas dans quelque chose de connu, il faut donc inventer des process nouveaux avec des responsables d’exploitation qui doivent maîtriser leurs outils. Radio et TV sont à la base deux métiers différents que nous parvenons à fusionner grâce aux synergies souhaitées depuis longtemps par Alain Weill et l’équipe dirigeante du groupe », insiste Antoine Robelin

 

Riedel, le facilitateur

NextRadioTV a fait le choix d’une infrastructure évolutive, hybride ; comme le fait remarquer Steven Robert : « Nous avons commencé à discuter avec Riedel au début du projet. Nous nous sommes posé la question : IP ou pas ? En 2016 l’IP était encore peu développé, les standards pas stabilisés, cela coûtait très cher et notre équipe de R & D n’était pas formée, en termes de compétences réseau, à ces technologies. Nous avons donc mis rapidement de côté l’IP. Nous ne voulions pas forcément non plus une infrastructure très classique avec des grilles SDI qui n’auraient pas été très évolutives. Nous avons cherché une solution décentralisée mais qui puisse progresser dans le temps. Nous souhaitions avoir un câblage “futur proof” entièrement fibre. Pour ne pas avoir à refaire le câblage lors d’une évolution IP, nous avons donc opté pour une solution hybride avec la solution Mediornet de Riedel. »

La plate-forme est constituée d’un ensemble d’éléments MicroN 12 entrées/12 sorties, il y a 190 MicroN qui sont répartis au plus proche des salles des techniques, des équipements. L’avantage avec Riedel, c’est qu’il ne comporte pas de maillage SDI cuivre Complexe à déployer sur un bâtiment de la taille de celui de NextRadioTV, les longueurs de câbles étant très importantes. Les modules sont répartis dans les régies et plateaux pour alimenter les murs d’images en plateau, les mosaïques, les moniteurs de contrôle dans les différentes régies. Le réseau est étendu dans les étages pour les newsroom, cabine speak, contrôle technique, salle de montage, poste QC…

Il y a deux salles techniques. Une au premier étage et l’autre au sous-sol. La majorité des équipements se répartit entre les deux. Ces salles accueillent les équipements production et postproduction des régies.

La solution Riedel permet d’innerver les différentes parties du bâtiment pour échanger des signaux dans l’intégralité des étages, toujours en transportant les signaux en fibre ; le maillage est très important, vu la taille du bâtiment. La technologie Riedel est dédiée à la production et le trafic ; elle est interconnectée avec d’autres grilles pour la diffusion. Pour la diffusion, l’architecture est plus classique, avec deux grilles Grass Valley en SDI.

La migration s’est faite sur plusieurs mois et la technologie Riedel a facilité le processus. Le réseau avait été étendu entre les deux sites. 4 Micron étaient déportés sur le site Oradour, permettant le routage de 48 signaux HD-SDI dans chaque sens « Nous avons étendu le réseau aux deux sites afin que les utilisateurs évoluent dans un environnement unique. Tout le monde travaillait dans un environnement unique ; le NRCS étant le même, en l’occurrence Dalet, les équipes ont travaillé sur le même système ; il n’y avait pas besoin de créer de site miroir avec synchro de base de données, ce qui a permis une transition assez douce. »

« Pareil côté trafic audio et vidéo. Nous avons basculé petit à petit sur toutes les ressources, y compris pour les transmissions. Nous avons pu déménager des antennes satellites d’Oradour au nouveau Campus et en acheter quelques-unes supplémentaires, plutôt que de tout racheter. Le groupe NextRadioTV exploite son propre téléport composé d’antennes fixes et motorisées réparties sur deux sites géographiques distincts. Le premier étant le Campus Altice et le second situé à une quarantaine de kilomètres de Paris. Nous rapatrions par fibre les signaux bande L depuis le téléport distant pour alimenter les IRDs du trafic. Pour l’ensemble des liaisons intersites nécessaires à la double exploitation, ainsi que pour les liaisons du téléport satellite au Campus Altice, nous nous basons sur des fibres déployées par SFR », poursuit Antoine Robelin.

 

Production et postproduction

Pour la prise de vue, tous les plateaux disposent de caméras automatisées, mais il est possible à tout moment de reprendre la main. Des caméras à l’épaule servent pour certaines productions en public. Toutes les caméras, hors plateau 4, sont des caméras Sony 4300 ou P43, excepté BFM Business qui exploite des PTZ H800. Les caméras sont placées sur des têtes Ross VR100 et VR600 (prompteur).

Le MAM est sur la technologie Dalet. Les montages magazines (news et sport) sont effectués sur Adobe Premiere pro avec plug-in Dalet Extend qui permet depuis Adobe d’avoir accès à l’intégralité des contenus du MAM Dalet. Concernant le stockage, il n’y a pas un stockage centralisé, mais plusieurs serveurs de stockage production et stockage plus froid pour les archives. Tout est sur serveur. Pas de bande.

 

Bilan et futur

La transition s’est bien passée. Ce fut un gros changement ; il a fallu former toutes les équipes de maintenance, mais aussi les équipes d’exploitation sur les nouveaux outils, tout en assurant la continuité. Redbee Media, filiale d’Ericsson, est l’intégrateur qui a été choisi pour accompagner NextRadioTV sur cet énorme projet. Les équipes d’ingénierie Redbee ont travaillé main dans la main avec les équipes NextRadioTV afin de construire l’un des plus gros sites de production et de diffusion TV et radio de France. Les équipes support ont été intégrées dès le début du projet afin d’être autonomes lors de la mise en production du site.

Aujourd’hui la technologie est stabilisée, le site est pris en main et l’idée désormais est de passer à l’étape supérieure. Il s’agit notamment de travailler sur le déploiement de décors virtuels plus complexes, de la réalité augmentée en s’appuyant sur des partenaires comme Avid, Zero Density /Dreamwall, ainsi que VizRT.

 

Article paru pour la première fois dans Mediakwest #32, p.92/93. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 octobre 2019 à 17:00

France Télévisions UHD, 8K, 5G sur Roland Garros 2019

Dans le car régie de France Télévisions (Toulouse) qui produisait le signal international. © DR

Dans la continuité de ce qui avait été fait en 2018 sur les expérimentations en Ultra HD, France Télévisions est reparti sur les mêmes bases, mais en enrichissant grandement le dispositif et l’expérience utilisateur. Une chaîne événementielle UHD 4K était disponible en TNT, satellite et IPTV durant la totalité de la quinzaine. Une expérimentation de télévision en 8K et transmission 5G a également été testée, préfigurant l’un des futurs de la télévision. Visite des installations à Roland Garros et à France Télévisions.

 

Pour une fois commençons par l’audio ! Le dispositif était sensiblement le même qu’en 2018, sauf qu’entretemps le court central ayant été reconstruit, il était nécessaire de prendre d’autres repères pour le placement des microphones, notamment pour le système immersif Schoeps ORTF-3D (huit capsules audio) chargé de la captation de l’ambiance générale en 3D.

Placé sous le premier balcon, ce système baignait au milieu des spectateurs. Quant aux microphones directifs disposés autour du court, ils se focalisaient sur les sons du jeu : frappes, cris, courses et annonces arbitrales. Le car-régie a produit le signal international en 9.1 associé à un « objet sonore » optionnel proposant les commentaires en français. Les métadonnées audio nécessaires à la description et le monitoring de ce flux « audio orienté objets » ont été édités grâce un équipement Jünger.

Sur la TNT et le satellite (Fransat), une composante audio orientée objets encodé en Mpeg-H 3D fut proposée, permettant aux téléspectateurs équipés de matériel compatible de bénéficier d’un son immersif et interactif, d’ajuster le niveau sonore du commentaire et profiter de l’ambiance sonore du court en immersion.

À date, les seuls équipements disponibles sur le marché sont des barres de son 3D ou des amplificateurs AV dotés d’un décodeur Mpeg-H. Les fabricants de téléviseurs, lorsqu’ils supportent le Mpeg-H, proposent pour l’instant un simple rendu stéréo et non pas de l’audio 3D. Les premières interfaces Next Generation Audio intégrées dans les TV sont annoncées sur les modèles 2020.

Pour les équipements de réception audio classiques, une version proposant le son d’ambiance 3D du court Philippe Chatrier en binaural a été fabriquée. Cette version a été proposée sur le réseau Orange, en complément d’une version française classique et d’une autre version française dont le niveau des commentaires était renforcé pour les malentendants.

 

Dans le car-régie

Sur place, le signal UHD était produit par un car de production de France Télévisions (Toulouse), également en charge du signal international HD. Si ce car est bien UHD, le monitoring reste toutefois HD, et seuls 2 postes d’ingévision et celui du chef de car permettent de visualiser le signal UHD et vérifier l’intégrité du signal UHD en Haute Dynamique (HDR). La production reste donc principalement en HD, et le signal UHD est considéré comme une couche logique du mélangeur qui est manipulée et habillée en parallèle du signal HD.

Le dispositif de captation était constitué de douze caméras UHD Panasonic AK-UC4000 pour la réalisation principale et d’une caméra Sony HDC-4300 (Spider-cam). Ce dispositif était complété par 5 caméras HD upconverties en UHD (caméras dans le filet, CableCam, chaise-arbitre et entrée des joueurs) et 6 serveurs de ralenti HD upconvertis également.

Ajuster la colorimétrie entre différents modèles et marques de caméras est toujours un challenge, surtout lorsqu’il faut aussi homogénéiser la couleur de la terre battue d’un court à l’autre. Dans le cas de cette production parallèle UHD-HDR et HD-SDR, l’équation se complique à l’extrême. En UHD-HDR, le standard frise le milliard de couleurs, contre 16 millions en HD-SDR. L’usage veut qu’en HD l’image apparaisse flatteuse au prix de quelques exagérations chromatiques, tandis que le réalisme des couleurs UHD-HDR implique de s’en passer au profit des teintes naturelles.

Les caméras Panasonic offrent justement deux réglages de saturation colorimétrique distincts permettant d’adapter les signaux UHD-HDR et HD-SDR à ces deux esthétiques de production. Cette option n’est pas disponible sur les caméras Sony, dont il a fallu réduire l’excès chromatique de l’image UHD-HDR pour obtenir une image HD comparable aux autres caméras, malheureusement sans possibilité d’atteindre la perfection. L’up-conversion UHD-HDR des caméras HD fut confiée à des convertisseurs Cobalt (technologie Technicolor/InterDigital) dont l’algorithme permet une adaptation automatique aux variations de luminosité au cours de la journée. Les ralentis ont été convertis avec la technologie Sony (HDRC-4000).

 

Comment maîtriser le HDR

Produire en UHD-HDR, tout en donnant la priorité à un signal HD-SDR destiné à 99% des téléspectateurs, pose problème. Les ingénieurs vision se focalisent sur leur écran HD-SDR, lequel ne leur permet ni de valider la mise au point d’une caméra en 4K, ni l’évidence d’un raccord de luminosité ou de colorimétrie. Lors des changements importants de luminosité, il est arrivé fréquemment qu’un ingévision considère deux caméras homogènes en HD-SDR, avant de s’apercevoir, plusieurs minutes plus tard, que les signaux présentent une différence notable sur un écran UHD-HDR quatre fois plus précis. Seule solution pour sortir de ce piège : produire en UHD-HDR puis créer les déclinaisons SDR et HD-SDR à partir du HDR. Cette option n’est pas prévue pour le moment à Roland Garros.

Le signal UHD, produit en HLG, et les composantes audio associées ont été transportés en IP par une fibre optique de la porte d’Auteuil au siège de France Télévisions. C’est la régie finale de France Télévisions (le CDE – Centre de diffusion et d’échanges) qui a récupéré le signal afin de réaliser l’habillage de la chaîne (alternance des directs et rediffusions, bandes annonces, publicités, insertion de logos…) et qui a adapté les caractéristiques de cette chaîne événementielle France TV Sport aux différents réseaux de distribution. Les contenus ont été convertis en HDR10 assorties de métadonnées SL-HDR2 (technologie Philips/Technicolor) avec des cartes Cobalt. Ces métadonnées sont interprétées par les téléviseurs HDR.

Le choix de cette technologie a empêché la réception de cette chaîne UHD-HDR par certaines anciennes TV UHD, mais en contrepartie les téléviseurs compatibles ont pu bénéficier d’une meilleure qualité de service et d’un visuel amélioré. En parallèle, le signal UHD-HDR a également été converti en UHD-SDR pour alimenter le réseau IPTV d’Orange.

 

Une régie UHD chez France Télévisions

Désormais, France Télévisions dispose d’une régie de diffusion UHD. Le projet a été initié au mois de février, porté par la cellule Innovations & Développements de la direction des Technologies. Tout a été fait en un mois, l’appel d’offres lancé fin mars, avec la réception des équipements fin avril.

« Nous voulions à l’origine une régie en SMPTE 2110, mais les constructeurs n’étaient pas capables de fournir dans les temps pour Roland Garros. L’appel d’offres est constitué de trois parties : une partie pour les liaisons de contribution entre RG et la régie, une partie pour l’enregistrement des matches et playout et une partie pour l’infrastructure réseau. La société Harmonic a gagné l’AO sur les deux premiers lots. Ils n’étaient pas en capacité de livrer dans les temps pour RG. Ils ont livré en 4 x 3G SDI sur une base Spectrum X, et durant l’été nous avons eu la livraison de la version Spectrum X2 en SMPTE 2110 », souligne Claire Mérienne-Santoni, chef de projets Technologies au sein de la Direction Innovations & Développements de France Télévisions.

France Télévisions envisage de réaliser des productions futures sur le sport, mais aussi sur des événements de divertissement. Dans les prochains projets, il devrait y avoir la captation et la transmission de la course cycliste Paris-Tours en octobre 2019 où s’effectueront des tests HF en UHD avec Euromedia.

 

 

FRANCE TV LAB PREMIÈRE MONDIALE TV 8K & 5G

La Fédération Française de Tennis (FFT) a une nouvelle fois challengé les équipes du Lab de France Télévisions pour mener une expérimentation autour de technologies avancées, comme la production TV en 8K et la diffusion en direct et en 5G avec Orange, son fournisseur officiel, avec plus de 100 heures de programmes en direct.

« Le nouveau court Philippe Chatrier préfigure le futur du tennis ; il s’agissait de donner notre vision du futur de la télévision dans ce stade rénové. Nous pensons que la 5G et le 8K seront des technologies très complémentaires qui auront un rôle important dans la décennie à venir », souligne Bernard Fontaine, directeur d’Innovations technologiques à France Télévisions, en charge du projet.

France Télévisions a ainsi réuni et piloté 20 partenaires venus du monde entier pour cette opération. Objectif : reproduire en 8K tous les usages actuels de la TV qu’elle soit en Live, Replay ou VOD ! Les caméras 8K Sharp reliées par fibre par Ereca avec Synoptics Broadcast sur un mélangeur de Blackmagic Design pour commuter les sources live et y faire l’habillage du programme. Trois encodeurs retenus, NEC et Advantech (hard et l’autre hard et soft), et un prototype Intel, tous encodaient en parallèle pour y tester différentes stratégies d’encodage.

Tous ces produits arrivent très vite sur le marché professionnel pas seulement par la demande japonaise, mais aussi par l’arrivée sur tous les continents des téléviseurs 8K qui vont avoir besoin de contenus encodé dans ce format.

La plateforme de traitement 8K était signée Harmonic et Intel. Elle permettait d’y traiter les formats de type 8K HDR, les transcodages temps réel multi résolutions adaptés à tous types d’écrans et de besoins. Un dispositif original réalisé par TiledMedia était testé pour permettre l’accès à un contenu 8K sur un écran HD de tablette en se déplaçant dans l’image du programme UHD 8K. La diffusion fut confiée par Orange à Nokia via son cœur de réseau 5G associé à des antennes 3.6 Ghz.

La réception des flux de streaming d’une centaine de Mb a été rendue possible par les modems Qualcomm 5G des mobiles Oppo (Reno) via un partage de connexion sur des PC Intel équipés des cartes nVidia et de players logiciels, comme Spin Digital ou Open Source, avec la participation très active de VLC à cette opération.

L’affichage des programmes 8K en 5G était, lui, effectué sur des dalles Sharp 8K HDR (75’) pilotées par l’app France TV réalisée par Videolabs et aussi une dalle 85’ Samsung qui, elle, était chargée de recevoir en fin de quinzaine les flux 8K testés et transmis par Eutelsat.

 

Merci aux équipes de France Télévisions, en particulier Matthieu Parmentier, pour la visite des infrastructures.

Article paru pour la première fois dans Mediakwest #33, p.84/86. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 octobre 2019 à 17:00

IBC 2019 : NewTek et 3D Storm, l'aventure NDI ne fait que commencer !

IBC 2019 : NewTek et 3D Storm, l’aventure NDI ne fait que commencer ! © Nathalie Klimberg

Il s’agissait du premier IBC de Newtek sous l’étendard de Vizrt, l’acquisition ayant été officialisée sur le NAB…

 

Une version 4 de NDI, Live Story Creator (un outil disruptif proposé dans la suite Premium Access), un nouveau Tricaster, toute une famille de convertisseurs NDI, des updates dans la famille Live Expert… Voilà les principales nouveautés que l’on pouvait retrouver sur les stands Newtek et 3DStorm (le distributeur de Newtek pour l’Europe) de cet IBC 2019.

 

NDI entre dans l’ère de sa version 4…

NDI, désormais marque du groupe Vizrt, est aujourd’hui une norme IP dominante pour l’industrie des médias utilisant les réseaux Ethernet standards et des environnements mobiles.

Apparu il y a 4 ans et implémentée dans des milliards d'appareils du monde entier, Ce protocole annonce une version 4 qui repousse les limites de sa flexibilité…

Avec cette mise à jour, NDI peut sur une connexion WiFi véhiculer un signal vidéo avec une résolution jusqu'à 4K UHD, via un appareil mobile iOS et tout autre système compatible NDI…

"Notre mission est de rendre la vidéo accessible au plus grand nombre et agréable à produire et à diffuser. Il est clair que l’approche Vidéo software–defined est en train de changer la façon de produire et la quatrième génération de technologies NDI en profite pour combler le fossé entre le live et la post production en favorisant la création de workflows jusqu’à présent inenvisageables » explique Dr Andrew Cross, président de R & D pour le groupe Vizrt et inventeur du NDI.

 

Les principales nouveautés de NDI version 4…

- Prise en charge du canal alpha et data path 16 bits. Prise en prise en charge de l'UHD et au-delà

- Prise en charge de plus de 64 canaux audios, à toutes les fréquences d'échantillonnage

- Prise en charge de métadonnées extensibles

- Codecs audio et vidéo intégrés pour une utilisation dans des environnements sans fil et en remote

  

Live Story Creator

Sur le salon, NewTek exposait Premium Access, son nouveau pack logiciel d’utilitaires pour les régies NewTek VMC1 et TriCaster TC1. Parmi ces utilitaires, Live Story Creator s’appuie sur une intelligence artificielle pour proposer une automation de programmes plutôt révolutionnaire… Conçu comme un simple script intégré à Microsoft Word et doté de déclencheurs d’actions, ce Live Story Creator permet, une fois installé sur un TriCaster ou un VMC1, d’exécuter le script souhaité sans expérience de programmation.

NewTek Premium Access à partir de 2 299€ HT

 

 

La régie de direct TriCaster 410 Plus, dévoilée au printemps dernier, était aussi sous le feu de la rampe…

Celui-ci dispose de 8 entrées externes, 4 sorties M/Es, 4 sorties mixtes, ainsi que d’une intégration NDI pour la transmission de la vidéo, de l’audio et de données sur IP. Très complet, le système propose de multiples fonctionnalités : une publication en temps réel sur les réseaux sociaux, l’enregistrement multicanal, la lecture vidéo, des templates graphiques, des fonctionnalités de compositing…

La solution a notamment déjà été adoptée en Europe par le Wanda Stadium de Madrid...

TriCaster TC410 Plus à partir de 9 995€ HT

 

 

Une gamme de convertisseurs NDI plus que complète !

3D Storm présentait également toute la gamme des convertisseurs video NDI Spark de NewTek : Connect Spark SDI, Connect Spark HDMI, Spark Plus 4K et Connect Spark Pro… Et DELTA-neo N2H, sont petit boîtier conçu pour décoder et de visualiser tout flux NDI sur les périphériques d’affichage HDMI, les écrans de télévision et les projecteurs vidéo. Ce décodeur NDI haut débit de Deltacast détecte automatiquement le format de flux, le décode et le convertit au format HDMI avec audio intégré en observant une grande stabilité et une très faible latence.

DELTA-neo N2H prix de vente conseillé : 495€ HT

 

 

Retrouvez 3D Storm et les produits Newtek sur le SATIS Screen4ALL, les 5 et 6 Novembre prochains aux Docks de Paris >> https://buff.ly/328I9M0

  • 9 octobre 2019 à 17:00

TF1 étend son usage de ContentAgent pour ses workflows

TF1 étend son usage de ContentAgent pour ses workflows © Nathalie Klimberg

Le Groupe TF1 optimise une partie de ses workflows d’acquisition et de livraison grâce à la solution ContentAgent développée par Root6 dont les intérêts sont représentés en France et en Belgique par la société IVORY.

 

Premier groupe de télévision français, le Groupe TF1 s’est engagé depuis plusieurs années dans une transformation en profondeur autour de 3 pôles stratégiques pour devenir un groupe leader de contenus médias, TV et digital, intégré de la production à la distribution. Le Groupe opère et développe notamment 5 chaînes en clair et des chaînes thématiques payantes ainsi que leurs déclinaisons digitales.

 

Le Groupe TF1 souhaitait faire évoluer leur dispositif de traitement de fichiers vers une solution plus performante et plus ergonomique, capable de décider automatiquement du traitement à appliquer à un nombre croissant de médias et les livrer dans des formats et codecs très variés.

C’est dans cet esprit que le Groupe TF1 a choisi d’étendre son usage de ContentAgent à une partie de ses workflows d’acquisition et de livraison. ContentAgent est une plateforme innovante d’acquisition, d’orchestration de tâches techniques et de transcodage puissante développée par l’éditeur britannique Root6.

 

ContentAgent était déjà utilisée au sein du Groupe pour automatiser les échanges de fichiers entre l’archive et les systèmes Avid de post-production. Après cette première collaboration fructueuse, le Groupe TF1 s’est à nouveau tourné vers leur partenaire CTM Solutions pour intégrer l’outil au sein de 3 pôles d’activités : post-production, bandes annonces et laboratoire.

 

ContentAgent est désormais exploité au quotidien et gère notamment l’orchestration des workflows et la normalisation pour le laboratoire du Groupe. Le laboratoire sert de hub centralisé pour l’acquisition et la mise à disposition des fichiers médias dématérialisés aux différentes équipes internes de TF1. Très efficace dans la manipulation d’images au format 4K, ContentAgent est particulièrement adapté au développement ambitieux de TF1 dans ce domaine.

 

Yves Bouillon Directeur Adjoint de la Diffusion des Chaînes et Responsable du Pôle Préparation des Médias explique que « l’ergonomie, les fonctionnalités avancées et la performance du moteur de workflow nous ont motivées dans le choix de cet outil pour le Groupe. En automatisant de nombreuses tâches complexes et répétitives, ContentAgent permet un véritable gain de productivité et une optimisation des coûts. Les équipes éditoriales peuvent se concentrer sur les processus créatifs et non sur l’orchestration des tâches techniques. »

  • 7 octobre 2019 à 17:32

IBC 2019 : KVM, encodage 4K et gestion de murs vidéo au menu chez Matrox

IBC 2019 : KVM, encodage 4K et gestion de murs vidéo au menu chez Matrox © Nathalie Klimberg

Sur cet IBC, Matrox avait déployé la totalité de son portfolio de produits destinés aux industries audiovisuelles : encodeurs et décodeurs HD, 4K, cartes d’entrées / sorties vidéo SMPTE ST 2110 et SDI, extensions IP KVM, cartes vidéo... Parmi tous ces produits, les KVM IP Matrox Extio 3, le Monarch Edge, qui faisait sa première sortie sur IBC et sa toute nouvelle solution dédiée aux murs d’images QuadHead2Go retenaient plus particulièrement l’attention…

 

Un nouveau mode agrégateur pour les KVM IP Matrox Extio 3…

Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. Cet environnement de commutation matriciel KVM évolutif est économique puisqu’il utilise des commutateurs de réseaux standards. Conçus pour des applications hautes performances, les KVM IP de la série Matrox Extio 3 offrent des performances 4Kp60 4: 4: 4 ou quadruples 1080p60 4: 4: 4 sur un réseau Ethernet Gigabit standard (fibre optique ou cuivre). Le nouveau mode agrégateur permet de surveiller et contrôler simultanément plusieurs systèmes à partir d'un espace de travail multi-écrans distant avec un seul clavier et une seule souris, l’application de configuration et de gestion est très intuitive…

Cette nouvelle génération de KVM est disponible en deux modèles… Extio 3 N3208, pour une prise en charge du double signal 1920x1200 à 60Hz et Extio 3 N3408 qui prend en charge jusqu’à quatre signaux 1920x1080 à 60Hz, deux 2560x1600 à 60Hz ou un seul signal 4K UHD 3840x2160 à 60Hz.

  

Premier IBC pour l’encodeur Matrox Monarch Edge…

Récompensé sur le NAB en tant que meilleur produit de l’année dans la catégorie « Remote Production », le Monarch Edge est un encodeur 4K/multi-HD à faible latence (50ms). Dévolu aux applications de webcasting et de production remote (REMI, pour Remote Integration), cet encodeur H.264 est capable de transporter de la vidéo en 10 bit 4: 2: 2 pour de la diffusion de directs multicanal à des résolutions allant jusqu'à 3840x2160 à 60 i/s.

Utilisé comme encodeur de contribution Web 4K « classique » ou en déporté, il pourra prendre en charge les principaux protocoles de transport permettant de diffuser des vidéos sur des réseaux GigE (MPEG-2 TS, RTP/RTSP, SRT, RTMP).

 

QuadHead2Go, la réponse de Matrox à la gestion murs d’images…

QuadHead2Go est une gamme de contrôleurs multi-écrans conçus pour offrir un moyen plus simple et pratique de déployer des installations de murs vidéo artistiques. Dévoilés sur InfoComm, ces contrôleurs peuvent gérer une source vidéo unique sur quatre écrans maximum dans des configurations rectangulaires ou artistiques, ou les utilisateurs peuvent combiner plusieurs unités QuadHead2Go avec des cartes graphiques Matrox ou tierces pour créer des murs vidéo à très grande échelle. Un boîtier dispose de 4 sorties HDMI, d’une mémoire de 1GB, d’une entrée standard supportant des flux jusqu’à 7680x1080 @60Hz. Ses processeurs lui permettent un affichage RGB: 8:8:8 (24 bits par pixel).

  • 7 octobre 2019 à 17:00

IBC 2019 : HDR-EVIE, la conversion HDR/SDR en temps réel devient une réalité !

HDR-EVIE, la conversion HDR/SDR en temps réel devient possible ! © DR

HDR Evie de Lynx Technik est le premier système au monde à utiliser des algorithmes permettant l’analyse automatique du contenu d’une image vidéo et l'application de corrections optimales, en temps réel et image par image. Cette capacité unique en fait un de outil de production idéal pour les applications sportives ou tout événement de diffusion en direct souhaitant produire une conversion HDR en temps réel de qualité.

 

Beaucoup d'outils de conversion temps réel HDR vers SDR utilisent une table de conversion statique de type LUT qui applique une correction globale et uniforme sur tout le contenu. LYNX Technik propose aussi ce type de solution «HDR Static», qui produit des résultats impressionnants et est idéal pour les environnements contrôlés, tels que : studios de télévision et production off-line. 

Toutefois, pour obtenir des résultats vraiment exceptionnels, capables de s’adapter automatiquement aux modifications brutales des niveaux de luminosité, un traitement image par image est nécessaire.

S'il existe aussi des solutions de conversion HDR vers SDR «image par image»  déjà disponibles sur le marché, elles offre un post-traitement nécessitant un ajustement et une définition des «métadonnées» pour chaque image, qui sont ensuite utilisées lors de la lecture en temps réel du contenu : ce processus, long et coûteux,  est finalement peu adéquate pour des applications de diffusion en direct.

Avec ses algorithmes propriétaires développés en coopération avec l'Université de Sciences Appliquées à Wiesbaden (Allemagne), HDR Evie propose des résultats exceptionnels et prrésentés commesupérieurs à toutes les autres solutions de conversion SDR vers HDR disponibles à ce jour.

 

 

Les caractéristiques...

- Analyse et correction «image par image» en temps réel

- 1 canal 4K UHD ou 4 canaux 3G HD (commutable)

- Synchroniseur d'images intégré avec cross conversion (up / down)

- Entrées 12G SDI 4K UHD ou 2SI (quadruple 3G)

- Options d’I/O pour Fibre 12G SDI

- Compatible avec les normes HLG, PQ, SDR et SLog3

- Contrôle en face avant ou interface graphique intuitive

- Fonctionne sur greenMachine "Titan"

 

 

  • 3 octobre 2019 à 17:00

France Télévisions UHD, 8K, 5G sur Roland Garros 2019

Dans le car régie de France Télévisions (Toulouse) qui produisait le signal international. © DR

Dans la continuité de ce qui avait été fait en 2018 sur les expérimentations en Ultra HD, France Télévisions est reparti sur les mêmes bases, mais en enrichissant grandement le dispositif et l’expérience utilisateur. Une chaîne événementielle UHD 4K était disponible en TNT, satellite et IPTV durant la totalité de la quinzaine. Une expérimentation de télévision en 8K et transmission 5G a également été testée, préfigurant l’un des futurs de la télévision. Visite des installations à Roland Garros et à France Télévisions.

 

Pour une fois commençons par l’audio ! Le dispositif était sensiblement le même qu’en 2018, sauf qu’entretemps le court central ayant été reconstruit, il était nécessaire de prendre d’autres repères pour le placement des microphones, notamment pour le système immersif Schoeps ORTF-3D (huit capsules audio) chargé de la captation de l’ambiance générale en 3D.

Placé sous le premier balcon, ce système baignait au milieu des spectateurs. Quant aux microphones directifs disposés autour du court, ils se focalisaient sur les sons du jeu : frappes, cris, courses et annonces arbitrales. Le car-régie a produit le signal international en 9.1 associé à un « objet sonore » optionnel proposant les commentaires en français. Les métadonnées audio nécessaires à la description et le monitoring de ce flux « audio orienté objets » ont été édités grâce un équipement Jünger.

Sur la TNT et le satellite (Fransat), une composante audio orientée objets encodé en Mpeg-H 3D fut proposée, permettant aux téléspectateurs équipés de matériel compatible de bénéficier d’un son immersif et interactif, d’ajuster le niveau sonore du commentaire et profiter de l’ambiance sonore du court en immersion.

À date, les seuls équipements disponibles sur le marché sont des barres de son 3D ou des amplificateurs AV dotés d’un décodeur Mpeg-H. Les fabricants de téléviseurs, lorsqu’ils supportent le Mpeg-H, proposent pour l’instant un simple rendu stéréo et non pas de l’audio 3D. Les premières interfaces Next Generation Audio intégrées dans les TV sont annoncées sur les modèles 2020.

Pour les équipements de réception audio classiques, une version proposant le son d’ambiance 3D du court Philippe Chatrier en binaural a été fabriquée. Cette version a été proposée sur le réseau Orange, en complément d’une version française classique et d’une autre version française dont le niveau des commentaires était renforcé pour les malentendants.

 

Dans le car-régie

Sur place, le signal UHD était produit par un car de production de France Télévisions (Toulouse), également en charge du signal international HD. Si ce car est bien UHD, le monitoring reste toutefois HD, et seuls 2 postes d’ingévision et celui du chef de car permettent de visualiser le signal UHD et vérifier l’intégrité du signal UHD en Haute Dynamique (HDR). La production reste donc principalement en HD, et le signal UHD est considéré comme une couche logique du mélangeur qui est manipulée et habillée en parallèle du signal HD.

Le dispositif de captation était constitué de douze caméras UHD Panasonic AK-UC4400 pour la réalisation principale et d’une caméra Sony HDC-4300 (Spider-cam). Ce dispositif était complété par 5 caméras HD upconverties en UHD (caméras dans le filet, CableCam, chaise-arbitre et entrée des joueurs) et 6 serveurs de ralenti HD upconvertis également.

Ajuster la colorimétrie entre différents modèles et marques de caméras est toujours un challenge, surtout lorsqu’il faut aussi homogénéiser la couleur de la terre battue d’un court à l’autre. Dans le cas de cette production parallèle UHD-HDR et HD-SDR, l’équation se complique à l’extrême. En UHD-HDR, le standard frise le milliard de couleurs, contre 16 millions en HD-SDR. L’usage veut qu’en HD l’image apparaisse flatteuse au prix de quelques exagérations chromatiques, tandis que le réalisme des couleurs UHD-HDR implique de s’en passer au profit des teintes naturelles.

Les caméras Panasonic offrent justement deux réglages de saturation colorimétrique distincts permettant d’adapter les signaux UHD-HDR et HD-SDR à ces deux esthétiques de production. Cette option n’est pas disponible sur les caméras Sony, dont il a fallu réduire l’excès chromatique de l’image UHD-HDR pour obtenir une image HD comparable aux autres caméras, malheureusement sans possibilité d’atteindre la perfection. L’up-conversion UHD-HDR des caméras HD fut confiée à des convertisseurs Cobalt (technologie Technicolor/InterDigital) dont l’algorithme permet une adaptation automatique aux variations de luminosité au cours de la journée. Les ralentis ont été convertis avec la technologie Sony (HDRC-4000).

 

Comment maîtriser le HDR

Produire en UHD-HDR, tout en donnant la priorité à un signal HD-SDR destiné à 99% des téléspectateurs, pose problème. Les ingénieurs vision se focalisent sur leur écran HD-SDR, lequel ne leur permet ni de valider la mise au point d’une caméra en 4K, ni l’évidence d’un raccord de luminosité ou de colorimétrie. Lors des changements importants de luminosité, il est arrivé fréquemment qu’un ingévision considère deux caméras homogènes en HD-SDR, avant de s’apercevoir, plusieurs minutes plus tard, que les signaux présentent une différence notable sur un écran UHD-HDR quatre fois plus précis. Seule solution pour sortir de ce piège : produire en UHD-HDR puis créer les déclinaisons SDR et HD-SDR à partir du HDR. Cette option n’est pas prévue pour le moment à Roland Garros.

Le signal UHD, produit en HLG, et les composantes audio associées ont été transportés en IP par une fibre optique de la porte d’Auteuil au siège de France Télévisions. C’est la régie finale de France Télévisions (le CDE – Centre de diffusion et d’échanges) qui a récupéré le signal afin de réaliser l’habillage de la chaîne (alternance des directs et rediffusions, bandes annonces, publicités, insertion de logos…) et qui a adapté les caractéristiques de cette chaîne événementielle France TV Sport aux différents réseaux de distribution. Les contenus ont été convertis en HDR10 assorties de métadonnées SL-HDR2 (technologie Philips/Technicolor) avec des cartes Cobalt. Ces métadonnées sont interprétées par les téléviseurs HDR.

Le choix de cette technologie a empêché la réception de cette chaîne UHD-HDR par certaines anciennes TV UHD, mais en contrepartie les téléviseurs compatibles ont pu bénéficier d’une meilleure qualité de service et d’un visuel amélioré. En parallèle, le signal UHD-HDR a également été converti en UHD-SDR pour alimenter le réseau IPTV d’Orange.

 

Une régie UHD chez France Télévisions

Désormais, France Télévisions dispose d’une régie de diffusion UHD. Le projet a été initié au mois de février, porté par la cellule Innovations & Développements de la direction des Technologies. Tout a été fait en un mois, l’appel d’offres lancé fin mars, avec la réception des équipements fin avril.

« Nous voulions à l’origine une régie en SMPTE 2110, mais les constructeurs n’étaient pas capables de fournir dans les temps pour Roland Garros. L’appel d’offres est constitué de trois parties : une partie pour les liaisons de contribution entre RG et la régie, une partie pour l’enregistrement des matches et playout et une partie pour l’infrastructure réseau. La société Harmonic a gagné l’AO sur les deux premiers lots. Ils n’étaient pas en capacité de livrer dans les temps pour RG. Ils ont livré en 4 x 3G SDI sur une base Spectrum X, et durant l’été nous avons eu la livraison de la version Spectrum X2 en SMPTE 2110 », souligne Claire Mérienne-Santoni, chef de projets Technologies au sein de la Direction Innovations & Développements de France Télévisions.

France Télévisions envisage de réaliser des productions futures sur le sport, mais aussi sur des événements de divertissement. Dans les prochains projets, il devrait y avoir la captation et la transmission de la course cycliste Paris-Tours en octobre 2019 où s’effectueront des tests HF en UHD avec Euromedia.

 

 

FRANCE TV LAB PREMIÈRE MONDIALE TV 8K & 5G

La Fédération Française de Tennis (FFT) a une nouvelle fois challengé les équipes du Lab de France Télévisions pour mener une expérimentation autour de technologies avancées, comme la production TV en 8K et la diffusion en direct et en 5G avec Orange, son fournisseur officiel, avec plus de 100 heures de programmes en direct.

« Le nouveau court Philippe Chatrier préfigure le futur du tennis ; il s’agissait de donner notre vision du futur de la télévision dans ce stade rénové. Nous pensons que la 5G et le 8K seront des technologies très complémentaires qui auront un rôle important dans la décennie à venir », souligne Bernard Fontaine, directeur d’Innovations technologiques à France Télévisions, en charge du projet.

France Télévisions a ainsi réuni et piloté 20 partenaires venus du monde entier pour cette opération. Objectif : reproduire en 8K tous les usages actuels de la TV qu’elle soit en Live, Replay ou VOD ! Les caméras 8K Sharp reliées par fibre par Ereca avec Synoptics Broadcast sur un mélangeur de Blackmagic Design pour commuter les sources live et y faire l’habillage du programme. Trois encodeurs retenus, NEC et Advantech (hard et l’autre hard et soft), et un prototype Intel, tous encodaient en parallèle pour y tester différentes stratégies d’encodage.

Tous ces produits arrivent très vite sur le marché professionnel pas seulement par la demande japonaise, mais aussi par l’arrivée sur tous les continents des téléviseurs 8K qui vont avoir besoin de contenus encodé dans ce format.

La plateforme de traitement 8K était signée Harmonic et Intel. Elle permettait d’y traiter les formats de type 8K HDR, les transcodages temps réel multi résolutions adaptés à tous types d’écrans et de besoins. Un dispositif original réalisé par TiledMedia était testé pour permettre l’accès à un contenu 8K sur un écran HD de tablette en se déplaçant dans l’image du programme UHD 8K. La diffusion fut confiée par Orange à Nokia via son cœur de réseau 5G associé à des antennes 3.6 Ghz.

La réception des flux de streaming d’une centaine de Mb a été rendue possible par les modems Qualcomm 5G des mobiles Oppo (Reno) via un partage de connexion sur des PC Intel équipés des cartes nVidia et de players logiciels, comme Spin Digital ou Open Source, avec la participation très active de VLC à cette opération.

L’affichage des programmes 8K en 5G était, lui, effectué sur des dalles Sharp 8K HDR (75’) pilotées par l’app France TV réalisée par Videolabs et aussi une dalle 85’ Samsung qui, elle, était chargée de recevoir en fin de quinzaine les flux 8K testés et transmis par Eutelsat.

 

Merci aux équipes de France Télévisions, en particulier Matthieu Parmentier, pour la visite des infrastructures.

Article paru pour la première fois dans Mediakwest #33, p.84/86. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 2 octobre 2019 à 17:00

IBC 2019 : le Groupe Canal + et RTL Croatie renouvellent leur confiance en SGT

De g. à d.: Laurent Dujardin, Directeur Général Adjoint de HEXAGLOBE SGT, Franck Coppola, CEO, Co-fondateur de HEXAGLOBE Group, Pierre-Alexandre Entraygues, CTO, Co-fondateur de HEXAGLOBE Group, Olivier Jourdan, Directeur du développement HEXAGLOBE © DR

Sur IBC, SGT, société du groupe HEXAGLOBE qui propose des solutions d’automation pour la diffusion TV ainsi que des solutions pour la diffusion multiplateforme en direct et à la demande, a officialisé la signature de deux très beaux contrats, l’un avec le Groupe Canal + et l’autre avec RTL Croatie…

 

Souhaitant simplifier et sécuriser ses activités de diffusion UHD, le Groupe Canal + a renouvelé sa confiance dans les solutions VEDA de SGT. Client de SGT depuis 2004, Canal + a commandé deux nouvelles unités d’automation VEDA qui s’implémenteront sur le système de production afin de gérer la diffusion des directs premium ses chaînes UHD. Outre le contrôle de la diffusion, la nouvelle version de VEDA propose aussi une conversion automatisée des listes de lecture UHD à partir de listes HD.

RTL Croatie, un client de longue date de SGT, a aussi renouvelé sa confiance dans le groupe français. Pour moderniser son centre de diffusion haute définition, RTL Croatie s’équipera d’une plate-forme VEDA Media Asset Management & Automation 10 canaux. L'intégration du système se fera en collaboration avec BCE.

Il s’agissait du premier IBC sous l’étendard d’Hexaglobe pour Olivier Jourdan Berton. L’ex-directeur de Streamakaci a en effet rejoint cet été la société en qualité de Directeur du Développement Commercial.

  • 1 octobre 2019 à 17:00

IBC 2019 : une démo de studio virtuel et de réalité augmentée signée Panasonic/Brainstorm

IBC 2019 : une démo de studio virtuel et de réalité augmentée signée Panasonic/Brainstorm © Nathalie Klimberg

Panasonic et Brainstorm, leader dans la conception de solutions de graphismes 3D en temps réel, de réalité augmentée et de studios virtuels, présentaient sur le Stand Panasonic une démonstration qui mettait en lumière la parfaite intégration entre les solutions des deux sociétés.  Les équipes montraient comment InfinitySet, la solution avancée de studio virtuel de Brainstorm, fonctionne d’une manière optimale en association avec la nouvelle caméra PTZF AW-UE150 pour produire des vidéo intégrant de la réalité augmentée...

 

La caméra AW-UE150 de Panasonic, caméra nouvelle génération de résolution 4K est le fruit d’une collaboration entre Brainstorm et de Panasonic pour développer les données de suivi PTZF (rotation horizontale, verticale, zoom, mise au point) de la caméra. 

Fort d’une expérience de 25 ans dans le développement de solutions de graphismes 3D en temps réel, de studios virtuels et de réalité augmentée, Brainstorm a accompagné Panasonic afin d’élaborer un produit qui, grâce à ses fonctionnalités de pointe, place la réalité augmentée avancée à la portée des entreprises de toute taille et de tout budget.

 

« L’intégration de notre caméra PTZ 4K haut de gamme dans les applications de réalité virtuelle et augmentée nous était demandée depuis longtemps par nos clients. Brainstorm nous a fortement soutenu tout au long du processus de développement. La possibilité d’utiliser la caméra AW-UE150 avec InfinitySet de Brainstorm est un exemple de notre volonté de faire de la gamme de caméras PTZ Panasonic, l’outil de capitation le plus efficace et le plus facile à intégrer du marché. » commente Jaume Miró responsable technique pour l’Europe chez Panasonic Broadcast & ProAV.

« Notre présence dans l’espace de réalité virtuelle de l’IBC représente l’occasion d’illustrer comment l’association entre l’AW-UE150 de Panasonic et InfinitySet de Brainstorm permet de fournir un formidable contenu de réalité augmentée pour tous les diffuseurs qui souhaitent améliorer leur storytelling visuelle. », complète Héctor Viguer directeur technique et chef de l’exploitation de Brainstorm.

 

Outre la démonstration de l’efficacité de la combinaison d’InfinitySet et de la caméra AW-UE150, la démonstration à l’IBC permet également de mettre en avant les capacités de suivi automatique du système de réalité augmentée, qui, en direct, suit les mouvements des artistes sur scènes au moyen de marqueurs Blacktrax. Ce système donne lieux à l’incorporation d’objets graphiques qui son suivis en temps réel – un exemple avancé des possibilités offertes par cette solution de réalité augmentée en conjonction avec des données externes supplémentaires...

  • 30 septembre 2019 à 17:00

Innovation & broadcast : une infrastructure média IP pour la Maison de la Radio

La Maison de la Radio s’équipe d’une technologie IP nouvelle génération avec Orange Business Services et BCE © Radio France / Christophe Abramowitz

Premier groupe radiophonique français, Radio France migre les infrastructures médias de la Maison de la Radio sur une technologie tout IP nouvelle génération. Confié à l’issue d’une procédure d’achat publique à Orange Business Services, opérateur et intégrateur de services, et à BCE, expert européen en services médias, ce projet est à ce jour le plus important de ce type dans le secteur des médias en Europe. Le passage vers une infrastructure IP de dernière génération est un élément indispensable pour permettre la mise en place d’outils de production et de diffusion audiovisuels. Ce projet s’inscrit dans l’ambition de Radio France d’investir fortement d’ici 2022 pour moderniser ses outils de production et de diffusion pour l’ensemble des contenus radiophoniques et dérivés de la radio.

 

Le programme de migration mené par Orange Business Services et BCE concerne l’infrastructure de l’ensemble des studios de la Maison de la Radio. Les nouveaux moyens de production audiovisuels s’appuieront sur une infrastructure IP de nouvelle génération basée sur la technologie Cisco, robuste et caractérisée par son hyper-connectivité pour le transport et la distribution de l’audio et de la vidéo.

 

« Les expertises réunies d'Orange Business Services et de BCE complétées par le professionnalisme des équipes projet de la Maison de la Radio vont nous permettre de faciliter et d’innover dans la production et la diffusion des émissions tout en répondant aux plus hautes exigences voulues par le secteur des médias. » commente Patrick Fasso, Directeur Technique et des Systèmes d’Information au sein de Radio France.

Pour assurer la parfaite convergence des mondes de l’IT et de la diffusion média (« broadcast »), les équipes projet de Radio France sont accompagnées par Orange Business Services, leader de son marché pour l’intégration des solutions et dans la prise en main des outils nouvelle génération. La norme SMPTE 2110, un protocole spécifique au métier des médias, a été retenue.

Les équipes de Radio France sont accompagnées par BCE France pour son expertise reconnue auprès de nombreuses radios et télévisions européennes dans l’intégration sur-mesure des écosystèmes médias. BCE dispose d’une connaissance approfondie du secteur et des besoins des médias, et une maîtrise des infrastructures workflow IP qu’elle a su démontrer à Radio France par le passé, par exemple lors du passage à l’image de France Info à la Maison de la Radio.

  • 30 septembre 2019 à 17:00

IBC 2019 : Akamai innove toujours plus pour garantir des expériences OTT optimales

NAB 2019 : Akamai innove toujours plus pour garantir des expériences OTT optimales © Nathalie Klimberg

Akamai, qui développe une offre sécurisée de diffusion sur le web, a mis en lumière plusieurs innovations et initiatives conçues pour accompagner les diffuseurs dans le développement d'une offre video online irréprochable... 

 

 

Les attentes des téléspectateurs en termes de qualité et de fiabilité d'une diffusion live de qualité optimale sont plus élevées que jamais. Pour garantir un streaming live parfait, les diffuseurs doivent pouvoir répondre rapidement aux défis liés à la captation du contenu, à la latence ou à l'évolutivité pour offrir aux spectateurs la meilleure expérience possible tout en maîtrisant les coûts. Parallèlement, les réseaux des opérateurs sont également confrontés à l'augmentation des contenus vidéo diffusés en live. Les programmes qui rassemblent de larges audiences, tels que les événements sportifs ou les flash infos, peuvent entraîner une dégradation du réseau s'ils ne sont pas correctement gérés et optimisés. Dans un souci d'améliorer l'efficacité et la qualité de la diffusion en live Akamai a depuis quelques mois dévoilé de nouvelles fonctionnalités visant à améliorer la diffusion en live pour les diffuseurs et les opérateurs, notamment :

•          Akamai Licensed Multicast Solution (LMS) : Exploite la technologie de débit adaptatif assisté par multidiffusion (M-ABR) pour aider les opérateurs de télévision payants à passer de l'infrastructure propriétaire à la diffusion haut débit IP. Cette solution peut améliorer l'efficacité et réduire les coûts en contribuant à consolider l'infrastructure de diffusion vidéo et les flux de travail et en gérant les pics de trafic qui surviennent fréquemment lors de diffusions simultanées auprès d'une large audience, telles que les événements sportifs ou les dernières actualités. La solution LMS d'Akamai permet une meilleure utilisation des ressources réseau existantes comme alternative à l'augmentation des investissements CapEx dans les développements ou les mises à niveau du réseau.

•          Media Services Live (MSL) avec liveOrigin : Conçu pour réduire considérablement les temps de latence tout en conservant une qualité vidéo exceptionnelle et en gérant de manière fiable les défis liés à la diffusion d'expériences linéaires de qualité télévisuelle en direct 24 h/24 et 7 j/7. Les nouvelles fonctionnalités MSL comprennent une insertion dynamique de publicités côté serveur et la création de clips et de miniatures de vidéo à la demande (VOD) live pour les événements en live et les applications TV de « replay » 24 h/24 et 7 j/7.

•          Adaptive Media Player : Akamai a présenté de nouvelles fonctionnalités disponibles avec sa fonction Adaptive Media Player (AMP), notamment les enchères des en-têtes vidéo basées sur des normes ouvertes pour aider les éditeurs à optimiser les opportunités de monétisation ; la diffusion en direct à faible latence pour s'adapter aux capacités de Media Services Live d'Akamai pour une diffusion vidéo hautes performances ; et la disponibilité générale des SDK pour les plateformes mobiles et télévisuelles afin d'atteindre le plus large public possible. AMP est conçu pour aider les éditeurs à accélérer le déploiement des expériences vidéo avec une qualité supérieure et une complexité inférieure. AMP prend également en charge un écosystème de partenaires en pleine expansion qui continue à élaborer de nouveaux plug-ins pour le lecteur.

 

 

Une Diffusion OTT fiable, économique et de qualité télévisuelle...

Akamai continue de se concentrer sur la réduction des coûts des entreprises de médias et d'offrir des performances de diffusion de qualité télévisuelle tout en permettant aux diffuseurs de mettre en œuvre des stratégies technologiques émergentes, telles que le cloud computing. L'entreprise a présenté plusieurs innovations concernant son service de streaming multimédia live et à la demande, Adaptive Media Delivery, afin d'établir une connexion directe à Akamai Edge  :

•          Cloud Wrapper : optimise la connectivité entre les infrastructures de cloud public et Akamai Edge pour éliminer les obstacles communs à la diffusion OTT (Over The Top) dans les environnements cloud. Cloud Wrapper fournit aux clients une empreinte de cache dédiée dans le réseau de diffusion d'Akamai qui s'articule autour des infrastructures cloud centralisées, de manière à augmenter le délestage de l'origine en réduisant la fréquence des demandes utilisateur d'origine, minimisant en fin de compte les frais d'émission engendrés par la télévision en streaming.

•          Connexion directe : fournit une connexion privée dédiée au réseau de périphérie Akamai aux clients. Cela permet ainsi d'éliminer l'étape traditionnelle et souvent peu fiable de diffusion de contenu depuis Internet, garantissant de meilleures performances au « premier kilomètre », améliorant l'efficacité du streaming et réduisant les coûts de transit IP et d'origine.

•          Interconnexions dans le cloud : fournit une connexion au réseau directe entre les fournisseurs de cloud et la périphérie d'Akamai. Les interconnexions dans le cloud permettent aux entreprises de médias qui utilisent le cloud d'héberger leur contenu pour diffuser le trafic en streaming directement des infrastructures cloud vers Akamai, ce qui réduit les coûts d'hébergement et de sortie et améliore les performances.

 

  • 29 septembre 2019 à 17:00

Cy-Stem, le pupitre de télécommande RCP universel de CyanView

L’interface Cy-CI0 établit un lien entre les ports série des caméras et le réseau IP du panneau RCP. © CyanView

Lors des tournages multicam, le parc des caméras s’élargit sans cesse pour effectuer des prises de vues spécifiques. À côté des traditionnelles caméras de plateau, cohabitent des mini-caméras, des caméras HF, des modèles PTZ ou des versions durcies. Afin d’aider les ingénieurs vision à harmoniser leurs réglages, la jeune société CyanView a conçu une série d’outils pour regrouper leurs paramétrages sur un panneau RCP universel.

 

Sous la dénomination « caméra de plateau », les fabricants proposent des modèles adaptés aux tournages en mode multicaméra. Leur particularité réside dans l’ajout de deux équipements dédiés, la voie de commande ou CCU (Camera Control Unit) et le pupitre de réglages ou RCP (Remote Control Panel). La fonction de ces deux accessoires est de regrouper en régie, sur un poste de travail unique, tous les réglages électroniques des caméras de manière à ce que l’ingénieur vision puisse les ajuster en permanence, pour obtenir un rendu identique entre toutes les sources. La tête de caméra, le CCU et le RCP sont reliés par des câblages et des protocoles propriétaires et constituent des systèmes indissociables chez chaque constructeur et parfois même incompatibles entre les diverses gammes.

Pour diversifier les angles de prises de vues et placer des caméras à des emplacements inédits, surtout dans le sport, il est devenu habituel de compléter les caméras de plateau avec des modèles spécifiques : mini-caméras, caméras PTZ ou HF, caméras spéciales durcies, etc. Si certaines de ces caméras offrent des performances proches des caméras de plateau avec l’amélioration des capteurs, elles sont pour la plupart démunies de voies de commande ou alors des modèles spéciaux qui demandent un apprentissage et des procédures particulières.

 

 

Un panneau RCP universel

Pour répondre à cette préoccupation de nombreuses équipes de production de « live », la jeune société CyanView a conçu un système de RCP universel dénommé Cy-Stem. Il se décline en une série de boîtiers interfaces, reliés par un réseau IP à un panneau RCP conçu sur mesure, et qui en constitue l’élément le plus visible. Pour ne pas dérouter les habitudes des ingénieurs vision, il est organisé de manière similaire aux modèles les plus répandus et offre un accès direct aux commandes de diaphragme, de niveau de noir, de balance de blancs et de noirs.

En partie supérieure, un écran tactile de 3,5 pouces donne accès à des commandes complémentaires avec une série de touches autour et servant à afficher des menus contextuels selon la fonction choisie. Ce panneau RCP étant relié par réseau IP aux autres équipements, il est capable de gérer un nombre illimité de caméras simultanément, et de piloter également des caméras tourelles PTZ, en particulier la position de la tête et les cadrages, et de les mémoriser.

 

Les mini-caméras comme celles des marques Dreamchip, CIS, IO Industries ou autres modèles industriels de Sony sont souvent équipées de prises de télécommandes de type série. Pour les raccorder en IP à leur RCP, les équipes de CyanView ont conçu un boîtier interface, le Cy-CI0, placé à proximité de la caméra. Il est muni de deux sorties série multiprotocole, au choix RS-232, RS-422, ou RS-485, S-Bus ou Lanc avec le protocole de Canon et Sony, pour piloter soit deux caméras via une liaison unique, ou bien une caméra et son objectif ou la tourelle sur laquelle elle est fixée. L’interface IP est compatible POE + pour éviter de devoir prévoir une alimentation électrique à proximité. Elle est également équipée d’un voyant « tally ».

CyanView enrichit régulièrement les jeux de commandes spécifiques à chaque fabricant de caméras. Le système se configure via un navigateur web depuis un ordinateur raccordé sur le même réseau desservant le RCP et les interfaces. Sont déjà disponibles des jeux de commande pour les caméras Panasonic, Canon, Sony, Hitachi, Blackmagic, CIS, Dreamchip, Toshiba, Marshall, IO Industries, ARC, Camera Corps, Lumens et Arri.

 

 

Piloter les caméras à tourelle PTZ

Les caméras à tourelle PTZ sont dans leur majorité équipées de prises réseau et n’ont donc pas besoin d’interfaces Cy-CI0. Elles se raccordent directement sur le switch réseau desservant le panneau RCP. L’outil Cy-Stem prend déjà en charge les modèles de Lumens, Panasonic, Sony et Marshall. Comme les commandes de position de la tête sont accessibles depuis le RCP avec leurs mémorisations, les pupitres de télécommande spécifiques à chaque constructeur de caméras PTZ ne sont plus nécessaires pour régler la colorimétrie et les rappels simples de positions.

Pour des plateaux hybrides équipés à la fois en caméras PTZ et en caméras traditionnelles, le panneau Cy-RCP de CyanView permet de regrouper et d’associer les commandes électroniques des diverses caméras sur un pupitre unique.

 

L’équipe technique de CyanView a développé aussi les profils de télécommande pour les caméras de reportage à capteurs Super 35, destinées au marché Pro AV, comme les Sony FS5 ou FS7, les Canon C200, C300 et C500 et la récente EVA1 de Panasonic. David Bourgeois, fondateur et PDG de l’entreprise, constate que « ces caméras offrent un niveau de performances élevé. De nombreuses productions les privilégient pour des tournages de documentaires haut de gamme. Hélas leurs panneaux RCP sont assez limités et ne donnent pas accès à tous les paramètres de réglage interne. Beaucoup de productions souhaitent les utiliser en tournage multicam pour des concerts ou des évènements. Avec nos outils, les réglages des caméras sont facilement optimisés et harmonisés. Cela évite un lourd travail d’étalonnage en postproduction. »

CyanView a développé, en partenariat avec Panasonic, le module de réglages pour le modèle EVA1, qui exploite toutes les nouvelles fonctionnalités du firmware 3.0. Ceux pour la FS5 et la FS7 sont en cours de finalisation et les modules destinés aux Canon C200, C300 et C500 seront disponibles au moment du NAB.

 

 

Une passerelle multiréseau et un correcteur colorimétrique

La passerelle (ou gateway) Cy-GWY est le troisième composant au cœur de l’architecture Cy-Stem. Comme son nom l’indique, elle établit les liens vers les caméras via des réseaux externes ou séparés, soit pour des liaisons longue distance ou sans fil (voir ci-après) ou pour dialoguer avec des grilles de commutation ou des correcteurs colorimétriques externes. Ainsi la sélection d’une caméra sur le RCP déclenche l’affichage de son image sur le moniteur de contrôle.

Couplé à un correcteur colorimétrique (AJA, For-A, Lawo, Axon ou greenMachine de Lynx…), le RCP agira directement sur le rendu des images de la caméra sélectionnée et traitée par le correcteur colorimétrique. Exploitant divers protocoles tels qu’Ember +, les outils Cy-Stem peuvent être intégrés dans un système de supervision VSM ou Cerebrum.

 

Enfin, dernier élément du système, CyanView termine la mise au point de son propre correcteur colorimétrique, le Cy-VP4, qui sera présenté en version finale à l’occasion du NAB. Ce processeur vidéo, équipé de quatre voies de traitement 3G-SDI (pouvant être couplées pour traiter des images UHD 50p ou 60p) offre des capacités de correction pour ajuster le gamma dans la zone des noirs, l’écrêtage des blancs, la courbe du knee, la correction de détails et un traitement en mode multimatrice. Il gère également des tables LUT 3D.

Pour ses concepteurs, l’objectif est d’offrir toute la richesse des réglages des caméras plateau haut de gamme à des modèles de production, certes performantes, mais moins dotées au niveau de leurs paramétrages ou sans voie de commande, et d’harmoniser plus aisément leur rendu colorimétrique.

 

 

Contrôler les caméras en mode sans fil

CyanView lance au NAB une nouvelle version de son interface caméra Cy-CI0 qui offre le pilotage à distance ainsi que le contrôle d’autres gammes de caméras comme des action cams reliées en wi-fi ou des caméras de type DSLR connectées en USB. L’objectif est d’avoir le contrôle de tous types de caméras, quelles que soient les configurations d’exploitation. Pour offrir la plus grande universalité possible, les ingénieurs de CyanView ont choisi de l’équiper avec un processeur offrant le contrôle local des caméras et une interaction avec le RCP via différents types de réseaux comme des modems UHF, une transmission wi-fi ou encore une clé 4G à travers Internet.

Ainsi l’interface est libérée de son câble réseau et peut communiquer à distance avec le panneau RCP en mode sans fil. David Bourgeois y voit déjà de multiples applications pour la couverture de marathons ou de courses cyclistes avec des caméras sur motos, et donner néanmoins accès depuis le car régie à tous les réglages de la caméra, diaphragme, gain… sans demander au cadreur d’agir sur ces commandes. Le renvoi des signaux tally vers la caméra l’aidera à savoir s’il est à l’antenne ou pas.

Une autre application concerne également la gestion à distance des caméras raccordées à une unité de transmission 4G comme le LiveU, le TVU ou l’Aviwest. La liaison 4G constitue également une solution innovante pour les drones en offrant le contrôle des DSLR en USB et des gimbals en S-Bus, pilotés depuis le car régie avec un RCP, y compris les commandes PTZ.

 

 

Élargir le Cy-Stem au cinéma numérique

CyanView élargit régulièrement la panoplie des caméras pilotables par son panneau RCP universel. Ses équipes entreprennent le développement des modules de commandes pour les principales caméras de cinéma numérique. Celles-ci sont de plus en plus utilisées lors de captations multicaméras pour des défilés de mode ou des concerts prestigieux.

David Bourgeois milite pour une meilleure collaboration entre les DIT (Digital Imaging Technician) et les ingénieurs vision des cars régies, les premiers venant au début de la production pour définir les calibrations et les profils des caméras, ensuite exploitées par les ingénieurs vision lors de l’enregistrement.

Le fondateur de CyanView a encore de nombreuses idées pour améliorer et enrichir le Cy-Stem avec le développement de mires de calibrage associées à son panneau RCP doté de procédures semi-automatiques pour définir un premier jeu de réglages et pourquoi pas l’enrichir avec de l’IA.

Le système de panneaux RCP de CyanView a déjà été mis en œuvre sur des retransmissions sportives comme les 24 Heures du Mans, des épreuves de ski alpin, sur des matches de la NFL aux États-Unis, la saison de Formula-E, l’émission Ninja Warrior et pour l’American Spelling Bee retransmis par ESPN.

 

 

Article paru pour la première fois dans Mediakwest #31, p.88/89. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 29 septembre 2019 à 16:00

IBC 2019 : 10 ans d'avancées technologiques pour les PTZ Panasonic (interview Web TV)

IBC 2019 : 10 ans d'avancées technologiques pour les PTZ Panasonic (interview Web TV)

Panasonic célèbre le 10e anniversaire de sa gamme de caméras PTZ. Dans une interview vidéo livrée sur IBC, Andre Meterian, Directeur de la division Professional Video Systems pour la zone EMEA Panasonic, fait un point sur cette ligne de produits évolutive, qui représente la gamme PTZ la plus étoffée au monde. Andre Meterian nous présente plus en détail la toute nouvelle UE 150, outil de captation PTZ performant pour le tracking sur fond vert des studios virtuels grâce à son protocole FreeD. Il détaille aussi la stratégie d’intégration robotique qui permet à ces caméras des prises de vues 6 axes et nous dévoile la stratégie Panasonic à long terme qui se concrétise par l’arrivée d’une  plateforme IP centrique glass to glass sans limitation de capacité (nous reviendrons sur cette innovation plus longuement la semaine prochaine…). 

 

 

En route pour un tour d’horizon des nouveautés PTZ et robotiques du stand Panasonic d'IBC… A commencer par les nouveautés de la gamme PTZ

Le nouveau fleuron de la gamme de caméra PTZ 4K de Panasonic est désormais l’AW-UE150, Grâce à l’adoption du protocole FreeD, l’AW-UE150est lapremière caméra PTZ compatible avec les applications de studio virtuel et de réalité augmentée. Elle cumule les performances puisque c’est aussi la première caméra de sa catégorie à offrir des images 4K à une résolution 50/60p et propose également l’angle de vision le plus large du marché avec ses 75,1 degrés.

 

Parmi les autres nouveautés présentées sur le stand, la caméra  PTZ compacte 4K ultra grand  angle AW-UE4possède un angle de champ de 111° et une capacité de sortie vidéo sur trois interfaces (HDMI, LAN et USB). Adaptée à tous types d’espaces grands ou petits (de la salle de réunion à la productione-sport), elle propose une solution câblée Power over Ethernet (PoE) et peut être utilisée en tant que caméra USB alimentée par un ordinateur.

La caméra AW-UE4dispose d’une opérabilité avancée : sa compatibilité RTMP (Real-Time Messaging Protocol) qui lui permet de transférer les vidéos vers les services de diffusion en direct est particulièrement adaptée aux productions live.

La caméra AW-UE4 sera disponible cet automne au prix conseillé de 1 190 €.

 

 

Deux nouveaux contrôleurs de caméra à distance

 

Destinés à accompagner la gamme complète de caméras PTZ professionnelles de Panasonic, deux nouveaux contrôleurs de caméra à distance AW-RP150et AW-RP60 étaient également présentés.

L’AW-RP150présente les mêmes fonctionnalités que l’AW-RP120tout en apportant des améliorations significatives. En effet, l’AW-RP150est doté d’une nouvelle manette facilitant son utilisation avec une seule main (pour le contrôle PTZ ou la mise au point) ainsi qu’un grand écran LCD tactile pour les commandes et le paramétrage des menus. Un levier à bascule disponible sur la manette permet de réaliser des opérations de rotation et d’inclinaison du zoom ainsi que la mise au point pour une manipulation intuitive avec une seulemain.

Le nouveau contrôleur de caméra à distance AW-RP60 est quant à lui équipé d'un grand écran LCD affichant un menu d’interface HD et d’une manette améliorée pour une maîtrise plus aisée. Celui-ci est compatible avec tous les modèles existants de caméras PTZ Panasonic.

Grâce à l’interface utilisateur améliorée, l’ensemble des informations importantes concernant les caméras, telles que l’ouverture, le zoom et la mise au point sont désormais lisibles à tout moment directement sur l’écran.

Le modèle AW-RP60 est également capable de prendre en charge jusqu’à 200 caméras réparties en 20 groupes et permet 100 préréglages tout en disposant du PoE pour une intégration simplifiée.

Le modèle sera disponible à partir d’octobre.

 

« L'écosystème PTZ est devenu la solution de production à distance la plus courante du marché des productions de moyenne et grande taille car trois facteurs qui jouent en sa faveur... Le système PTZ est conçu pour livrer une reproduction haute qualité d’image, fidèle aux couleurs naturelles à l'instar de nos caméras broadcast traditionnelles. Cette qualité visuelle s’accompagne d’une aisance d’utilisation pour des mouvements fluides et précis. Enfin, l’investissement permanent de Panasonic dans l’innovation permet de réduire les coûts de fonctionnement pour des clients aux besoins variés en matière d’applications », souligne Sivashankar Kuppusamy, Marketing Manager EMEA au sein de la division Professional Video Systems dePanasonic.

 

 

Une intégration de solutions robotiques de plus en plus avancée avec Tecnopoint, Polecam et CamBot KST

 

La gamme de caméras PTZ est assortie d’un ensemble de solutions robotiques tierces que l'on pouvait retrouver sur le stand. Ces solutions favorisent la captation de mouvement fluides et précis dans les productions en direct.

Parmi elles, Tecnopoint Tuningest un système robotique avancé qui donne accès à des mouvements de type télédiffusion aux caméras PTZ Panasonic par l’ajout d’assemblages de chariots motorisées et de colonnes.

Panasonic et Polecam ont aussi collaboré au développement du Panapod qui permet de monter jusqu'à 5PTZ simultanément et s’opère au moyen de pédales dédiées ou de pupitres, avec la possibilité d'élever la caméra de 1,5 à 3 mètres.Cette élévation de la caméra n’obstrue pas la vue et n’interfère pas avec l’artiste, le joueur, le présentateur ou la séquence filmée. Ce qui permet aux spectateurs de mieux profiter de l’expérience.

 

Enfin, le système CamBot KST est un système de caméras robotisées avec contrôle du mouvement pour l’automatisation des applications télévisées. Grâce à sa conception novatrice, ce système permet des mouvements de grande précision dans un espace restreint. Il fonctionne au moyen d’une interface logicielle, ce qui signifie que le bras robotisé peut être entièrement automatisé avec des trajectoires reproductibles. L’union du système CamBot KST et de la caméra box AK-UB300 ou d’une caméra de la série VariCam offre une solution 4K clé en main pour les plateaux d’informations et sportifs, ainsi que pour les concerts, les spectacles de divertissement et les applications de réalité augmentée. Le système est commandé par IP, pour une grande souplesse de configuration à distance.

  • 25 septembre 2019 à 17:00

L’IP et la fibre optique au cœur de la diffusion de viàRéseau

Pour chaque sujet disponible sur My Video Place, sont affichés un résumé, les métadonnées et les liens pour l’intégrer dans la page web du diffuseur. La carte montre que ce sujet de la chaîne Tébéo est consulté bien au-delà de la Bretagne.© My Video Place

viàRéseau est la structure créée par le groupe Médias du Sud pour regrouper et gérer des services offerts aux différentes chaînes de TV locales du groupe (viàOccitanie, viàGrandParis, ATV…) et à celles affiliées dans le réseau « vià ». En 2018, viàRéseau a mis en place un service de diffusion implanté à Montpellier. Elle est en train de l’ouvrir à l’ensemble des chaînes du groupement et, à terme, ce seront 22 chaînes implantées sur tout le territoire qui seront diffusées depuis le sud de la France grâce à un dispositif technique associant réseau IP, fibre optique et serveurs de play-out d’Imagine Communications.

 

Médias du Sud est un groupe de communication multimédia (au sens originel du mot) implanté dans le sud de la France. Il intervient comme régie publicitaire et évènementielle, produit des contenus audiovisuels et numériques, édite et diffuse des magazines régionaux et est présent sur le web. En 2009, il a élargi son champ d’intervention en rachetant la TV locale nîmoise Télé Miroir, puis en 2010, la chaîne 7L TV qui diffuse sur la ville de Montpellier. Les deux chaînes sont alors rebaptisées TVSud Camargue-Cévennes et TVSud Montpellier.

En 2015, suite à un appel d’offres lancé par le CSA, il obtient l’autorisation d’émettre sur la région de Perpignan et lance TVSud Pyrénées Orientales. En 2016, le CSA a autorisé TVSud à réutiliser la fréquence laissée disponible à Toulouse par l’arrêt de TLT. En 2017 les quatre chaînes locales sont regroupées sous une identité commune, viàOccitanie. En 2018 avec le soutien de Bruno Ledoux, Médias du Sud rachète la chaîne ATV qui émet sur la Guadeloupe, la Martinique et la Guyane et reprend l’exploitation de Telif en Île-de-France et la rebaptise viàGrandParis.

 

 

Le service d’échanges My Video Place

Avant de détailler l’infrastructure technique mise en place, Philippe Van de Velde, directeur technique de viàRéseau et du groupe Médias du Sud, revient sur la genèse de la tête de réseau viàRéseau. Le premier service mis en place il y a quatre ans est la plate-forme d’échange vidéo My Video Place. Son objectif est de faciliter les échanges de contenus vidéo entre les trois grandes catégories d’acteurs de l’information locale : les chaînes de TV locales, la presse quotidienne régionale (PQR) et les plates-formes web d’information. Avec, comme préoccupation, la préservation des droits des producteurs de contenus et le souci de monétiser et donc rentabiliser la diffusion des médias échangés.

Dans ce but, ses primo fondateurs (Médias du Sud et le groupe de presse Rossel) ont mis en place une plate-forme d’échange vidéo sur laquelle les participants mettent à disposition leurs reportages ou documentaires avec une indexation détaillée sur un jeu complet de métadonnées. L’accès à My Video Place est gratuit après inscription, ainsi que le dépôt des contenus. Ses responsables ont établi une grille tarifaire de rémunération qui sert à la facturation de la diffusion.

Les métadonnées associées aux contenus détaillent toutes les informations sur l’origine et les auteurs du document, mais servent aussi au moment de la diffusion pour associer des messages publicitaires géolocalisés et organiser des campagnes nationales de promotion. Ceci dans le but de renforcer le modèle économique des diffuseurs, quel que soit leur canal (sites web, TV locales ou sites de la PQR).

 

Actuellement, une soixantaine de producteurs alimentent la plate-forme d’échanges My Video Place : les chaînes locales affiliées à viàRéseau, des quotidiens régionaux, comme La Dépêche, Le Télégramme ou La Voix du Nord et des médias web pure player. Les chaînes TF1 et LCI sont également membres du service d’échanges pour accéder à des reportages régionaux et alimenter leurs journaux d’information.

Pour chaque document inscrit au catalogue, une carte affiche l’origine géographique des internautes qui le consultent via les services web des diffuseurs. Cela permet de constater que pour des sujets liés à une actualité chaude, les échanges induits par le service My Video Place offrent une audience beaucoup large que celle du média local qui a réalisé initialement le reportage, que ce soit une TV locale ou un journal de la PQR.

 

 

Alléger les contraintes de la diffusion

La mise en place de viàRéseau reprend des objectifs similaires que Philippe Van de Velde précise : « Jusqu’à présent, les TV locales ont eu beaucoup de mal à se développer. Certaines ont même connu des échecs et ont disparu. À travers viàRéseau, il s’agit de leur donner une nouvelle chance de réussite en créant une nouvelle identité aux chaînes sous un sigle commun, en proposant des campagnes publicitaires sur l’ensemble du territoire, ensuite déclinées localement. Et ce pour dégager des moyens de produire des programmes innovants, des séries ou même des films. »

Pour les libérer des contingences techniques quotidiennes liées à la diffusion permanente d’un programme 24 heures sur 24 et 7 jours sur 7, le second volet de viàRéseau est la mise en place d’une infrastructure technique commune pour assurer leur diffusion à l’antenne. Jusqu’à présent, chaque chaîne mettait en place ses propres équipements de play-out. Outre le choix du meilleur système dans un budget contraint, elle est confrontée à de multiples exigences : assurer la continuité de la diffusion, la surveillance des équipements, garantir l’alimentation électrique et des conditions optimales avec un système de climatisation. Il est indispensable d’assurer une intervention rapide en cas de panne ou de dysfonctionnement.

Les évolutions techniques en termes de réseau IP et de transport à haut débit sur fibres optiques permettent dorénavant de déporter les équipements de diffusion sur un site distant. Et pourquoi pas les mutualiser sur un site unique pour en réduire les contraintes et les coûts d’exploitation. Ainsi chaque chaîne pourra se recentrer sur le cœur de son métier, à savoir la création de programmes et la couverture de l’information locale. C’est ainsi que viàRéseau a conçu son centre de diffusion, d’abord pour ses propres chaînes, et ensuite pour l’ouvrir à l’ensemble des chaînes locales.

 

 

Un centre de diffusion pour 22 chaînes locales

viàRéseau est déjà en exploitation pour les quatre chaînes de viàOccitanie et a signé des partenariats avec une quinzaine d’autres chaînes métropolitaines, sous forme d’une syndication de moyens. Le centre de diffusion de viàRéseau desservira à terme 22 chaînes locales. Outre ViàOccitanie, il accueillera bientôt viàGrandParis (ex-Telif), Wéo, MaTélé, Tébéo et Tébésud, Mirabelle TV, Vosges TV, LMtv Sarthe, La Chaîne Normande, Angers TV, Télé Nantes…

Le service My Video Place a été entièrement développé en interne par l’équipe informatique de Médias du Sud, en s’appuyant sur des outils « open source ». Lorsque Philippe Van de Velde a commencé à examiner les offres de « traffic system » pour la plate-forme de diffusion antenne, il a constaté que l’outil développé pour My Video Place remplissait déjà 50 % des fonctions. Il a donc décidé d’élargir et d’enrichir les fonctions de My Video Place pour en faire le cœur du système de diffusion.

 

Chaque télé locale affiliée à viàRéseau exploite ses propres moyens de production. Une fois l’émission tournée et montée, le journaliste, ou la personne en charge de sa production, l’inscrit sur My Video Place en détaillant toutes les métadonnées qui lui sont associées et à la fin du processus déclenche le téléchargement du fichier vers les serveurs de viàRéseau à Montpellier. Pour cela, viàRéseau a mis en place une liaison par fibre optique entre chaque télévision locale et viàRéseau. Celle-ci offre un débit de 100 Mb/s dans les deux sens.

Le responsable de l’antenne de chaque télévision locale se connecte via une interface web sur le « traffic system » de viàRéseau. Il prépare la playlist de diffusion à partir des émissions transférées ou des éléments acquis sur My Video Place. Ensuite le « traffic system » établit le conducteur d’antenne qui va piloter le système de diffusion.

 

Chaque TV locale diffusée par viàRéseau dispose de son propre serveur installé dans le data center de Montpellier. Pour assurer cette fonction de diffusion, Philippe Van de Velde a porté son choix sur la version logicielle du système play-out Versio d’Imagine Communications. Il en précise les raisons : « Je souhaitais un système totalement logiciel et fonctionnant en full IP. Par rapport à des produits concurrents, l’offre d’Imagine est très modulaire et il est facile de la compléter avec divers modules de traitement : conformation, traitement acoustique, watermarking et autres. La sortie se fait directement en IP pour attaquer le réseau de transport vers la diffusion et les serveurs de streaming. Imagine, ce sont les seuls à offrir un système totalement compatible avec des API Rest Full pour communiquer avec nos outils logiciels. »

Chaque système de play-out est installé sur un serveur blade HP, 1U de rack. Et l’ensemble des équipements dimensionnés pour la diffusion de 30 chaînes occupe seulement trois mètres carrés au sol. Tous les équipements nécessaires à la diffusion des chaînes TV et au service My Video Place sont hébergés dans le data center Zayo à Montpellier. L’hébergement dans un data center résout toute une série de problèmes en termes de connectivité, de continuité de services, d’alimentation électrique et de sécurisation des équipements.

 

 

Une remontée vers Paris pour alimenter la TNT, le satellite et les box Internet

La sortie HD du programme est encodée en H.264 à 8 Mb/s. Les flux de toutes les chaînes sont renvoyés via fibre optique vers le data center Telehouse 2 installé à Paris. Sur ce site, les signaux sont récupérés à la fois par TDF qui les envoie, via son propre réseau interne, vers les divers émetteurs hertziens répartis sur le territoire. Sur ce même site, les divers FAI reprennent également ces flux pour les injecter dans leurs réseaux de distribution vers les DSLAM puis les box ADSL. Enfin les deux opérateurs de diffusion par satellite, Canalsat et Fransat, reçoivent aussi les signaux des chaînes pour les incorporer dans leurs plans de services de diffusion par satellite.

viàRéseau, de son côté, assure la diffusion en streaming des chaînes pour leurs propres pages web. Ce service est une extension des serveurs de streaming déjà mis en place pour My Video Place. En effet lorsque par exemple un quotidien de la PQR achète sur My Video Place les droits de diffusion d’un document vidéo, le contenu n’est pas transféré vers les serveurs du journal. Il récupère juste un lien qu’il insère dans sa page web qui pointe vers les serveurs de My Video Place et/ou de viàRéseau. Ce sont plus de 10 000 vidéos qui sont traitées chaque mois avec 15 millions de vues mensuelles. Les flux de streaming sont encodés dans cinq profils HLS allant d’une basse résolution à 300 kb/s jusqu’au full HD à 3 Mb/s.

 

viàRéseau fournit à chaque chaîne locale les unités de transmission 4G, des modèles DMNGPro 180 d’Aviwest. Selon les situations et le type de reportage, « breaking news » ou direct au cours du journal TV, le signal est reçu :

-  soit sur un serveur installé au data center de Montpellier et le contenu est alors directement transféré vers le stockage central, prêt à être récupéré par la chaîne, pour une indexation et une mise en ligne ;

-  soit, pour un direct en plateau, le signal est envoyé directement sur un serveur de réception, installé à la chaîne locale, et dans ce cas la sortie SDI du serveur est raccordée au mélangeur vidéo du studio.

 

 

Transmettre les programmes réalisés en direct

Dans le cadre de leur convention avec le CSA, les chaînes locales sont obligées de produire quotidiennement un volume horaire de contenus originaux. En général, il s’agit du journal quotidien associé à des talk-shows réalisés en direct. Le système de diffusion n’étant plus sur place, il est nécessaire de rapatrier le signal du direct jusqu’au centre de diffusion de viàRéseau à Montpellier. Pour cela la fibre optique à 100 Mb/s qui relie chaque chaîne locale au data center de Montpellier est mise à contribution.

Un encodeur vidéo fixe de marque Aviwest est installé en salle technique et compresse le signal sortant du studio pour le transmettre vers Montpellier en H.264. Dans la playlist de la programmation, un module « break » est inséré à l’heure du direct et commute la sortie du serveur play-out sur son entrée IP pour diffuser le direct. Et comme aime à le rappeler Philippe Van de Velde : « Toute l’architecture de diffusion fonctionne en IP et sans aucun câble SDI. »

 

Lors des rachats successifs des chaînes pour former TVSud, puis viàOccitanie, Philippe Van de Velde a exploité de nombreux systèmes de play-out basés sur des serveurs vidéo associés à des équipements hardware traditionnels, le tout chapeauté par une automation dédiée. Le système mis en place pour viàRéseau lui donne satisfaction : « S’il fallait le refaire, je le referais exactement à l’identique. Le stress subi avec les systèmes traditionnels, non merci ! »

Il attire néanmoins l’attention sur l’évolution des compétences qu’induit un passage vers une infrastructure entièrement informatique et basée sur des transmissions exclusivement en IP. « Il faut réapprendre nos métiers. L’équipe technique habituelle, constituée surtout de profils “broadcast”, doit impérativement évoluer vers des profils beaucoup plus IT. Et ce n’est pas toujours aussi simple. »

Le centre de diffusion viàRéseau mis en place en place est encore en pleine montée en charge. Actuellement, il assure la diffusion de cinq chaînes locales et, au cours de l’année 2019, petit à petit, il accueillera les autres chaînes locales métropolitaines associées dans le groupement viàRéseau. 

 

 

Article paru pour la première fois dans Mediakwest #31, p.90/92. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 25 septembre 2019 à 17:00

Les bandes annonces de RTL TVI automatisées par BCE…

Les bandes annonces de RTL TVI automatisées par BCE… © DR

Prestataire technique de RTL TVI, BCE s’occupe de la diffusion des chaînes RTL TVI, CLUB RTL et PLUG TV depuis le Luxembourg. Assurant de nombreux services pour l’entreprise, BCE était à la recherche d’une solution pour automatiser la production des bandes annonces du client. BCE s’est orienté vers la solution Automate-IT développée par l’éditeur français Embrace qui a été mise en production au début de l’été 2019.

 

Automate-IT permet d’automatiser le processus de packaging, de génération et de livraison de bandes annonces en agrégeant des données et des médias. Ainsi les utilisateurs de la plateforme peuvent se libérer de toutes les tâches non-créatives, produire plus pour le broadcast ou les réseaux sociaux et ce toujours en parfaite conformité avec leur charte graphique.

« Avec un volume croissant de bandes annonces à créer, il était primordial pour BCE de trouver une solution intuitive, permettant l’automatisation du workflow de production. La solution Automate-IT répond parfaitement à ce besoin et s’est avéré être un très bon citoyen dans notre Cloud privé hébergé au Luxembourg » explique Frédéric Fievez, Projects Development Director chez BCE.

 

La plateforme Automate-IT est axée autour de trois fonctionnalités :

- un processus de création pour la fabrication et la validation des bandes annonces proposé au travers de panels HTML accessibles depuis un simple PC de bureautique, y compris pour piloter les habillages les plus sophistiqués

- le pilotage par API des solutions Adobe After Effects et Media Encoder qui sont utilisées au quotidien par les équipes d’autopromotion dans le monde entier

- un moteur de workflow puissant et moderne permettant de s’intégrer et de s’adapter facilement à tous types de contexte éditoriaux et techniques. En outre la plateforme permet de s’interfacer de manière sécurisée aux systèmes d’information métier et de gestion.

 

Ces points ont facilité l’intégration de la solution au sein du workflow de production de BCE et son adoption par les équipes opérationnelles. Au lancement du service, BCE pilote déjà la génération automatique de plus de 200 bandes annonces par semaine pour RTL TVI et environ 25 par semaine pour PLUG TV.

Julien Gachot, CEO, Embrace, conclut « nous sommes particulièrement fiers d’avoir eu l’opportunité de participer à un projet avec BCE dont l’ADN intact, depuis bientôt un siècle, est marqué du sceau de l’innovation technologique et de l’excellence opérationnelle ».

  • 23 septembre 2019 à 17:09

IBC 2019 : pléthore de solutions et services nouvelle génération signés Sony

IBC 2019 : les solutions et services nouvelle génération signés Sony © Nathalie Klimberg

A l’occasion du salon IBC, Sony a dévoilé sa dernière gamme de produits, solutions et services. Cette gamme comprend : des solutions IP Live actualisées, deux adaptateurs d’extension IP HDCE-TX30 / HDCE-RX30, la caméra phare FX9 à objectif interchangeable à monture E avec un nouveau capteur plein format pour le tournage de documentaires, un objectif cinéma à monture E FE C 16-35 mm T3.1 G, ainsi que la PXW-Z750, une caméra d’épaule XDCAM avec système à capteurs CMOS 3 puces 2/3 4K et obturateur global, et des modèles additionnels au système de microphone sans fil numérique de la série DWX.

 

Les visiteurs peuvent découvrir le système d’écran Crystal LED 6K x 3K, offrant des images d’une qualité exceptionnelle.

La suite de services et micro-services Intelligent Media Services sera un autre élément phare. Elle aide les sociétés de média à transformer les chaînes d’approvisionnement traditionnelles, à débloquer plus de valeur de contenu pour une adhésion plus forte du public et à devenir des organisations plus agiles.

 

Repousser les limites avec l’IP

En travaillant avec les diffuseurs du monde entier, Sony a développé la production IP Live et a fourni plus de 60 studios et cars régie IP Live à ses clients notamment à Euro Media Group, DPG Media, NEP Australia et SIC Portugal. La gamme mise à jour IP Live continue d’apporter de l’efficacité et d’augmenter le retour sur investissement pour les clients en optimisant le partage de ressources et en créant des environnements de production à distance.

 

HDCE-TX30 / HDCE-RX30: ces deux adaptateurs d’extension IP transforment la série HDC actuelle de caméras de studio SDI en caméras compatibles avec la technologie IP avec interface SMPTE ST 2110. Ces deux nouveaux adaptateurs d’extension IP présentent un format compact (un tiers de la largeur standard), et permettent la production à distance IP Live et le partage des ressources, créant des nouveaux modèles de workflow performants pour des caméras de studio HDC existantes.

MKS-R4020 / MKS-E1620: deux nouveaux panneaux de contrôle à distance offrant plus de fiabilité, de vitesse et de précision des commandes via Live Element Orchestrator.

PWSK-4509: une carte d’interface optionnelle qui permet la prise en charge de SMPTE ST 2110 sur le serveur de production Live PWS-4500.

Il y a quelques mois, Sony et Nevion AS, l’un des principaux fournisseurs de solutions de production multimédia virtuelles, ont signé un accord de partenariat stratégique. Nevion et Sony entendent ainsi offrir aux clients le savoir-faire et les produits (équipements et systèmes) dont ils ont besoin, afin de créer des solutions sur mesure pour des environnements de production Live modernes et performants. À l’occasion du salon IBC, avec l’aide de United Broadcast, une filiale de Euro Media Group (EMG), et de CenturyLink, Sony présentera un exemple de solution IP Live complète reliant le stand Sony (A10 / Hall 13), le stand Nevion (B79 / Hall 1) et un studio de production à distance IP situé à Hilversum. Cette démonstration vise à illustrer l’incroyable potentiel des productions à distance sur IP et du partage des ressources pour les entreprises du secteur multimédia.

 

Sony a élargi sa gamme de solutions de production Live qui comprend maintenant ...

HKCU-REC55: une carte optionnelle pour les unités de commande pour caméra HDCU-5500, HDCU-3500 de Sony offrant les toutes premières capacités d’enregistrement en interne du marché. Transfert de fichier en temps réel vers NAS pour le traitement en aval pendant l’enregistrement et transfert de fichier vers une clé USB, prête à être retirée et partagée aussitôt la production Live terminée. L’enregistrement simultané 4K HDR et HD SDR est aussi compatible avec le workflow « SR Live for HDR ». En utilisant le logiciel de contrôle du serveur PWA-RCT1, il est également possible de contrôler les multiples unités de commande avec le serveur de production Live de la série PWS de Sony.

HDCU-5000: une unité de commande pour caméra au format rack 19″ 3U compatible avec les plus récentes caméras de Studio HDC, notamment HDC-5500, HDC-3500, HDC-3100, HDC-2500, HDC-2400, HDC-1700, BPU-4000 et BPU-4500A. L’unité de commande pour caméra est compatible avec toutes les interfaces nécessaires de production 4K et HD, notamment SMPTE ST2110 pour 4K et HD, ainsi que l’interface 8x 12G-SDI et 8x 3G-SDI. La technologie High Frame Rate (HFR) sur IP, ainsi que la possibilité d’enregistrer de manière intégrée dans le futur (option), seront pris en charge pour amener encore plus d’efficacité dans les systèmes de production Live.

HDC-5500: une caméra de studio, lancée au salon NAB, a fait également son entrée sur le marché européen lors de l’IBC.

RCP-3500: un panneau de contrôle à distance pour les caméras de studio avec une nouvelle dalle LCD pour plus de visibilité et des boutons et commandes assignables.

BVM-HX310: la prochaine version du firmware 1.1 du moniteur de référence 4K HDR TRIMASTER HX est compatible avec la fonction de balance automatique des blancs du moniteur, qui permet le calibrage de la température des couleurs basée sur le logiciel.

 

Offrir une plus grande liberté de création aux créateurs de contenu...

Sony présente de nombreux nouveaux produits et solutions destinés aux créateurs de contenu, notamment :

PXW-FX9: la caméra XDCAM qui présente un capteur plein format Exmor R 6K nouvellement développé et le système de mise au point automatique hybride rapide avec le capteur de mise au point automatique à détection de phase à 561 points dédié. La caméra produit un contenu exceptionnel qui capture la lumière et les ombres à la perfection, grâce à plus de 15 diaphragmes de latitude d’exposition. S’appuyant sur le succès de la PXW-FS7et de la PXW-FS7M2, et bénéficiant également de la technologie de couleurs et du mode Dual Base ISO 800/4000 de la caméra de cinéma numérique, la nouvelle caméra VENICE offre une plus grande liberté de création aux créateurs de contenu pour capturer des images exceptionnelles et constitue l’outil idéal pour les documentaires, les vidéoclips, les fictions et les enregistrements d’événements de toutes sortes. La FX9 est également compatible avec les nouveaux systèmes de microphone sans fil UWP-D lancés au salon NAB via la griffe porte-accessoires multi-interface avec interface audio numérique, incorporant la fonction de synchronisation NFC du réglage facile et rapide des canaux dans un format léger et compact.

Objectif FE C 16-35 mm T3.1 G: un nouvel objectif plein format à monture E offre des performances optiques élevées, un fonctionnement fiable et des fonctions de prise de vue intelligentes pour la création de contenus vidéo professionnels.

Le système de microphone sans fil numérique série DWX: la troisième génération du système de microphone sans fil numérique DWX comprend le récepteur sans fil numérique DWR-S03D et l’émetteur de poche DWT-B30, tous les deux disponibles en décembre 2019. Sony a développé la compatibilité d’interface avec UniSlot en utilisant le DWA-SLAU1, un adaptateur sub-D à 25 broches pour le DWR-S03D, afin d’offrir une solution audio numérique à large bande d’enregistrement audio pour les films, les fictions et les documentaires.

Pour permettre d’étendre davantage le caractère fonctionnel des applications d’enregistrement audio, Sony travaille également avec Sound Devices et AATON Digital, deux grandes entreprises de la technologie audio pour s’assister mutuellement dans le développement de certains produits. La mise à jour du firmware du récepteur DWR-S03D et des mélangeurs-enregistreurs permet la transmission audio directe entre les deux appareils, le contrôle et la commande directs ainsi que l’analyse et le réglage des fréquences du système de microphone sans fil Sony depuis les mélangeurs-enregistreurs. Le nouveau firmware sera disponible gratuitement au printemps 2020.

La caméra de cinéma numérique VENICE, avec la version 5.0 du firmware récemment annoncée et impulsée par les clients ainsi que la version 4.0 déjà disponible sur le marché, étaient également exposées au salon IBC.

 

Se préparer pour l’avenir de la production de news...

Pour les spécialistes en production de news, Sony présente la nouvelle solution suivante :

PXW-Z750: une caméra d’épaule XDCAM de référence avec système à capteurs CMOS 3 puces 2/3 4K et obturateur global pour capturer des images nettes et précises tout en éliminant les artéfacts indésirables, notamment les effets « flashband » et les distorsions de type « rolling shutter ». Le modèle PXW-Z750 offre une plus grande sensibilité, moins de bruit dans l’image et un plus large gamut de couleurs, et peut enregistrer en HD/4K et HDR, et est également compatible avec le ralenti jusqu’à 120 images/s en HD. Pour améliorer l’efficacité du workflow, la caméra a aussi un module sans fil intégré et est compatible avec le service de workflow basé sur le cloud de Sony, XDCAM air. De plus, la caméra PXW-Z750 peut également être utilisée avec le tout dernier système de microphone sans fil numérique de la série DWX et permet une utilisation plus simple notamment grâce à la mise sous/hors tension synchronisée, le contrôle via les paramètres de menu ou boutons assignables, ainsi que les informations audio sur le viseur via les solutions audio sans fil.

 

Solution d’analyse vidéo basée sur l’intelligence artificielle...

REA-C1000: une solution Edge Analytics Appliance, et la première solution d’analyse vidéo basée sur l’IA de Sony, est améliorée avec des fonctions nouvellement disponibles (mise à jour V2.0) telles que la surface CG sans Chroma Key, permettant d’extraire les intervenants et de les superposer à de nombreux autres arrière-plans sans avoir besoin d’un écran dédié à l’arrière-plan, ni d’une formation spécialisée. Le système REA-C1000est présenté avec la dernière génération de caméras Pan/Tilt/Zoom BRC-X400, SRG-X400 et SRG-X120.

« Chez Sony, tout ce que nous faisons est impulsé par nos clients et notre volonté de les aider à réaliser leur vision créative de la manière la plus efficace et la plus simple possible. Notre objectif est de leur offrir un vrai retour sur investissement et de les aider à aller au bout de leurs idées grâce à nos produits, services et solutions, », a expliqué Hiroshi Kajita, directeur de Media Solutions, Sony Professional Solutions Europe. « L’IBC est une véritable opportunité pour nous de nous engager davantage avec l’ensemble de l’industrie, de recevoir des feedbacks de nos clients et de discuter des défis que nous avons tous à relever. Comme toujours, nous présentions sur notre stand une gamme solide de produits, solutions et services avancés dernière génération. »

  • 19 septembre 2019 à 18:05

IBC 2019 : Cloud VMware CenturyLink entièrement géré sur le service AWS

IBC 2019 : Cloud VMware CenturyLink entièrement géré sur le service AWS © Nathalie Klimberg

Pour offrir aux entreprises une plus grande flexibilité sur leur système informatique hybride, CenturyLink a récemment dévoilé CenturyLink Private Cloud pour VMware Cloud (VMC) sur AWS. Ce nouveau service dynamique, sera disponible à l'hiver 2019. La société américaine, qui est le deuxième plus important fournisseur de communications des États Unis pour les multinationales possède des clients dans plus de 60 pays et s'efforce de devenir le meilleur fournisseur de réseau du monde en répondant une demande croissante de connexions fiables et sécurisées…

 

CenturyLink Private Cloud simplifie la façon dont les entreprises construisent des datacenters définis par logiciel, tout en rendant les charges de travail de l'entreprise rentables plus rapidement. Les clients peuvent payer mensuellement pour le service, contrairement aux engagements à long terme exigés par d'autres fournisseurs.

« Il s'agit d’une étape importante dans notre avancée vers des solutions hybrides de Cloud Computing, qui permettent aux utilisateurs d'accéder à des ressources privées sur l’ensemble du territoire couvert par notre réseau mondial », déclare David Shacochis, vice president of product management for IT solutions chez CenturyLink. "Ces avancées sont le résultat de décennies d'expertise de CenturyLink - nous sommes pionniers dans le domaine des datacenters définis par logiciel - et de relations approfondies avec VMware et AWS."

 

Développée conjointement par AWS et Vmware, l’offre intégrée CenturyLink Private Cloud pour VMC sur AWS offre une solution de cloud hybride parfaitement intégrée. La plate-forme peut étendre les environnements vSphere on premise à un datacenter défini par le logiciel VMware fonctionnant sur l'infrastructure Amazon Elastic Compute Cloud (Amazon EC2). CenturyLink Private Cloud pour VMC permet aux entreprises d'exécuter, de gérer et de sécuriser leurs applications dans un environnement informatique hybride sur un plan de gestion commun avec leur datacenter.

CenturyLink offre par ailleurs une solution de cloud privé disponible sur 41 sites d'hébergement répartis sur quatre continents. Toutes les variantes de la gamme CenturyLink Private Cloud sont intégrées à CenturyLink Cloud Application Manager, une offre commerciale regroupant la surveillance continue, l'automatisation et le support des charges de travail.

  • 18 septembre 2019 à 17:00

IBC 2019 : les nouveautés micro et monitoring de Sennheiser et Neumann

IBC 2019 : les nouveautés microphones et solutions de monitoring de Sennheiser et Neumann © Nathalie Klimberg

Systèmes sans fil, technologies audio immersives ou équipements de studio d'excellence : les solutions qui étaient exposées par Sennheiser et Neumann au salon IBC garantissent une qualité audio aux productions de tout type et de toute taille. Ont été présentés les systèmes sans fil numériques d’entrée de gamme XS Wireless Digital 2,4 GHz de Sennheiser pour caméras DSLR/DSLM ; le mini émetteur de poche UHF professionnel SK 6212 et le récepteur pour caméra EK 6042 pour les productions en extérieur et en studio ; ainsi que le caisson de basse Neumann KH 750 DSP et les casques de monitoring de studio Neumann NDH 20...

 

Producteurs et créateurs qui ont visité le stand pouvaient y découvrir un large choix de microphones sans fil, notamment des séries XSW-D, AVX, évolution wireless, et Digital 6000 et Digital 9000. Ces systèmes assurent une transmission sans fil de grande qualité dans différentes gammes de fréquences, 2,4 GHz, 1,9 GHz et UHF, pour les professionnels et les utilisateurs éclairés.

Dans la catégorie des micros filaires pour caméra, le stand a mis en avant la série Sennheiser MKE et les micros-canons standard MKH 8060 et MKH 416 de Sennheiser, ainsi que les modèles Neumann KMR 81 i et KMR 82 i.

 

Monitoring de studio et d’extérieur

Les casques Neumann NDH 20 sont des solutions d’une précision exceptionnelle pour le monitoring de studio. A ceux-ci s’ajoutent les casques et micro-casques HD 25 et HD/HMD 300 de Sennheiser pour studio de production et tournage vidéo.

Les systèmes de monitoring de studio Neumann sont un incontournable des solutions audio présentées à l’IBC. Deux configurations stéréo étaient exposées : deux enceintes de monitoring KH 80 DSP avec un caisson de basses KH 750 DSP et deux enceintes de monitoring KH 310 avec KH 750 DSP. Les deux installations sont contrôlées par l’application Neumann.Control.

Sur le stand, Neumann exposait ses microphones de studio BCM 104, KM 184, TLM 103 et U 67.



AMBEO Immersive Audio

La zone consacrée à l’expérience audio immersive AMBEO a mis en avant deux workflows de bout en bout pour le multicanal et des productions Ambisonics. Les visiteurs ont eu l’occasion de créer un mix audio pour les deux workflows en VR, via l’interface immersive dearVR SPATIAL CONNECT de Dear Reality.

Fut également présent sur le stand, le prototype du microphone AMBEO Sports Microphone Array pour les prises de son 360º lors des rencontres sportives.

Dans le cadre du programme de partenariat AMBEO for VR, Solid State Logic a fait une démonstration d’un enregistrement live immersif de mix pour la télévision réalisé avec le micro Sennheiser AMBEO VR et plusieurs microphones d’appoint.

  • 25 septembre 2019 à 18:37

IBC 2019 : architecture microservices, optimisation du sous-titrage et de l’IA pour Eolementhe V6

Murièle Le Bellac, CEO de Videomethe sur son Stand d’IBC © Nathalie Klimberg

L'IBC vient de refermer ses portes, Videomenthe, société distributrice et éditrice de solutions logicielles pour le traitement des fichiers médias, y présentait les dernières nouveautés d’Eolementhe, plateforme collaborative de workflows média.

 

Eolementhe permet le traitement et la livraison de fichiers média au travers d’une interface extrêmement intuitive et facile à prendre en main, qui intègre plusieurs outils leaders du traitement de fichiers (transcodage, contrôle qualité, analyse et correction de niveaux audio, création de métadonnées techniques et éditoriales, speech-to-text, insertion de sous-titres, Intelligence Artificielle etc.). La combinaison d’outils automatisés et d’actions humaines fait d’Eolementhe une solution simple, rapide et performante pour la livraison de fichiers prêts-à-diffuser (PAD).

« 2019 marque un tournant dans la vie d’Eolementhe. Des clients européens majeurs nous font confiance, et travaillent en partenariat avec nos équipes pour faire évoluer la plateforme. Cette version 6 d’Eolementhe reflète la volonté d’industrialisation de la solution, couplée à des fonctionnalités ayant toujours comme objectif de faciliter le travail des utilisateurs et de fluidifier les workflows », explique Muriel Le Bellac, Présidente de Videomenthe.

 

Industrialisation grâce aux microservices

Videomenthe renforce l’élasticité, la fiabilité et l’évolutivité d’Eolementhe, en la déployant sur une architecture en microservices. Cette architecture constitue également une base de départ pour atteindre un niveau d’écoconception permettant notamment d’optimiser les ressources en fonction de la charge et des besoins clients.

 

Une expérience utilisateur optimisée

Le fil conducteur d’Eolementhe ? La simplicité d’utilisation par tout type d’utilisateur, quel que soit son profil. Dans cette optique, des améliorations significatives ont été apportées à la Filelib pour un traitement des médias plus fluide et confortable, notamment au niveau des sous-titres.

Les utilisateurs peuvent désormais personnaliser leur environnement de travail, en fonction de leur profil, technique ou éditorial, en sélectionnant simplement les paramètres souhaités. Exemple : un affichage en 3 volets, qui permet à un profil éditorial de visualiser à la fois le sous-titre dans la langue d’origine, sa traduction et la prévisualisation de la vidéo.

Autres évolutions : la possibilité de configurer l’habillage des sous-titres, pour répondre à une charte graphique spécifique, et l’ajout d’un outil de « chat », renforçant le travail collaboratif au travers de la plateforme.

 

Une offre globale pour des contenus multilingues

La distribution de contenus multilingues se développe, et avec elle la nécessité de produire des vidéos sous-titrées de qualité, en plusieurs langues. Oui, mais comment faire lorsque l’on ne dispose pas de ressources parlant les langues souhaitées ?

Videomenthe propose désormais un service complet, incluant la plateforme Eolementhe et des ressources humaines expérimentées. Cette offre globale procure rapidité d’exécution grâce aux outils automatisés, et résultat de qualité grâce aux transcripteurs et traducteurs qui interviennent pour corriger et valider le contenu, directement sur la plateforme. Le tout à un tarif attractif.

 

Intelligence Artificielle

Les outils d’Intelligence Artificielle proposés dans Eolementhe sont désormais couplés à la fonctionnalité de workflow conditionnel, pour un tri et des actions automatisés en fonction de critères paramétrés par l’utilisateur.

Par exemple, si l’IA détecte des scènes de nudité dans un contenu, le workflow est interrompu et suit un cheminement spécifique (information d’un utilisateur, réapprentissage de l’IA, livraison dans un dossier particulier…). Dans le cas contraire, le workflow continue.

 

  • 17 septembre 2019 à 17:03

IBC 2019 : Adder dévoile sa solution KVM sur IP 4K, une première mondiale

IBC 2019 : Adder dévoile sa solution KVM sur IP 4K, une première mondiale © Nathalie Klimberg

Adder Technology, spécialiste mondial de la connectivité et des KVM sur IP, annonce la première matrice KVM sur IP, Dual-Head 4K, haute performance via une seule fibre optique avec le lancement de la série ADDERLink INFINITY 4000 (ALIF4000).

 

L'adoption du 4K suit une courbe exponentielle. Le marché mondial de l'affichage 4K anticipe une valorisation à hauteur de 52 milliards de dollars d’ici 2020 (soit une hausse de 188% versus 2015). La standardisation prévue du 4K, et la demande croissante de contenus 4K, rendent opportune l’arrivée de la gamme ALIF4000. Celle-ci répondant, au meilleur moment, aux besoins des utilisateurs de KVM sur IP, souhaitant évoluer vers un environnement 4K.

 

Une compatibilité totale avec l’actuelle gamme INFINITY, signifie que les ALIF4000 peuvent être mis en place dans un réseau existant sans interruption, temps d'arrêt et sans devoir passer par d’onéreuses opérations de dépose et remplacement de l’existant. Les ALIF4000 offrent une qualité d'image Pixel-perfect, son et USB sur des écrans 4K single ou dual-head via une seule connexion fibre optique. Ils sont à la fois compatibles avec des réseaux mixtes 1 gigabit et 10 GB/s et offrent à nos clients la possibilité d’évoluer vers un contenu 4K lorsqu'ils le souhaitent.

 

La gamme ALIF4000 aidera les organisations de secteurs variés, à intégrer un contenu 4K dans leur environnement quotidien, rapidement et efficacement. John Stevens, directeur de l'ingénierie de la maison de post-production « The Foundation » basée à Los Angeles, a déclaré :

« Le lancement de la série ALIF4000 nous donne la possibilité de prendre le contrôle et d'ajouter des fonctionnalités 4K à notre infrastructure existante, quand et comme nous le souhaitons, sans avoir nous en séparer ni la remplacer ; ceci signifie que nous pouvons continuer à répondre aux besoins croissants de nos clients pour les contenus 4K en toute simplicité ».

 

La gamme ALIF4000 facilite l'adoption et améliore l'efficacité des KVM sur IP, en offrant : 4K, USB et audio via une simple fibre optique. C’est donc la solution idéale pour ceux qui cherchent à implémenter des écrans 4K Single ou Dual-Head dans un environnement KVM sur IP.

La gamme ALIF4000 - qui accélère et facilite l'adoption de KVM sur IP, 4K et hautes performances – possède les caractéristiques suivantes :

 

  • Dual 4K, vidéo, audio et USB via une seule fibre optique
  • Migration facile vers le 4K sans dépose de l’existant et remplacement coûteux
  • Pixel-perfect, couleur fidèles 4K à 60Hz
  • Compatibilité parfaite avec des contenus 4K

 

« En échangeant avec nos clients au cours du développement de l’ALIF4000, nous avons pu identifier que nombre d’entre eux retardaient leur passage au 4K. Ceci afin d’éviter une rénovation coûteuse de leurs installations hardware, leur remplacement total ou les travaux de Dépose - Intégration qu'ils pensaient nécessaires pour avoir une vidéo de résolution 4K », explique Adrian Dickens, Directeur Général d’Adder Technology…

 

"En réponse, Adder a livré un produit permettant à nos clients d'ajouter le 4K à leurs environnements de travail, au moment voulu, sans supporter de coûts inutiles."

  • 16 septembre 2019 à 17:00

IBC 2019 : gestion de production end to end, des mises à jour majeures pour MediaPulse

IBC 2019 : gestion de production end to end, des mises à jour majeures pour MediaPulse © DR

La société Xytech, qui développe des logiciels de gestion pour les industries de la radiodiffusion, des studios, des services médias et de la transmission vidéo, dévoile plusieurs mises à jour majeures pour sa solution MediaPulse...

 

L’interface utilisateur, qui a été entièrement redessinée, peut désormais fonctionner sur n'importe quel appareil. Ce web design adaptatif répond à un besoin de l’industrie en matière de fonctionnalités ciblées pour les différentes catégories d’utilisateurs, notamment pour les pigistes et les prestataires, dans la perspective d’un flux de travail automatisé de bout en bout. 

 

Mises à jour du gestionnaire de ressources humaines…

La nouvelle interface propose une expérience mobile idéale pour les membres de l’équipe qui ont besoin de voir les horaires, d'accepter des affectations et d'actualiser les heures de travail...

Une autre mise à niveau clé propose un compteur en temps réel qui suit tous les droits, le temps de travail, le temps disponible, les heures supplémentaires ou toute autre paramètre géré par MediaPulse. Le moteur du Gestionnaire du personnel a été mis à jour pour suivre toutes les conditions définies par l'utilisateur, alerter le personnel lorsque les seuils sont dépassés, calculer les coûts et préparer les feuilles de temps. Le nouveau mode de gestion a été développé en conformité avec la nouvelle directive européenne sur le temps de travail.

 

Mises à jour du module de transmission

En plus des mises à jour du gestionnaire de ressources humaines, le module de transmission a également fait l'objet de plusieurs mises à niveau. La nouvelle fonctionnalité gère à la fois la compatibilité technique et la compatibilité des services. Les utilisateurs créent automatiquement un circuit techniquement correct tout en s'assurant que les appareils sélectionnés remplissent les conditions de service requises. Cette nouvelle fonctionnalité va de pair avec les fonctionnalités de surveillance des appareils pour garantir aux opérateurs une source unique pour la gestion des transmissions.

 

Dans la foulée de l’IBC, Xytech annonce la nomination d’Aurore Gilewicz au poste responsable des comptes pour la région EMEA. « Alors que Xytech continue d’accroître sa présence en Europe de l’Ouest, la passion et la connaissance du marché d’Aurore – qui nous accompagne depuis 4 ans - constituent un avantage indéniable. », souligne Greg Dolan, directeur des ventes et du marketing Xytech.

  • 16 septembre 2019 à 17:00

IBC 2019: Panasonic met le cap vers l'au delà en matière de production live

IBC 2019: Innovations majeures chez Panasonic en technologies de diffusion © DR

Sur IBC, Panasonic dévoile plusieurs solutions de production qui changent la donne en matière de production live, notamment au travers 3 lignes de produits : son dernier mélangeur 4K, sa solution de production virtualisée ROI 8K (ROI pour Region of of Interest) et sa nouvelle plateforme orientée IT/IP...

 

Lancement du mélangeur 4K AV-UHS500...

Un nouveau mélangeur vidéo 4K SDI 12G, l’AV-UHS500, fait son apparition sur le salon. Ce mélangeur  vidéo 4K de taille très compacte a été conçu pour un large éventail de productions live - mise en scène de spectacles, diffusion en régie ou un car-régie , contexte universitaire ou corporate. L’AVUHS500, dont commercialisattion devrait arriver en février 2020, représente une prochaine étape en matière de technologie mélangeur pour Panasonic... 

Ce mélangeur offre de nombreuses fonctionnalités pour un appareil de sa gamme. Outre la prise en charge multi-formats 4K/3G/HD, l’appareil permet de conserver le même nombre d’entrées et de sorties HD même lorsqu’il fonctionne en 4K.

Cinq modules optionnels ont été développés pour répondre aux besoins des clients. Pour davantage de souplesse et de maniabilité, des modules en option peuvent augmenter le nombre d’entrées jusqu’à 16 entrées SDI ou 8 HDMI, pour garantir un fonctionnement optimal  quel que soit la taille des évènements couverts. L’unité est équipée de 5 keyers, comprenant 2 canaux Chromakey et 2 canaux PinP, pour accéder à une multitude d’effets visuels.

Ce mélangeur est également équipé de fonctions de up/down conversion, de conversion HDR/SDR et de conversion ITU-R BT.2020/BT.709. Celles-ci offrent une grande flexibilité pour le choix de la sortie vidéo dans les environnements où plusieurs formats différents sont utilisés.

 

 

Un pipeline de production virtuelle 8K qui suscite beaucoup d'intérêt...

Panasonic présente également son nouveau système multi-caméras 8K ROI (zone étudiée) qui promet de bouleverser le paysage audiovisuel. Ce système englobe une caméra 8K polyvalente (AK-SHB800), une unité de traitement (AK-SHU800) et un logiciel de contrôle du cadrage (AK-SFC101). La solution sera disponible à l’achat en Europe  à 130 000€, un investisssement conséquent mais la solution ouvre la porte a des économies ultérieures conséquentes dans la mesure où  les « caméras virtuelles » de ce système ROI 8K sont capables de produire 4 signaux HD différents depuis un seul système de caméra 8K. En effet, le capteur 8K produit une vaste toile grand angle, dans laquelle l’unité de traitement peut tailler quatre recadrages séparés.

 

Ce système conciendra a une myriade de profils de production telles que les retransmissions sportives, les captations scéniques et les tournages en studio. Avec sa technologie de correction d’image automatique, le système de caméras permet également de corriger et de recadrer toute image déformée à partir d’une image Full HD naturelle sélectionnée dans l’image 8K principale.

Le système multi-caméras se compose d’une caméra principale commandée par un opérateur et reliée à d’autres sous-caméras, qui peuvent être programmées avant l’enregistrement. Ainsi, un seul opérateur peut commander plusieurs caméras dont les différents cadrages auront été programmés au préalable pour une production multi-caméras à la fois polyvalente et économique.

 

Panasonic dévoile une plateforme orientée IT/IP tournée vers l'avenir...

Panasonic présente sur le salon sa toute nouvelle plateforme orientée IT/IP. Cette solution qui devrait entrer dans une phase commerciale en 2020 incarne un système de nouvelle génération fondé sur une architecture logicielle ouvert. 

Indépendante de la résolution et du format, cette plateforme s’appuie sur les dernières technologies de traitement graphique logiciel et matériel pour allouer une puissance de traitement avec 100 % d’efficacité avec des niveaux de performance impossibles pour les produits hardware traditionnels. Elle offre le traitement non compressé, dispose de vraies entrées 4K non-compressées et de la prise en charge totale des signaux IP et en bande de base (tels que ST2110 et NDI) simultanément. Tirant pleinement parti des toutes dernières technologies IP, cette plateforme est également prête pour la production à distance et peut être intégrée à un environnement IP intégral.

Grâce à son interface intuitive, très bien conçue et entièrement personnalisable,cette plateforme orientée IT/IP de Panasonic représente un nouveau standard, simple d’utilisation et pourra gérer un nombre illimité de couches vidéo. Outre la prise en charge avec un seul serveur de pratiquement tous les types de signaux, la plateforme offre un traitement de l’image avec un temps de latence très faible, ce qui en fait un outil très puissant dans tout contextes et applications.Cette plateforme représente la solution idéale pour effectuer une transition sans accroc vers le monde IP et passer à un tout autre niveau de flexibilité et de contrôle.

« Cette nouvelle plateforme d’architecture ouverte et modulaire change la donne pour de nombreux clients impliqués dans la production et la livraison de vidéo haute qualité, live ou en studio. En effet, elle leur permet d’optimiser et de pérenniser leur investissement tout en conservant une flexibilité optimale. 

Son architecture de traitement vidéo permet aux utilisateurs de construire et de faire tourner n’importe quel genre d’application. Dans un avenir proche, cette nouvelle plateforme se trouvera au coeur de la production vidéo, qu’elle serve de processeur vidéo, de scaler, de mélangeur ou de serveur. Il n’y a aucune limite à ce qui peut être réalisé avec cette plateforme », détaille André Meterian, Directeur de la division Professional Video Systems pour la zone EMEA chez Panasonic. A suivre...

 

 

  • 15 septembre 2019 à 22:21

Un déploiement technique ECPAD hors norme pour la JNBAT (WebTV)

Le déploiement technique impressionnant de la Journée Nationale des Blessés de l’Armée de Terre (WebTV Maxence Carion) © Nathalie Klimberg

La troisième édition de la Journée Nationale des Blessés de l’Armée de Terre (JNBAT) s'est déroulée le 22 juin sous le thème de la fraternité et l’innovation. Dans son interview vidéo, Maxence Carion, Chef adjoint du Pôle Production Audiovisuelle de l'ECPAD (Etablissement de Communication et de Production Audiovisuelle de la Défense et Réalisateur en Chef des Opérations de Captations Evènementielles sur le site du Parc André Citroën dans le 15ème arrondissement à Paris revient en détail sur le déploiement technique de cette captation hors norme...

 

« La journée nationale des blessés de l’Armée de Terre est un événement majeur en terme d’événementiel pour l’ECPAD. Nous avons déployé un dispositif de près de 20 caméras, 4 duplex, une moto caméra et une douzaine de caméras sur le Parc André Citroën pour un direct de plus de 4 heures. Les images ont été diffusées aux médias, à la presse, en différé et surtout via un live facebook et sur YouTube. Nous avons aussi animé les réseaux sociaux avec notamment des tweets en direct... »     

 

Maxence Carion détaille les moyens humains mobilisés pour cette journée…

«  L’ECPAD fait appel à des prestataires variés dont, en particulier,  Euromedia pour la production multicaméras. Nous sollicitons Red Dot by Léni pour la partie transmission et leur partenaire Globecast. Cela représente une cinquantaine de personnes. Nous mutualisons à la fois du personnel interne à l’ECPAD, des chargés de production, cadreurs, du personnel de SIRPA Terre, c’est à dire le Service d'Information et de Relations Publiques de l'Armée de Terre où nous avons notamment des cadreurs et des coordinateurs de toutes les missions, du personnel de nos prestataires techniques et également une agence de communication qui a assuré toute la rédaction de l’émission. Nous faisons appel aussi à des intermittents employés par l’ECPAD pour tous les postes particuliers tels que scriptes, truquistes ou des cadreurs complémentaires. »  

 

Dans la suite de son entretien, Maxence Carion évoque la place a part entière de l'ECPAD en tant que de producteur exécutif et toute la configuration technique qu’à impliqué l’organisation de cette journée, y compris la captation du concert de Vianney, parrain de cette JNBAT 2019. Pour plus de détails, regardez la vidéo !

 

 

Pour en savoir plus sur l’ECPAD…

L’Établissement de communication et de production audiovisuelle de la Défense (ECPAD) est l’agence d’images de la Défense depuis 1915. Il dispose d’un fonds cinématographique et photographique exceptionnel : 13 millions de clichés et 36 000 films.

L’ECPAD garantit la disponibilité permanente d’équipes de reportage et de moyens audiovisuels pour témoigner en temps réel de l’engagement des forces françaises partout dans le monde. Ses ressources, photos, video et sonores, sont mises à la disposition des médias, contribuant à une meilleure compréhension de l’actualité et à la transmission de la mémoire.

www.ecpad.fr

  • 11 septembre 2019 à 17:18

NextRadioTV accélère sa transformation numérique

NextRadioTV accélère sa transformation numérique avec Dalet © DR

NextRadioTV a opté pour la plateforme éditoriale, de gestion de contenus multimédias (MAM) et d’orchestration des flux de travaux Dalet Galaxy pour le lancement de sa nouvelle chaîne d’information BFM Lyon.

 

Client de Dalet depuis 2005, NextRadioTV, propriété d'Altice Group, propulse ses opérations de création, de diffusion et de distribution multiplateforme de contenus avec Dalet Galaxy. La plateforme est utilisée pour toutes les chaînes de télévision, de radio et de contenu numérique de NextRadioTV, notamment BFM Business, BFM Paris, RMC Sport, RMC Story, RMC Découverte, ainsi que BFMTV, la chaîne d’information la plus regardée en France. Les émissions de NextRadioTV proposent du contenu varié, dont les dernières nouvelles régionales et internationales, l’actualité financière et économique, une couverture sportive complète avec du football, du rugby, du tennis et de la boxe, et plus encore.

 

“NextRadioTV dispose d’un plan stratégique ambitieux en matière de production de nouveaux contenus et de lancement de nouvelles chaînes comme BFM Lyon,”souilgne Antoine Robelin, Directeur technique broadcast chez NextRadioTV. “Une plateforme agile, Dalet Galaxy est à la base de toutes nos opérations, ce qui nous permet de centraliser toutes nos activités médiatiques et d’optimiser nos productions. Plus de 1 000 journalistes et rédacteurs peuvent utiliser le système Dalet Galaxy. Ils travaillent en collaboration et partagent leur contenu avec toutes les marques de NextRadioTV. Cela nous donne beaucoup de flexibilité pour l’alimentation de nos chaînes et de nos points de distribution, y compris la nouvelle chaîne BFM Lyon.”

La transformation numérique de NextRadioTV à l’aide des solutions Dalet a permis au groupe de lancer rapidement de nouvelles initiatives telles que la chaîne régionale ultra-ciblée BFM Lyon, tout en respectant la stratégie de contenu de la marque sur plusieurs sites. Les outils fournis par Dalet permettent à NextRadioTV de vérifier, de monter et de diffuser les actualités avant les autres médias, soutenant ainsi la réputation du groupe d’être toujours le premier à diffuser les nouvelles.

 

“Le lancement de BFM Lyon, la deuxième chaîne régionale d’Altice France après BFM Paris, marque une étape majeure dans la stratégie de développement de notre réseau de chaînes. L’infrastructure de collaboration avancée et la puissante connectivité de Dalet Galaxy nous ont permis de joindre un public plus vaste tout en accélérant notre transformation numérique, qui à son tour contribue à notre croissance,” ajoute Antoine Robelin.

Une plateforme unique de MAM, d’orchestration et d’édition, Dalet Galaxy soutient l’importante programmation multichaînes, multiformats et multisorties de NextRadioTV, des actualités aux sports, en passant par les émissions longues et les émissions radiophoniques. Cela permet ainsi à l’ensemble des équipes de gérer tout un éventail de tâches de manière collaborative, notamment l’ingestion de contenu, le montage, les graphiques, la diffusion, la distribution multiplateforme et les archives.

 

Selon Johann Zemmour, Directeur général EMEA-APAC, Dalet, “L’agilité de Dalet Galaxy est très importante pour l’approche de production de NextRadioTV orientée sur le produit. Avec cette approche, les émissions sont d’abord produites en studio, et c’est seulement par la suite que NextRadioTV décide où et quand le contenu du programme apparaîtra à la télévision, à la radio ou sous forme numérique. Grâce à Dalet Galaxy, NextRadioTV a la capacité de tirer parti de toutes ses ressources indépendamment de ses chaînes, ce qui permet l’exploitation d’un large éventail de contenus par les nouvelles chaînes, ainsi que la gestion efficace de la distribution sur de nombreuses plateformes.”

Les systèmes Dalet ont soutenu la programmation de BFMTV tout au long de l’existence de la chaîne, depuis ses débuts comme une rédaction de 50 personnes jusqu’à la chaîne que l’on connaît aujourd’hui, avec plusieurs centaines d’utilisateurs simultanés et des flux de travaux avancés couvrant toutes les opérations de production et de diffusion. Desservant toutes les activités sur plusieurs sites, la plateforme Dalet Galaxy facilite le partage instantané de contenus entre tous les services, soutient le montage avec Dalet OneCut afin de produire de manière efficace les dernières nouvelles ainsi que l’actualité sportive, et offre une intégration avancée avec Adobe Premiere Pro CC pour des flux de travaux collaboratifs grâce à Dalet Xtend.

  • 11 septembre 2019 à 17:00

L’Équipe sur le terrain avec TVU Networks…

L’Équipe sur le terrain avec TVU Networks… © DR

Neuf années déjà que L’Équipe travaille avec les moyens de transmission par agrégation de lignes cellulaires ; et TVU Networks depuis son arrivée sur la TNT. Retours d’expériences…

 

« Nous avons débuté avec les systèmes LiveU. À cette époque, les patrons des rédactions imaginaient que ces nouvelles solutions de transmission allaient sonner le glas des cars SNG, » raconte Patrick Vautier, directeur technique de la chaîne L’Équipe. « Qu’il suffirait de partir avec une caméra, un petit sac et un câble… » D’une certaine manière, ils avaient vu juste au regard des contributions légères.

Même s’il s’est agit d’une petite révolution en 2010, confère le directeur technique de la chaîne, il fallut essuyer les plâtres et les écueils d’utilisation de telles solutions à une époque où régnait la 3G, ses réseaux saturés de MMS au moment des matches, lesquels rendaient la tâche difficile, tant pour les directs que pour l’acheminement des images. « Nous avons vite compris à cette époque que les essais fructueux d’avant match étaient bien loin des résultats escomptés durant et après ceux-ci ; il fallait donc trouver des parades, et notamment ne pas déconnecter en prévoyant assez de batteries, » se souvient Patrick Vautier. Sans compter que les journalistes reporters d’images (JRI) ne partaient plus en compagnie d’une équipe : « lâchés dans la nature, les premières technologies ne leur permettaient pas de s’affranchir des potentiels problèmes techniques, même si les procédures de connexion étaient déjà grandement simplifiées. »

 

Deux, c’est mieux qu’un  !

Pour la direction technique de la chaîne, ce qui comptait à l’époque, et qui est toujours d’actualité, était de ne pas être tributaire d’un unique système : « C’est pourquoi nous avons rapidement choisi d’équiper la rédaction de L’Équipe d’un second système : TVU Networks, souligne Patrick Vautier, depuis 2012, dès le passage de L’Équipe TV à L’Équipe 21 sur la TNT devenue L’Équipe en 2016. »

Entre temps, la 4G LTE est arrivée, la taille des packs a été réduite, notamment avec le TVU One TM1000, les connexions aux réseaux se sont fiabilisées et simplifiées. Et les matériels font désormais partie de la vie des JRI. « Après avoir maîtrisé cette nouvelle façon de travailler, nous parvenons aujourd’hui de manière légère à transmettre 6 Mbit/s en qualité HD, en ayant au passage considérablement réduit les coûts de contribution. »

 

Côté exploitation…

Au traffic diffusion de la chaîne, « ce sont aujourd’hui 4 flux en réception TVU (deux par serveur) et deux flux de son concurrent que nous utilisons au quotidien, précise Jean-Guy Blum, technicien de maintenance audiovisuelle et informatique. Pour Maxime Bidan, opérateur traffic diff’, TVU est d’une « utilisation intuitive et simplissime, nous prenons la main sur les matériels à distance, assignons le N-1, libérant le journaliste de toute contrainte technique. » Il apprécie notamment la possibilité de modifier le delay des équipements TVU : « cette option uniquement disponible chez TVU nous permet d’obtenir une meilleure qualité vidéo en réception, notamment pour pallier un réseau à débit limité ou fluctuant. »

Du côté des JRI, la satisfaction est bien présente, et davantage à mesure que les matériels connaissent des évolutions en termes d’encombrement. L’Équipe étant passée au TVU One dès sa sortie, « qui a permis de gagner en compacité, en légèreté et en efficacité sur le terrain avec des batteries intégrées, » souligne Jean-Guy Blum. « Notre prochaine évolution sera sans aucun doute le passage à la version HEVC, complète Patrick Vautier. Avec une réduction de la consommation de data sans compromettre la qualité d’une part, et avec un gain en autonomie d’autre part, le HEVC étant moins énergivore… »

 

Sur le terrain…

« Pour le terrain, nous avons pris l’habitude de fonctionner avec plusieurs jeux de cartes SIM, précise Jean-Guy Blum. Orange/SFR/Bouygues pour la France, histoire de faire face à toutes les éventualités propres aux couvertures de chaque réseau pour notre TVU dédié à la France ; Orange/Vodaphone pour celui officiant en Europe ; et des cartes 3HK pour le reste du monde. »

Une stratégie qui permet de faire face à près de 85 % des situations tempère Patrick Vautier. « Afin de pallier de fâcheux aléas de réseaux cellulaires, telles que des fréquences différentes du reste du monde, nous avons pris l’habitude, pour certains pays, de louer des unités TVU supplémentaires auprès de Magic Hour, lesquels sont livrés à nos équipes dans le pays de destination. C’est par ailleurs l’option que nous avons choisie pour la couverture de la prochaine Coupe du monde de rugby qui se déroulera au Japon. »

 

Au quotidien

Si L’Équipe a déjà exceptionnellement utilisé les solutions TVU Networks en tant que contribution vers sa régie finale pour quelques matches réalisés en direct sur le lieu de captation (basket-ball, volley-ball en rencontres locales), l’utilisation principale demeure l’acheminement quotidien de sujets et d’intervention en direct pour la quotidienne de la chaîne, L’Équipe du soir : « On estime à quelque deux heures d’utilisation quotidienne, assure au traffic Maxime Bidan, qu’il s’agisse des packs TM1000 en itinérance, comme l’utilisation de l’application TVU Anywhere pour Smartphones.

Un système « bluffant » selon Patrick Vautier : « Nous atteignons des débits de 5 Mbit/s et un rendu tout à fait valable pour une exploitation broadcast de complément sur le terrain. » L’application permet en effet à une vingtaine de journalistes du quotidien papier L’Équipe envoyés aux quatre coins du monde ou correspondants en région, et aguerris à l’exercice télévisuel, d’intervenir pour la chaîne ou pour le site Web…

 

Mais pour une chaîne 100 % sport telle que L’Équipe -et ses synergies tri-média télé/print/Web-, avec des apports quotidiens d’images en provenance de ses journalistes, le support TVU Networks est un atout: « tant avec les techniciens de Magic Hour qui tiennent à jour nos solutions clef en main, que le support TVU en France et à l’étranger, toujours paré à satisfaire nos demandes » conclut Patrick Vautier.

  • 11 septembre 2019 à 17:00

IBC 2019 : Black is the new Orange avec le stockage Rugged SSD Pro !

IBC 2019 : Black is the new Orange avec le Rugged SSD Pro ! © DR

LaCie, la marque haut de gamme de Seagate Technology annonce trois nouvelles solutions de stockage conçues pour les professionnels des médias et du divertissement : les nouveaux LaCie Rugged SSD Pro, LaCie Rugged SSD et LaCie Rugged BOSS SSD, des solutions haut de gamme qui accompagneront les professionnels des médias et du divertissement dans la gestion des énormes volumes de données générés par les flux de travail contemporains…

 

Les nouveaux LaCie Rugged SSD Pro, LaCie Rugged SSD et LaCie Rugged BOSS SSD marquent définitivement 30 ans de créativité de LaCie dans un secteur en constante évolution.

 

Avec le Rugged SSD Pro, Black is the new Orange…

Pour le Rugged SSD, LaCie prend quelques libertés avec le mythique design de son renfort en caoutchouc orange crée par Neil Poulton en proposant un disque à peine plus gros qu’un galet dans une coque noire très addictive au toucher !

Conçu pour filmer et monter du contenu 8K dans des conditions extrêmes Le LaCie Rugged SSD Pro répond aux besoins des cinéastes et des techniciens en imagerie numérique qui recherchent un disque de travail assurant des transferts ultrarapides et permettant de monter du contenu haute résolution aux formats 8K et super ralenti.

Ce disque est doté d’un SSD NVMe Seagate FireCuda qui offre des vitesses Thunderbolt 3 maximales atteignant 2 800 Mo/s et une durabilité extrême sur le terrain. Les cinéastes et les techniciens en imagerie numérique peuvent ainsi lire des fichiers sources aux formats 6K, 8K et super ralenti où qu’ils se trouvent et sans transcodage. Le LaCie Rugged SSD Pro intègre en outre le tout nouveau contrôleur

Thunderbolt 3 et constitue la première solution de stockage portable Thunderbolt 3 qui offre la compatibilité USB 3.1 pour une connectivité plug and play transparente.

 

Conforme à la norme IP67, ce disque de poche fera face à toutes les situations avec sa résistance à la poussière et à l’eau, aux chutes de trois mètres et aux charges de deux tonnes. C’est même la première solution de stockage Thunderbolt 3 qui peut être immergée dans l’eau jusqu’à un mètre pendant 30 minutes ! Sa une garantie de cinq ans comprend les services Seagate Rescue Data Recovery.

« Le nouveau LaCie Rugged SSD Pro est la première solution portable du marché à être équipée de la toute dernière technologie Thunderbolt 3, » précise Jason Ziller, General Manager Client Connectivity Division chez Intel. « Le contrôleur JHL7440 permet à LaCie de proposer des performances hors du commun grâce à des ordinateurs équipés Thunderbolt 3 et à sa compatibilité avec des appareils plus anciens. »…

 

Toutes ces caractéristiques attrayantes feront du LaCie Rugged SSD Pro la solution de stockage portable Thunderbolt 3 la plus robuste et la plus polyvalente du marché. Et comme chez LaCie on est vraiment cool, ses nouveaux propriétaires bénéficient d’un abonnement gratuit d’un mois au service Adobe Creative Cloud pour toutes les applications !

 

Prix indicatifs : 479,99 € (version 1 To) et 819,99 € (version 2 To) Disponible chez Atreid, Vidéo Plus, TRM.

 

 

Optimisez vos projets vidéo 4K avec le LaCie Rugged SSD

Autre nouveauté, le LaCie Rugged SSD permet aux cinéastes et aux techniciens en imagerie numérique d’effectuer des transferts et des montages ultrarapides. Très robuste, il offre, en outre, la technologie d’auto-chiffrement Seagate Secure avec protection par mot de passe pour la confidentialité des projets. Le disque Seagate FireCuda NVMe SSD intégré offre des vitesses USB 3.1 de 2e génération atteignant 950 Mo/s qui permettent de transférer et de monter facilement des vidéos RAW 4K. 

Cette solution portable offre une large capacité de stockage pouvant atteindre 2 To. En outre, à l’instar des produits de la gamme Rugged de nouvelle génération, ce disque est résistant à l’eau (norme IP67), aux chutes de trois mètres et aux charges de deux tonnes. Il est également couvert par une garantie limitée de cinq ans qui inclut les services Seagate Rescue Data Recovery, et propose également un abonnement gratuit d’un mois au service Adobe Creative Cloud pour toutes les applications. Ce disque est habillé par une coque orange.

 

Prix indicatifs : 219,99 € (500 Go), 359,99 (1 To), 589,99 (2 To) Disponible chez Atreid, Vidéo Plus, TRM

 

Plus besoin d’ordinateur portable avec le BOSS…

Ultrarapide et ultraperformant, le LaCie Rugged BOSS SSD a été conçu pour les cinéastes et les photographes qui cherchent un moyen rapide et facile de copier, contrôler et gérer du contenu sans ordinateur lors de leurs déplacements. 

Offrant une capacité de 1 To, le LaCie Rugged BOSS SSD permet de bénéficier de vitesses SSD atteignant 430 Mo/s et de transférer directement des fichiers à l'aide du connecteur pour carte SD et du port USB intégrés. L’écran d’état intégré fournit des informations en temps réel sur les transferts, la capacité et l’autonomie pour faciliter la gestion des flux de travail. L’application LaCie BOSS sur iOS et Android permet de visualiser, nommer et supprimer des séquences vidéo à l’aide d’un appareil mobile pour optimiser les déplacements. 

Conçu pour faire face à toutes les situations grâce à sa résistance aux chutes, aux éclaboussures et à la poussière, le LaCie Rugged BOSS SSD peut être utilisé comme une batterie portable pour les périphériques USB tels que les téléphones et les appareils photo sans miroir. Couvert par une garantie limitée de trois ans qui comprend les services Seagate Rescue Data Recovery, ce disque inclut un abonnement gratuit d’un mois au service Adobe Creative Cloud pour toutes les applications, dont Adobe Premiere Pro, Adobe Photoshop et Adobe Illustrator.

 

Prix indicatif : 539,99 € (1 To) Disponible chez Amazon.

 

 

Sur IBC 2019, LaCie et Seagate montrent comment les nouveaux systèmes et les nouvelles solutions de stockage permettent d’améliorer le processus de création, des amateurs aux professionnels qui dirigent des studios de postproduction.

  • 11 septembre 2019 à 17:00

IFA 2019 : le premier portable doté d’une carte Quadro RTX 6000

IFA 2019 : le premier ordinateur portable doté d’une carte Quadro RTX 6000… © DR

Le processeur graphique Nvidia Quadro RTX 6000 alimentera l'ordinateur portable annoncé comme le plus puissant au monde : l’ASUS ProArt StudioBook One. Il complète les 11 autres nouveaux systèmes profitant de la technologie RTX Studio lancés par Acer, ASUS, HP, MSI a l’occasion de l’IFA, le plus grand rendez-vous électronique au monde, portant à 39 le nombre total de systèmes embarquant ce processeur ultra performant.

 

Le Quadro RTX 6000, au cœur du ProArt StudioBook One, permet aux créatifs de tirer parti de la puissance équivalente à celle d'une station de travail bureautique haut de gamme sans être enchaîné à leur bureau… La machine sera idéale pour les flux de travail gourmands en calculs, tels que la création d'animations 3D, le rendu, l'édition de vidéos 8K, la visualisation de jeux de données volumétriques, la navigation en temps réel dans les projets VR...

 

L’ASUS ProArt StudioBook One qui offre une combinaison idéale de performances et de portabilité propose notamment:

• 24 Go de mémoire GPU ultra-rapide pour traiter de grandes scènes, des modèles, des jeux de données et des workflows complexes multi-applications.

• Ses cœurs RT et les cœurs Tensor de l’architecture NVIDIA Turing offrent des fonctions de traçage de rayons en temps réel, d’ombrage avancé et des outils améliorés d’IA pour accélérer les flux de travail professionnels.

• son écran professionnel 4K 120Hz validé certifié PANTONE propose une couverture colorimétrique en conformité à 100% avec Adobe RVB…

  • 11 septembre 2019 à 17:00

Retour sur le NAB 2019 – le haut du panier en matière de Business Management Solution et IA

Pro Consultant Informatique vient d’ajouter un service d’audit des données à sa palette d’offres avec l’objectif de garantir la performance d’utilisation de ses solutions dans la durée. © DR

Retour sur l'actualité de Primefocus Technologies et ProConsultant Informatique, deux société qui se sont fait remarquer lors de la toute dernière édition du salon professionnel annuel produit par la National Association of Broadcasters. Le premier - branche technologique de Prime Focus – s’est vu remettre deux prix : l’un dans la catégorie « Produit de l’année » et l’autre dans la catégorie « AI/Apprentissage automatique » pour la télévision.

 

PRIMEFOCUS TECHNOLOGIES

Primefocus Technologies perfectionne son écosystème de software ERP (Enterprise Resource Planning) orienté industrie media et entertainment depuis dix ans… Sa solution software end to end est capable d’orchestrer toutes les activités de l’entreprise de la paie aux contrats des créateurs de contenus, en passant par les contenus eux-mêmes… Agrégeant toutes les activités de tous les départements de l’entreprise, marketing, direction, distribution, production, elle propose une collaboration unifiée avec des outils et une approche globalisée.

Intégré dans cet écosystème, Clear Vision Cloud, son moteur d’intelligence artificielle de reconnaissance des médias dans le cloud, a été primé sur le salon pour sa capacité à générer des micro-services prêts à l’emploi tels que des segmentations automatiques, des packages d’images en surbrillance en temps réel, des vignettes, de la description automatique de scènes et pour sa capacité à générer des playlists automatisées. Clear Vision Cloud identifie automatiquement les principaux composants d’une scène, notamment les visages, les actions, les transcriptions… ainsi que les limites de la scène. Il en extrait des métadonnées descriptives qui aident notamment les éditeurs à localiser des clips intéressants. Ce moteur d’IA exploite la technologie Machine Wisdom.

 

PROCONSULTANT INFORMATIQUE

Pro Consultant Informatique vient d’ajouter un service d’audit des données à sa palette d’offres avec l’objectif de garantir la performance d’utilisation de ses solutions dans la durée. Ce nouveau service permet notamment de vérifier que l’architecture mise en place est toujours utilisée de façon optimale dans le temps par tous les administrateurs du système. Si l’interface des solutions PCI simplifie le routage des données, la bonne gestion de ces données est aussi critique pour les chaînes de télévision, notamment concernant les droits, et c’est en particulier sur ce point que l’offre d’audit prend toute sa valeur…

PCI apporte aussi davantage d’ouverture à Louise, sa solution dynamique de gestion centralisée du contenu multimédia et des métadonnées. Louise – qui permet déjà la mise en œuvre et l’optimisation des processus Media Business en établissant des flux de travail transparents, de l’acquisition de contenu à la gestion des droits, en passant par la distribution et le reconditionnement du contenu – propose désormais des fonctionnalités de livraison automatisée vers YouTube avec une vignette photo. Le système génère l’ensemble des EPG (informations éditoriales, y compris les tags) et reste en interaction avec le réseau social dans la durée pour mettre à jour les descriptifs, y compris les titres afin d’optimiser le référencement. « Cette nouvelle fonctionnalité offrira une efficacité inédite dans la valorisation du contenu et donc plus de revenus », commente Hervé Obed, PDG de PCI.

Dans la continuité de cette évolution, la société travaille actuellement à mettre en place une approche similaire sur les réseaux sociaux Instagram, Facebook et Twitch.

 

Extrait de notre compte rendu du NAB 2019 paru pour la première fois dans Mediakwest #32, p.42/82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 8 septembre 2019 à 16:00
❌