Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierMediakwest - Broadcast

L’IP et la fibre optique au cœur de la diffusion de viàRéseau

Pour chaque sujet disponible sur My Video Place, sont affichés un résumé, les métadonnées et les liens pour l’intégrer dans la page web du diffuseur. La carte montre que ce sujet de la chaîne Tébéo est consulté bien au-delà de la Bretagne.© My Video Place

viàRéseau est la structure créée par le groupe Médias du Sud pour regrouper et gérer des services offerts aux différentes chaînes de TV locales du groupe (viàOccitanie, viàGrandParis, ATV…) et à celles affiliées dans le réseau « vià ». En 2018, viàRéseau a mis en place un service de diffusion implanté à Montpellier. Elle est en train de l’ouvrir à l’ensemble des chaînes du groupement et, à terme, ce seront 22 chaînes implantées sur tout le territoire qui seront diffusées depuis le sud de la France grâce à un dispositif technique associant réseau IP, fibre optique et serveurs de play-out d’Imagine Communications.

 

Médias du Sud est un groupe de communication multimédia (au sens originel du mot) implanté dans le sud de la France. Il intervient comme régie publicitaire et évènementielle, produit des contenus audiovisuels et numériques, édite et diffuse des magazines régionaux et est présent sur le web. En 2009, il a élargi son champ d’intervention en rachetant la TV locale nîmoise Télé Miroir, puis en 2010, la chaîne 7L TV qui diffuse sur la ville de Montpellier. Les deux chaînes sont alors rebaptisées TVSud Camargue-Cévennes et TVSud Montpellier.

En 2015, suite à un appel d’offres lancé par le CSA, il obtient l’autorisation d’émettre sur la région de Perpignan et lance TVSud Pyrénées Orientales. En 2016, le CSA a autorisé TVSud à réutiliser la fréquence laissée disponible à Toulouse par l’arrêt de TLT. En 2017 les quatre chaînes locales sont regroupées sous une identité commune, viàOccitanie. En 2018 avec le soutien de Bruno Ledoux, Médias du Sud rachète la chaîne ATV qui émet sur la Guadeloupe, la Martinique et la Guyane et reprend l’exploitation de Telif en Île-de-France et la rebaptise viàGrandParis.

 

 

Le service d’échanges My Video Place

Avant de détailler l’infrastructure technique mise en place, Philippe Van de Velde, directeur technique de viàRéseau et du groupe Médias du Sud, revient sur la genèse de la tête de réseau viàRéseau. Le premier service mis en place il y a quatre ans est la plate-forme d’échange vidéo My Video Place. Son objectif est de faciliter les échanges de contenus vidéo entre les trois grandes catégories d’acteurs de l’information locale : les chaînes de TV locales, la presse quotidienne régionale (PQR) et les plates-formes web d’information. Avec, comme préoccupation, la préservation des droits des producteurs de contenus et le souci de monétiser et donc rentabiliser la diffusion des médias échangés.

Dans ce but, ses primo fondateurs (Médias du Sud et le groupe de presse Rossel) ont mis en place une plate-forme d’échange vidéo sur laquelle les participants mettent à disposition leurs reportages ou documentaires avec une indexation détaillée sur un jeu complet de métadonnées. L’accès à My Video Place est gratuit après inscription, ainsi que le dépôt des contenus. Ses responsables ont établi une grille tarifaire de rémunération qui sert à la facturation de la diffusion.

Les métadonnées associées aux contenus détaillent toutes les informations sur l’origine et les auteurs du document, mais servent aussi au moment de la diffusion pour associer des messages publicitaires géolocalisés et organiser des campagnes nationales de promotion. Ceci dans le but de renforcer le modèle économique des diffuseurs, quel que soit leur canal (sites web, TV locales ou sites de la PQR).

 

Actuellement, une soixantaine de producteurs alimentent la plate-forme d’échanges My Video Place : les chaînes locales affiliées à viàRéseau, des quotidiens régionaux, comme La Dépêche, Le Télégramme ou La Voix du Nord et des médias web pure player. Les chaînes TF1 et LCI sont également membres du service d’échanges pour accéder à des reportages régionaux et alimenter leurs journaux d’information.

Pour chaque document inscrit au catalogue, une carte affiche l’origine géographique des internautes qui le consultent via les services web des diffuseurs. Cela permet de constater que pour des sujets liés à une actualité chaude, les échanges induits par le service My Video Place offrent une audience beaucoup large que celle du média local qui a réalisé initialement le reportage, que ce soit une TV locale ou un journal de la PQR.

 

 

Alléger les contraintes de la diffusion

La mise en place de viàRéseau reprend des objectifs similaires que Philippe Van de Velde précise : « Jusqu’à présent, les TV locales ont eu beaucoup de mal à se développer. Certaines ont même connu des échecs et ont disparu. À travers viàRéseau, il s’agit de leur donner une nouvelle chance de réussite en créant une nouvelle identité aux chaînes sous un sigle commun, en proposant des campagnes publicitaires sur l’ensemble du territoire, ensuite déclinées localement. Et ce pour dégager des moyens de produire des programmes innovants, des séries ou même des films. »

Pour les libérer des contingences techniques quotidiennes liées à la diffusion permanente d’un programme 24 heures sur 24 et 7 jours sur 7, le second volet de viàRéseau est la mise en place d’une infrastructure technique commune pour assurer leur diffusion à l’antenne. Jusqu’à présent, chaque chaîne mettait en place ses propres équipements de play-out. Outre le choix du meilleur système dans un budget contraint, elle est confrontée à de multiples exigences : assurer la continuité de la diffusion, la surveillance des équipements, garantir l’alimentation électrique et des conditions optimales avec un système de climatisation. Il est indispensable d’assurer une intervention rapide en cas de panne ou de dysfonctionnement.

Les évolutions techniques en termes de réseau IP et de transport à haut débit sur fibres optiques permettent dorénavant de déporter les équipements de diffusion sur un site distant. Et pourquoi pas les mutualiser sur un site unique pour en réduire les contraintes et les coûts d’exploitation. Ainsi chaque chaîne pourra se recentrer sur le cœur de son métier, à savoir la création de programmes et la couverture de l’information locale. C’est ainsi que viàRéseau a conçu son centre de diffusion, d’abord pour ses propres chaînes, et ensuite pour l’ouvrir à l’ensemble des chaînes locales.

 

 

Un centre de diffusion pour 22 chaînes locales

viàRéseau est déjà en exploitation pour les quatre chaînes de viàOccitanie et a signé des partenariats avec une quinzaine d’autres chaînes métropolitaines, sous forme d’une syndication de moyens. Le centre de diffusion de viàRéseau desservira à terme 22 chaînes locales. Outre ViàOccitanie, il accueillera bientôt viàGrandParis (ex-Telif), Wéo, MaTélé, Tébéo et Tébésud, Mirabelle TV, Vosges TV, LMtv Sarthe, La Chaîne Normande, Angers TV, Télé Nantes…

Le service My Video Place a été entièrement développé en interne par l’équipe informatique de Médias du Sud, en s’appuyant sur des outils « open source ». Lorsque Philippe Van de Velde a commencé à examiner les offres de « traffic system » pour la plate-forme de diffusion antenne, il a constaté que l’outil développé pour My Video Place remplissait déjà 50 % des fonctions. Il a donc décidé d’élargir et d’enrichir les fonctions de My Video Place pour en faire le cœur du système de diffusion.

 

Chaque télé locale affiliée à viàRéseau exploite ses propres moyens de production. Une fois l’émission tournée et montée, le journaliste, ou la personne en charge de sa production, l’inscrit sur My Video Place en détaillant toutes les métadonnées qui lui sont associées et à la fin du processus déclenche le téléchargement du fichier vers les serveurs de viàRéseau à Montpellier. Pour cela, viàRéseau a mis en place une liaison par fibre optique entre chaque télévision locale et viàRéseau. Celle-ci offre un débit de 100 Mb/s dans les deux sens.

Le responsable de l’antenne de chaque télévision locale se connecte via une interface web sur le « traffic system » de viàRéseau. Il prépare la playlist de diffusion à partir des émissions transférées ou des éléments acquis sur My Video Place. Ensuite le « traffic system » établit le conducteur d’antenne qui va piloter le système de diffusion.

 

Chaque TV locale diffusée par viàRéseau dispose de son propre serveur installé dans le data center de Montpellier. Pour assurer cette fonction de diffusion, Philippe Van de Velde a porté son choix sur la version logicielle du système play-out Versio d’Imagine Communications. Il en précise les raisons : « Je souhaitais un système totalement logiciel et fonctionnant en full IP. Par rapport à des produits concurrents, l’offre d’Imagine est très modulaire et il est facile de la compléter avec divers modules de traitement : conformation, traitement acoustique, watermarking et autres. La sortie se fait directement en IP pour attaquer le réseau de transport vers la diffusion et les serveurs de streaming. Imagine, ce sont les seuls à offrir un système totalement compatible avec des API Rest Full pour communiquer avec nos outils logiciels. »

Chaque système de play-out est installé sur un serveur blade HP, 1U de rack. Et l’ensemble des équipements dimensionnés pour la diffusion de 30 chaînes occupe seulement trois mètres carrés au sol. Tous les équipements nécessaires à la diffusion des chaînes TV et au service My Video Place sont hébergés dans le data center Zayo à Montpellier. L’hébergement dans un data center résout toute une série de problèmes en termes de connectivité, de continuité de services, d’alimentation électrique et de sécurisation des équipements.

 

 

Une remontée vers Paris pour alimenter la TNT, le satellite et les box Internet

La sortie HD du programme est encodée en H.264 à 8 Mb/s. Les flux de toutes les chaînes sont renvoyés via fibre optique vers le data center Telehouse 2 installé à Paris. Sur ce site, les signaux sont récupérés à la fois par TDF qui les envoie, via son propre réseau interne, vers les divers émetteurs hertziens répartis sur le territoire. Sur ce même site, les divers FAI reprennent également ces flux pour les injecter dans leurs réseaux de distribution vers les DSLAM puis les box ADSL. Enfin les deux opérateurs de diffusion par satellite, Canalsat et Fransat, reçoivent aussi les signaux des chaînes pour les incorporer dans leurs plans de services de diffusion par satellite.

viàRéseau, de son côté, assure la diffusion en streaming des chaînes pour leurs propres pages web. Ce service est une extension des serveurs de streaming déjà mis en place pour My Video Place. En effet lorsque par exemple un quotidien de la PQR achète sur My Video Place les droits de diffusion d’un document vidéo, le contenu n’est pas transféré vers les serveurs du journal. Il récupère juste un lien qu’il insère dans sa page web qui pointe vers les serveurs de My Video Place et/ou de viàRéseau. Ce sont plus de 10 000 vidéos qui sont traitées chaque mois avec 15 millions de vues mensuelles. Les flux de streaming sont encodés dans cinq profils HLS allant d’une basse résolution à 300 kb/s jusqu’au full HD à 3 Mb/s.

 

viàRéseau fournit à chaque chaîne locale les unités de transmission 4G, des modèles DMNGPro 180 d’Aviwest. Selon les situations et le type de reportage, « breaking news » ou direct au cours du journal TV, le signal est reçu :

-  soit sur un serveur installé au data center de Montpellier et le contenu est alors directement transféré vers le stockage central, prêt à être récupéré par la chaîne, pour une indexation et une mise en ligne ;

-  soit, pour un direct en plateau, le signal est envoyé directement sur un serveur de réception, installé à la chaîne locale, et dans ce cas la sortie SDI du serveur est raccordée au mélangeur vidéo du studio.

 

 

Transmettre les programmes réalisés en direct

Dans le cadre de leur convention avec le CSA, les chaînes locales sont obligées de produire quotidiennement un volume horaire de contenus originaux. En général, il s’agit du journal quotidien associé à des talk-shows réalisés en direct. Le système de diffusion n’étant plus sur place, il est nécessaire de rapatrier le signal du direct jusqu’au centre de diffusion de viàRéseau à Montpellier. Pour cela la fibre optique à 100 Mb/s qui relie chaque chaîne locale au data center de Montpellier est mise à contribution.

Un encodeur vidéo fixe de marque Aviwest est installé en salle technique et compresse le signal sortant du studio pour le transmettre vers Montpellier en H.264. Dans la playlist de la programmation, un module « break » est inséré à l’heure du direct et commute la sortie du serveur play-out sur son entrée IP pour diffuser le direct. Et comme aime à le rappeler Philippe Van de Velde : « Toute l’architecture de diffusion fonctionne en IP et sans aucun câble SDI. »

 

Lors des rachats successifs des chaînes pour former TVSud, puis viàOccitanie, Philippe Van de Velde a exploité de nombreux systèmes de play-out basés sur des serveurs vidéo associés à des équipements hardware traditionnels, le tout chapeauté par une automation dédiée. Le système mis en place pour viàRéseau lui donne satisfaction : « S’il fallait le refaire, je le referais exactement à l’identique. Le stress subi avec les systèmes traditionnels, non merci ! »

Il attire néanmoins l’attention sur l’évolution des compétences qu’induit un passage vers une infrastructure entièrement informatique et basée sur des transmissions exclusivement en IP. « Il faut réapprendre nos métiers. L’équipe technique habituelle, constituée surtout de profils “broadcast”, doit impérativement évoluer vers des profils beaucoup plus IT. Et ce n’est pas toujours aussi simple. »

Le centre de diffusion viàRéseau mis en place en place est encore en pleine montée en charge. Actuellement, il assure la diffusion de cinq chaînes locales et, au cours de l’année 2019, petit à petit, il accueillera les autres chaînes locales métropolitaines associées dans le groupement viàRéseau. 

 

 

Article paru pour la première fois dans Mediakwest #31, p.90/92. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 25 septembre 2019 à 17:00

IBC 2019 : 10 ans d'avancées technologiques pour les PTZ Panasonic (interview Web TV)

IBC 2019 : 10 ans d'avancées technologiques pour les PTZ Panasonic (interview Web TV)

Panasonic célèbre le 10e anniversaire de sa gamme de caméras PTZ. Dans une interview vidéo livrée sur IBC, Andre Meterian, Directeur de la division Professional Video Systems pour la zone EMEA Panasonic, fait un point sur cette ligne de produits évolutive, qui représente la gamme PTZ la plus étoffée au monde. Andre Meterian nous présente plus en détail la toute nouvelle UE 150, outil de captation PTZ performant pour le tracking sur fond vert des studios virtuels grâce à son protocole FreeD. Il détaille aussi la stratégie d’intégration robotique qui permet à ces caméras des prises de vues 6 axes et nous dévoile la stratégie Panasonic à long terme qui se concrétise par l’arrivée d’une  plateforme IP centrique glass to glass sans limitation de capacité (nous reviendrons sur cette innovation plus longuement la semaine prochaine…). 

 

 

En route pour un tour d’horizon des nouveautés PTZ et robotiques du stand Panasonic d'IBC… A commencer par les nouveautés de la gamme PTZ

Le nouveau fleuron de la gamme de caméra PTZ 4K de Panasonic est désormais l’AW-UE150, Grâce à l’adoption du protocole FreeD, l’AW-UE150est lapremière caméra PTZ compatible avec les applications de studio virtuel et de réalité augmentée. Elle cumule les performances puisque c’est aussi la première caméra de sa catégorie à offrir des images 4K à une résolution 50/60p et propose également l’angle de vision le plus large du marché avec ses 75,1 degrés.

 

Parmi les autres nouveautés présentées sur le stand, la caméra  PTZ compacte 4K ultra grand  angle AW-UE4possède un angle de champ de 111° et une capacité de sortie vidéo sur trois interfaces (HDMI, LAN et USB). Adaptée à tous types d’espaces grands ou petits (de la salle de réunion à la productione-sport), elle propose une solution câblée Power over Ethernet (PoE) et peut être utilisée en tant que caméra USB alimentée par un ordinateur.

La caméra AW-UE4dispose d’une opérabilité avancée : sa compatibilité RTMP (Real-Time Messaging Protocol) qui lui permet de transférer les vidéos vers les services de diffusion en direct est particulièrement adaptée aux productions live.

La caméra AW-UE4 sera disponible cet automne au prix conseillé de 1 190 €.

 

 

Deux nouveaux contrôleurs de caméra à distance

 

Destinés à accompagner la gamme complète de caméras PTZ professionnelles de Panasonic, deux nouveaux contrôleurs de caméra à distance AW-RP150et AW-RP60 étaient également présentés.

L’AW-RP150présente les mêmes fonctionnalités que l’AW-RP120tout en apportant des améliorations significatives. En effet, l’AW-RP150est doté d’une nouvelle manette facilitant son utilisation avec une seule main (pour le contrôle PTZ ou la mise au point) ainsi qu’un grand écran LCD tactile pour les commandes et le paramétrage des menus. Un levier à bascule disponible sur la manette permet de réaliser des opérations de rotation et d’inclinaison du zoom ainsi que la mise au point pour une manipulation intuitive avec une seulemain.

Le nouveau contrôleur de caméra à distance AW-RP60 est quant à lui équipé d'un grand écran LCD affichant un menu d’interface HD et d’une manette améliorée pour une maîtrise plus aisée. Celui-ci est compatible avec tous les modèles existants de caméras PTZ Panasonic.

Grâce à l’interface utilisateur améliorée, l’ensemble des informations importantes concernant les caméras, telles que l’ouverture, le zoom et la mise au point sont désormais lisibles à tout moment directement sur l’écran.

Le modèle AW-RP60 est également capable de prendre en charge jusqu’à 200 caméras réparties en 20 groupes et permet 100 préréglages tout en disposant du PoE pour une intégration simplifiée.

Le modèle sera disponible à partir d’octobre.

 

« L'écosystème PTZ est devenu la solution de production à distance la plus courante du marché des productions de moyenne et grande taille car trois facteurs qui jouent en sa faveur... Le système PTZ est conçu pour livrer une reproduction haute qualité d’image, fidèle aux couleurs naturelles à l'instar de nos caméras broadcast traditionnelles. Cette qualité visuelle s’accompagne d’une aisance d’utilisation pour des mouvements fluides et précis. Enfin, l’investissement permanent de Panasonic dans l’innovation permet de réduire les coûts de fonctionnement pour des clients aux besoins variés en matière d’applications », souligne Sivashankar Kuppusamy, Marketing Manager EMEA au sein de la division Professional Video Systems dePanasonic.

 

 

Une intégration de solutions robotiques de plus en plus avancée avec Tecnopoint, Polecam et CamBot KST

 

La gamme de caméras PTZ est assortie d’un ensemble de solutions robotiques tierces que l'on pouvait retrouver sur le stand. Ces solutions favorisent la captation de mouvement fluides et précis dans les productions en direct.

Parmi elles, Tecnopoint Tuningest un système robotique avancé qui donne accès à des mouvements de type télédiffusion aux caméras PTZ Panasonic par l’ajout d’assemblages de chariots motorisées et de colonnes.

Panasonic et Polecam ont aussi collaboré au développement du Panapod qui permet de monter jusqu'à 5PTZ simultanément et s’opère au moyen de pédales dédiées ou de pupitres, avec la possibilité d'élever la caméra de 1,5 à 3 mètres.Cette élévation de la caméra n’obstrue pas la vue et n’interfère pas avec l’artiste, le joueur, le présentateur ou la séquence filmée. Ce qui permet aux spectateurs de mieux profiter de l’expérience.

 

Enfin, le système CamBot KST est un système de caméras robotisées avec contrôle du mouvement pour l’automatisation des applications télévisées. Grâce à sa conception novatrice, ce système permet des mouvements de grande précision dans un espace restreint. Il fonctionne au moyen d’une interface logicielle, ce qui signifie que le bras robotisé peut être entièrement automatisé avec des trajectoires reproductibles. L’union du système CamBot KST et de la caméra box AK-UB300 ou d’une caméra de la série VariCam offre une solution 4K clé en main pour les plateaux d’informations et sportifs, ainsi que pour les concerts, les spectacles de divertissement et les applications de réalité augmentée. Le système est commandé par IP, pour une grande souplesse de configuration à distance.

  • 25 septembre 2019 à 17:00

Cy-Stem, le pupitre de télécommande RCP universel de CyanView

L’interface Cy-CI0 établit un lien entre les ports série des caméras et le réseau IP du panneau RCP. © CyanView

Lors des tournages multicam, le parc des caméras s’élargit sans cesse pour effectuer des prises de vues spécifiques. À côté des traditionnelles caméras de plateau, cohabitent des mini-caméras, des caméras HF, des modèles PTZ ou des versions durcies. Afin d’aider les ingénieurs vision à harmoniser leurs réglages, la jeune société CyanView a conçu une série d’outils pour regrouper leurs paramétrages sur un panneau RCP universel.

 

Sous la dénomination « caméra de plateau », les fabricants proposent des modèles adaptés aux tournages en mode multicaméra. Leur particularité réside dans l’ajout de deux équipements dédiés, la voie de commande ou CCU (Camera Control Unit) et le pupitre de réglages ou RCP (Remote Control Panel). La fonction de ces deux accessoires est de regrouper en régie, sur un poste de travail unique, tous les réglages électroniques des caméras de manière à ce que l’ingénieur vision puisse les ajuster en permanence, pour obtenir un rendu identique entre toutes les sources. La tête de caméra, le CCU et le RCP sont reliés par des câblages et des protocoles propriétaires et constituent des systèmes indissociables chez chaque constructeur et parfois même incompatibles entre les diverses gammes.

Pour diversifier les angles de prises de vues et placer des caméras à des emplacements inédits, surtout dans le sport, il est devenu habituel de compléter les caméras de plateau avec des modèles spécifiques : mini-caméras, caméras PTZ ou HF, caméras spéciales durcies, etc. Si certaines de ces caméras offrent des performances proches des caméras de plateau avec l’amélioration des capteurs, elles sont pour la plupart démunies de voies de commande ou alors des modèles spéciaux qui demandent un apprentissage et des procédures particulières.

 

 

Un panneau RCP universel

Pour répondre à cette préoccupation de nombreuses équipes de production de « live », la jeune société CyanView a conçu un système de RCP universel dénommé Cy-Stem. Il se décline en une série de boîtiers interfaces, reliés par un réseau IP à un panneau RCP conçu sur mesure, et qui en constitue l’élément le plus visible. Pour ne pas dérouter les habitudes des ingénieurs vision, il est organisé de manière similaire aux modèles les plus répandus et offre un accès direct aux commandes de diaphragme, de niveau de noir, de balance de blancs et de noirs.

En partie supérieure, un écran tactile de 3,5 pouces donne accès à des commandes complémentaires avec une série de touches autour et servant à afficher des menus contextuels selon la fonction choisie. Ce panneau RCP étant relié par réseau IP aux autres équipements, il est capable de gérer un nombre illimité de caméras simultanément, et de piloter également des caméras tourelles PTZ, en particulier la position de la tête et les cadrages, et de les mémoriser.

 

Les mini-caméras comme celles des marques Dreamchip, CIS, IO Industries ou autres modèles industriels de Sony sont souvent équipées de prises de télécommandes de type série. Pour les raccorder en IP à leur RCP, les équipes de CyanView ont conçu un boîtier interface, le Cy-CI0, placé à proximité de la caméra. Il est muni de deux sorties série multiprotocole, au choix RS-232, RS-422, ou RS-485, S-Bus ou Lanc avec le protocole de Canon et Sony, pour piloter soit deux caméras via une liaison unique, ou bien une caméra et son objectif ou la tourelle sur laquelle elle est fixée. L’interface IP est compatible POE + pour éviter de devoir prévoir une alimentation électrique à proximité. Elle est également équipée d’un voyant « tally ».

CyanView enrichit régulièrement les jeux de commandes spécifiques à chaque fabricant de caméras. Le système se configure via un navigateur web depuis un ordinateur raccordé sur le même réseau desservant le RCP et les interfaces. Sont déjà disponibles des jeux de commande pour les caméras Panasonic, Canon, Sony, Hitachi, Blackmagic, CIS, Dreamchip, Toshiba, Marshall, IO Industries, ARC, Camera Corps, Lumens et Arri.

 

 

Piloter les caméras à tourelle PTZ

Les caméras à tourelle PTZ sont dans leur majorité équipées de prises réseau et n’ont donc pas besoin d’interfaces Cy-CI0. Elles se raccordent directement sur le switch réseau desservant le panneau RCP. L’outil Cy-Stem prend déjà en charge les modèles de Lumens, Panasonic, Sony et Marshall. Comme les commandes de position de la tête sont accessibles depuis le RCP avec leurs mémorisations, les pupitres de télécommande spécifiques à chaque constructeur de caméras PTZ ne sont plus nécessaires pour régler la colorimétrie et les rappels simples de positions.

Pour des plateaux hybrides équipés à la fois en caméras PTZ et en caméras traditionnelles, le panneau Cy-RCP de CyanView permet de regrouper et d’associer les commandes électroniques des diverses caméras sur un pupitre unique.

 

L’équipe technique de CyanView a développé aussi les profils de télécommande pour les caméras de reportage à capteurs Super 35, destinées au marché Pro AV, comme les Sony FS5 ou FS7, les Canon C200, C300 et C500 et la récente EVA1 de Panasonic. David Bourgeois, fondateur et PDG de l’entreprise, constate que « ces caméras offrent un niveau de performances élevé. De nombreuses productions les privilégient pour des tournages de documentaires haut de gamme. Hélas leurs panneaux RCP sont assez limités et ne donnent pas accès à tous les paramètres de réglage interne. Beaucoup de productions souhaitent les utiliser en tournage multicam pour des concerts ou des évènements. Avec nos outils, les réglages des caméras sont facilement optimisés et harmonisés. Cela évite un lourd travail d’étalonnage en postproduction. »

CyanView a développé, en partenariat avec Panasonic, le module de réglages pour le modèle EVA1, qui exploite toutes les nouvelles fonctionnalités du firmware 3.0. Ceux pour la FS5 et la FS7 sont en cours de finalisation et les modules destinés aux Canon C200, C300 et C500 seront disponibles au moment du NAB.

 

 

Une passerelle multiréseau et un correcteur colorimétrique

La passerelle (ou gateway) Cy-GWY est le troisième composant au cœur de l’architecture Cy-Stem. Comme son nom l’indique, elle établit les liens vers les caméras via des réseaux externes ou séparés, soit pour des liaisons longue distance ou sans fil (voir ci-après) ou pour dialoguer avec des grilles de commutation ou des correcteurs colorimétriques externes. Ainsi la sélection d’une caméra sur le RCP déclenche l’affichage de son image sur le moniteur de contrôle.

Couplé à un correcteur colorimétrique (AJA, For-A, Lawo, Axon ou greenMachine de Lynx…), le RCP agira directement sur le rendu des images de la caméra sélectionnée et traitée par le correcteur colorimétrique. Exploitant divers protocoles tels qu’Ember +, les outils Cy-Stem peuvent être intégrés dans un système de supervision VSM ou Cerebrum.

 

Enfin, dernier élément du système, CyanView termine la mise au point de son propre correcteur colorimétrique, le Cy-VP4, qui sera présenté en version finale à l’occasion du NAB. Ce processeur vidéo, équipé de quatre voies de traitement 3G-SDI (pouvant être couplées pour traiter des images UHD 50p ou 60p) offre des capacités de correction pour ajuster le gamma dans la zone des noirs, l’écrêtage des blancs, la courbe du knee, la correction de détails et un traitement en mode multimatrice. Il gère également des tables LUT 3D.

Pour ses concepteurs, l’objectif est d’offrir toute la richesse des réglages des caméras plateau haut de gamme à des modèles de production, certes performantes, mais moins dotées au niveau de leurs paramétrages ou sans voie de commande, et d’harmoniser plus aisément leur rendu colorimétrique.

 

 

Contrôler les caméras en mode sans fil

CyanView lance au NAB une nouvelle version de son interface caméra Cy-CI0 qui offre le pilotage à distance ainsi que le contrôle d’autres gammes de caméras comme des action cams reliées en wi-fi ou des caméras de type DSLR connectées en USB. L’objectif est d’avoir le contrôle de tous types de caméras, quelles que soient les configurations d’exploitation. Pour offrir la plus grande universalité possible, les ingénieurs de CyanView ont choisi de l’équiper avec un processeur offrant le contrôle local des caméras et une interaction avec le RCP via différents types de réseaux comme des modems UHF, une transmission wi-fi ou encore une clé 4G à travers Internet.

Ainsi l’interface est libérée de son câble réseau et peut communiquer à distance avec le panneau RCP en mode sans fil. David Bourgeois y voit déjà de multiples applications pour la couverture de marathons ou de courses cyclistes avec des caméras sur motos, et donner néanmoins accès depuis le car régie à tous les réglages de la caméra, diaphragme, gain… sans demander au cadreur d’agir sur ces commandes. Le renvoi des signaux tally vers la caméra l’aidera à savoir s’il est à l’antenne ou pas.

Une autre application concerne également la gestion à distance des caméras raccordées à une unité de transmission 4G comme le LiveU, le TVU ou l’Aviwest. La liaison 4G constitue également une solution innovante pour les drones en offrant le contrôle des DSLR en USB et des gimbals en S-Bus, pilotés depuis le car régie avec un RCP, y compris les commandes PTZ.

 

 

Élargir le Cy-Stem au cinéma numérique

CyanView élargit régulièrement la panoplie des caméras pilotables par son panneau RCP universel. Ses équipes entreprennent le développement des modules de commandes pour les principales caméras de cinéma numérique. Celles-ci sont de plus en plus utilisées lors de captations multicaméras pour des défilés de mode ou des concerts prestigieux.

David Bourgeois milite pour une meilleure collaboration entre les DIT (Digital Imaging Technician) et les ingénieurs vision des cars régies, les premiers venant au début de la production pour définir les calibrations et les profils des caméras, ensuite exploitées par les ingénieurs vision lors de l’enregistrement.

Le fondateur de CyanView a encore de nombreuses idées pour améliorer et enrichir le Cy-Stem avec le développement de mires de calibrage associées à son panneau RCP doté de procédures semi-automatiques pour définir un premier jeu de réglages et pourquoi pas l’enrichir avec de l’IA.

Le système de panneaux RCP de CyanView a déjà été mis en œuvre sur des retransmissions sportives comme les 24 Heures du Mans, des épreuves de ski alpin, sur des matches de la NFL aux États-Unis, la saison de Formula-E, l’émission Ninja Warrior et pour l’American Spelling Bee retransmis par ESPN.

 

 

Article paru pour la première fois dans Mediakwest #31, p.88/89. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 29 septembre 2019 à 16:00

IBC 2019 : Akamai innove toujours plus pour garantir des expériences OTT optimales

NAB 2019 : Akamai innove toujours plus pour garantir des expériences OTT optimales © Nathalie Klimberg

Akamai, qui développe une offre sécurisée de diffusion sur le web, a mis en lumière plusieurs innovations et initiatives conçues pour accompagner les diffuseurs dans le développement d'une offre video online irréprochable... 

 

 

Les attentes des téléspectateurs en termes de qualité et de fiabilité d'une diffusion live de qualité optimale sont plus élevées que jamais. Pour garantir un streaming live parfait, les diffuseurs doivent pouvoir répondre rapidement aux défis liés à la captation du contenu, à la latence ou à l'évolutivité pour offrir aux spectateurs la meilleure expérience possible tout en maîtrisant les coûts. Parallèlement, les réseaux des opérateurs sont également confrontés à l'augmentation des contenus vidéo diffusés en live. Les programmes qui rassemblent de larges audiences, tels que les événements sportifs ou les flash infos, peuvent entraîner une dégradation du réseau s'ils ne sont pas correctement gérés et optimisés. Dans un souci d'améliorer l'efficacité et la qualité de la diffusion en live Akamai a depuis quelques mois dévoilé de nouvelles fonctionnalités visant à améliorer la diffusion en live pour les diffuseurs et les opérateurs, notamment :

•          Akamai Licensed Multicast Solution (LMS) : Exploite la technologie de débit adaptatif assisté par multidiffusion (M-ABR) pour aider les opérateurs de télévision payants à passer de l'infrastructure propriétaire à la diffusion haut débit IP. Cette solution peut améliorer l'efficacité et réduire les coûts en contribuant à consolider l'infrastructure de diffusion vidéo et les flux de travail et en gérant les pics de trafic qui surviennent fréquemment lors de diffusions simultanées auprès d'une large audience, telles que les événements sportifs ou les dernières actualités. La solution LMS d'Akamai permet une meilleure utilisation des ressources réseau existantes comme alternative à l'augmentation des investissements CapEx dans les développements ou les mises à niveau du réseau.

•          Media Services Live (MSL) avec liveOrigin : Conçu pour réduire considérablement les temps de latence tout en conservant une qualité vidéo exceptionnelle et en gérant de manière fiable les défis liés à la diffusion d'expériences linéaires de qualité télévisuelle en direct 24 h/24 et 7 j/7. Les nouvelles fonctionnalités MSL comprennent une insertion dynamique de publicités côté serveur et la création de clips et de miniatures de vidéo à la demande (VOD) live pour les événements en live et les applications TV de « replay » 24 h/24 et 7 j/7.

•          Adaptive Media Player : Akamai a présenté de nouvelles fonctionnalités disponibles avec sa fonction Adaptive Media Player (AMP), notamment les enchères des en-têtes vidéo basées sur des normes ouvertes pour aider les éditeurs à optimiser les opportunités de monétisation ; la diffusion en direct à faible latence pour s'adapter aux capacités de Media Services Live d'Akamai pour une diffusion vidéo hautes performances ; et la disponibilité générale des SDK pour les plateformes mobiles et télévisuelles afin d'atteindre le plus large public possible. AMP est conçu pour aider les éditeurs à accélérer le déploiement des expériences vidéo avec une qualité supérieure et une complexité inférieure. AMP prend également en charge un écosystème de partenaires en pleine expansion qui continue à élaborer de nouveaux plug-ins pour le lecteur.

 

 

Une Diffusion OTT fiable, économique et de qualité télévisuelle...

Akamai continue de se concentrer sur la réduction des coûts des entreprises de médias et d'offrir des performances de diffusion de qualité télévisuelle tout en permettant aux diffuseurs de mettre en œuvre des stratégies technologiques émergentes, telles que le cloud computing. L'entreprise a présenté plusieurs innovations concernant son service de streaming multimédia live et à la demande, Adaptive Media Delivery, afin d'établir une connexion directe à Akamai Edge  :

•          Cloud Wrapper : optimise la connectivité entre les infrastructures de cloud public et Akamai Edge pour éliminer les obstacles communs à la diffusion OTT (Over The Top) dans les environnements cloud. Cloud Wrapper fournit aux clients une empreinte de cache dédiée dans le réseau de diffusion d'Akamai qui s'articule autour des infrastructures cloud centralisées, de manière à augmenter le délestage de l'origine en réduisant la fréquence des demandes utilisateur d'origine, minimisant en fin de compte les frais d'émission engendrés par la télévision en streaming.

•          Connexion directe : fournit une connexion privée dédiée au réseau de périphérie Akamai aux clients. Cela permet ainsi d'éliminer l'étape traditionnelle et souvent peu fiable de diffusion de contenu depuis Internet, garantissant de meilleures performances au « premier kilomètre », améliorant l'efficacité du streaming et réduisant les coûts de transit IP et d'origine.

•          Interconnexions dans le cloud : fournit une connexion au réseau directe entre les fournisseurs de cloud et la périphérie d'Akamai. Les interconnexions dans le cloud permettent aux entreprises de médias qui utilisent le cloud d'héberger leur contenu pour diffuser le trafic en streaming directement des infrastructures cloud vers Akamai, ce qui réduit les coûts d'hébergement et de sortie et améliore les performances.

 

  • 29 septembre 2019 à 17:00

Innovation & broadcast : une infrastructure média IP pour la Maison de la Radio

La Maison de la Radio s’équipe d’une technologie IP nouvelle génération avec Orange Business Services et BCE © Radio France / Christophe Abramowitz

Premier groupe radiophonique français, Radio France migre les infrastructures médias de la Maison de la Radio sur une technologie tout IP nouvelle génération. Confié à l’issue d’une procédure d’achat publique à Orange Business Services, opérateur et intégrateur de services, et à BCE, expert européen en services médias, ce projet est à ce jour le plus important de ce type dans le secteur des médias en Europe. Le passage vers une infrastructure IP de dernière génération est un élément indispensable pour permettre la mise en place d’outils de production et de diffusion audiovisuels. Ce projet s’inscrit dans l’ambition de Radio France d’investir fortement d’ici 2022 pour moderniser ses outils de production et de diffusion pour l’ensemble des contenus radiophoniques et dérivés de la radio.

 

Le programme de migration mené par Orange Business Services et BCE concerne l’infrastructure de l’ensemble des studios de la Maison de la Radio. Les nouveaux moyens de production audiovisuels s’appuieront sur une infrastructure IP de nouvelle génération basée sur la technologie Cisco, robuste et caractérisée par son hyper-connectivité pour le transport et la distribution de l’audio et de la vidéo.

 

« Les expertises réunies d'Orange Business Services et de BCE complétées par le professionnalisme des équipes projet de la Maison de la Radio vont nous permettre de faciliter et d’innover dans la production et la diffusion des émissions tout en répondant aux plus hautes exigences voulues par le secteur des médias. » commente Patrick Fasso, Directeur Technique et des Systèmes d’Information au sein de Radio France.

Pour assurer la parfaite convergence des mondes de l’IT et de la diffusion média (« broadcast »), les équipes projet de Radio France sont accompagnées par Orange Business Services, leader de son marché pour l’intégration des solutions et dans la prise en main des outils nouvelle génération. La norme SMPTE 2110, un protocole spécifique au métier des médias, a été retenue.

Les équipes de Radio France sont accompagnées par BCE France pour son expertise reconnue auprès de nombreuses radios et télévisions européennes dans l’intégration sur-mesure des écosystèmes médias. BCE dispose d’une connaissance approfondie du secteur et des besoins des médias, et une maîtrise des infrastructures workflow IP qu’elle a su démontrer à Radio France par le passé, par exemple lors du passage à l’image de France Info à la Maison de la Radio.

  • 30 septembre 2019 à 17:00

IBC 2019 : une démo de studio virtuel et de réalité augmentée signée Panasonic/Brainstorm

IBC 2019 : une démo de studio virtuel et de réalité augmentée signée Panasonic/Brainstorm © Nathalie Klimberg

Panasonic et Brainstorm, leader dans la conception de solutions de graphismes 3D en temps réel, de réalité augmentée et de studios virtuels, présentaient sur le Stand Panasonic une démonstration qui mettait en lumière la parfaite intégration entre les solutions des deux sociétés.  Les équipes montraient comment InfinitySet, la solution avancée de studio virtuel de Brainstorm, fonctionne d’une manière optimale en association avec la nouvelle caméra PTZF AW-UE150 pour produire des vidéo intégrant de la réalité augmentée...

 

La caméra AW-UE150 de Panasonic, caméra nouvelle génération de résolution 4K est le fruit d’une collaboration entre Brainstorm et de Panasonic pour développer les données de suivi PTZF (rotation horizontale, verticale, zoom, mise au point) de la caméra. 

Fort d’une expérience de 25 ans dans le développement de solutions de graphismes 3D en temps réel, de studios virtuels et de réalité augmentée, Brainstorm a accompagné Panasonic afin d’élaborer un produit qui, grâce à ses fonctionnalités de pointe, place la réalité augmentée avancée à la portée des entreprises de toute taille et de tout budget.

 

« L’intégration de notre caméra PTZ 4K haut de gamme dans les applications de réalité virtuelle et augmentée nous était demandée depuis longtemps par nos clients. Brainstorm nous a fortement soutenu tout au long du processus de développement. La possibilité d’utiliser la caméra AW-UE150 avec InfinitySet de Brainstorm est un exemple de notre volonté de faire de la gamme de caméras PTZ Panasonic, l’outil de capitation le plus efficace et le plus facile à intégrer du marché. » commente Jaume Miró responsable technique pour l’Europe chez Panasonic Broadcast & ProAV.

« Notre présence dans l’espace de réalité virtuelle de l’IBC représente l’occasion d’illustrer comment l’association entre l’AW-UE150 de Panasonic et InfinitySet de Brainstorm permet de fournir un formidable contenu de réalité augmentée pour tous les diffuseurs qui souhaitent améliorer leur storytelling visuelle. », complète Héctor Viguer directeur technique et chef de l’exploitation de Brainstorm.

 

Outre la démonstration de l’efficacité de la combinaison d’InfinitySet et de la caméra AW-UE150, la démonstration à l’IBC permet également de mettre en avant les capacités de suivi automatique du système de réalité augmentée, qui, en direct, suit les mouvements des artistes sur scènes au moyen de marqueurs Blacktrax. Ce système donne lieux à l’incorporation d’objets graphiques qui son suivis en temps réel – un exemple avancé des possibilités offertes par cette solution de réalité augmentée en conjonction avec des données externes supplémentaires...

  • 30 septembre 2019 à 17:00

IBC 2019 : le Groupe Canal + et RTL Croatie renouvellent leur confiance en SGT

De g. à d.: Laurent Dujardin, Directeur Général Adjoint de HEXAGLOBE SGT, Franck Coppola, CEO, Co-fondateur de HEXAGLOBE Group, Pierre-Alexandre Entraygues, CTO, Co-fondateur de HEXAGLOBE Group, Olivier Jourdan, Directeur du développement HEXAGLOBE © DR

Sur IBC, SGT, société du groupe HEXAGLOBE qui propose des solutions d’automation pour la diffusion TV ainsi que des solutions pour la diffusion multiplateforme en direct et à la demande, a officialisé la signature de deux très beaux contrats, l’un avec le Groupe Canal + et l’autre avec RTL Croatie…

 

Souhaitant simplifier et sécuriser ses activités de diffusion UHD, le Groupe Canal + a renouvelé sa confiance dans les solutions VEDA de SGT. Client de SGT depuis 2004, Canal + a commandé deux nouvelles unités d’automation VEDA qui s’implémenteront sur le système de production afin de gérer la diffusion des directs premium ses chaînes UHD. Outre le contrôle de la diffusion, la nouvelle version de VEDA propose aussi une conversion automatisée des listes de lecture UHD à partir de listes HD.

RTL Croatie, un client de longue date de SGT, a aussi renouvelé sa confiance dans le groupe français. Pour moderniser son centre de diffusion haute définition, RTL Croatie s’équipera d’une plate-forme VEDA Media Asset Management & Automation 10 canaux. L'intégration du système se fera en collaboration avec BCE.

Il s’agissait du premier IBC sous l’étendard d’Hexaglobe pour Olivier Jourdan Berton. L’ex-directeur de Streamakaci a en effet rejoint cet été la société en qualité de Directeur du Développement Commercial.

  • 1 octobre 2019 à 17:00

France Télévisions UHD, 8K, 5G sur Roland Garros 2019

Dans le car régie de France Télévisions (Toulouse) qui produisait le signal international. © DR

Dans la continuité de ce qui avait été fait en 2018 sur les expérimentations en Ultra HD, France Télévisions est reparti sur les mêmes bases, mais en enrichissant grandement le dispositif et l’expérience utilisateur. Une chaîne événementielle UHD 4K était disponible en TNT, satellite et IPTV durant la totalité de la quinzaine. Une expérimentation de télévision en 8K et transmission 5G a également été testée, préfigurant l’un des futurs de la télévision. Visite des installations à Roland Garros et à France Télévisions.

 

Pour une fois commençons par l’audio ! Le dispositif était sensiblement le même qu’en 2018, sauf qu’entretemps le court central ayant été reconstruit, il était nécessaire de prendre d’autres repères pour le placement des microphones, notamment pour le système immersif Schoeps ORTF-3D (huit capsules audio) chargé de la captation de l’ambiance générale en 3D.

Placé sous le premier balcon, ce système baignait au milieu des spectateurs. Quant aux microphones directifs disposés autour du court, ils se focalisaient sur les sons du jeu : frappes, cris, courses et annonces arbitrales. Le car-régie a produit le signal international en 9.1 associé à un « objet sonore » optionnel proposant les commentaires en français. Les métadonnées audio nécessaires à la description et le monitoring de ce flux « audio orienté objets » ont été édités grâce un équipement Jünger.

Sur la TNT et le satellite (Fransat), une composante audio orientée objets encodé en Mpeg-H 3D fut proposée, permettant aux téléspectateurs équipés de matériel compatible de bénéficier d’un son immersif et interactif, d’ajuster le niveau sonore du commentaire et profiter de l’ambiance sonore du court en immersion.

À date, les seuls équipements disponibles sur le marché sont des barres de son 3D ou des amplificateurs AV dotés d’un décodeur Mpeg-H. Les fabricants de téléviseurs, lorsqu’ils supportent le Mpeg-H, proposent pour l’instant un simple rendu stéréo et non pas de l’audio 3D. Les premières interfaces Next Generation Audio intégrées dans les TV sont annoncées sur les modèles 2020.

Pour les équipements de réception audio classiques, une version proposant le son d’ambiance 3D du court Philippe Chatrier en binaural a été fabriquée. Cette version a été proposée sur le réseau Orange, en complément d’une version française classique et d’une autre version française dont le niveau des commentaires était renforcé pour les malentendants.

 

Dans le car-régie

Sur place, le signal UHD était produit par un car de production de France Télévisions (Toulouse), également en charge du signal international HD. Si ce car est bien UHD, le monitoring reste toutefois HD, et seuls 2 postes d’ingévision et celui du chef de car permettent de visualiser le signal UHD et vérifier l’intégrité du signal UHD en Haute Dynamique (HDR). La production reste donc principalement en HD, et le signal UHD est considéré comme une couche logique du mélangeur qui est manipulée et habillée en parallèle du signal HD.

Le dispositif de captation était constitué de douze caméras UHD Panasonic AK-UC4400 pour la réalisation principale et d’une caméra Sony HDC-4300 (Spider-cam). Ce dispositif était complété par 5 caméras HD upconverties en UHD (caméras dans le filet, CableCam, chaise-arbitre et entrée des joueurs) et 6 serveurs de ralenti HD upconvertis également.

Ajuster la colorimétrie entre différents modèles et marques de caméras est toujours un challenge, surtout lorsqu’il faut aussi homogénéiser la couleur de la terre battue d’un court à l’autre. Dans le cas de cette production parallèle UHD-HDR et HD-SDR, l’équation se complique à l’extrême. En UHD-HDR, le standard frise le milliard de couleurs, contre 16 millions en HD-SDR. L’usage veut qu’en HD l’image apparaisse flatteuse au prix de quelques exagérations chromatiques, tandis que le réalisme des couleurs UHD-HDR implique de s’en passer au profit des teintes naturelles.

Les caméras Panasonic offrent justement deux réglages de saturation colorimétrique distincts permettant d’adapter les signaux UHD-HDR et HD-SDR à ces deux esthétiques de production. Cette option n’est pas disponible sur les caméras Sony, dont il a fallu réduire l’excès chromatique de l’image UHD-HDR pour obtenir une image HD comparable aux autres caméras, malheureusement sans possibilité d’atteindre la perfection. L’up-conversion UHD-HDR des caméras HD fut confiée à des convertisseurs Cobalt (technologie Technicolor/InterDigital) dont l’algorithme permet une adaptation automatique aux variations de luminosité au cours de la journée. Les ralentis ont été convertis avec la technologie Sony (HDRC-4000).

 

Comment maîtriser le HDR

Produire en UHD-HDR, tout en donnant la priorité à un signal HD-SDR destiné à 99% des téléspectateurs, pose problème. Les ingénieurs vision se focalisent sur leur écran HD-SDR, lequel ne leur permet ni de valider la mise au point d’une caméra en 4K, ni l’évidence d’un raccord de luminosité ou de colorimétrie. Lors des changements importants de luminosité, il est arrivé fréquemment qu’un ingévision considère deux caméras homogènes en HD-SDR, avant de s’apercevoir, plusieurs minutes plus tard, que les signaux présentent une différence notable sur un écran UHD-HDR quatre fois plus précis. Seule solution pour sortir de ce piège : produire en UHD-HDR puis créer les déclinaisons SDR et HD-SDR à partir du HDR. Cette option n’est pas prévue pour le moment à Roland Garros.

Le signal UHD, produit en HLG, et les composantes audio associées ont été transportés en IP par une fibre optique de la porte d’Auteuil au siège de France Télévisions. C’est la régie finale de France Télévisions (le CDE – Centre de diffusion et d’échanges) qui a récupéré le signal afin de réaliser l’habillage de la chaîne (alternance des directs et rediffusions, bandes annonces, publicités, insertion de logos…) et qui a adapté les caractéristiques de cette chaîne événementielle France TV Sport aux différents réseaux de distribution. Les contenus ont été convertis en HDR10 assorties de métadonnées SL-HDR2 (technologie Philips/Technicolor) avec des cartes Cobalt. Ces métadonnées sont interprétées par les téléviseurs HDR.

Le choix de cette technologie a empêché la réception de cette chaîne UHD-HDR par certaines anciennes TV UHD, mais en contrepartie les téléviseurs compatibles ont pu bénéficier d’une meilleure qualité de service et d’un visuel amélioré. En parallèle, le signal UHD-HDR a également été converti en UHD-SDR pour alimenter le réseau IPTV d’Orange.

 

Une régie UHD chez France Télévisions

Désormais, France Télévisions dispose d’une régie de diffusion UHD. Le projet a été initié au mois de février, porté par la cellule Innovations & Développements de la direction des Technologies. Tout a été fait en un mois, l’appel d’offres lancé fin mars, avec la réception des équipements fin avril.

« Nous voulions à l’origine une régie en SMPTE 2110, mais les constructeurs n’étaient pas capables de fournir dans les temps pour Roland Garros. L’appel d’offres est constitué de trois parties : une partie pour les liaisons de contribution entre RG et la régie, une partie pour l’enregistrement des matches et playout et une partie pour l’infrastructure réseau. La société Harmonic a gagné l’AO sur les deux premiers lots. Ils n’étaient pas en capacité de livrer dans les temps pour RG. Ils ont livré en 4 x 3G SDI sur une base Spectrum X, et durant l’été nous avons eu la livraison de la version Spectrum X2 en SMPTE 2110 », souligne Claire Mérienne-Santoni, chef de projets Technologies au sein de la Direction Innovations & Développements de France Télévisions.

France Télévisions envisage de réaliser des productions futures sur le sport, mais aussi sur des événements de divertissement. Dans les prochains projets, il devrait y avoir la captation et la transmission de la course cycliste Paris-Tours en octobre 2019 où s’effectueront des tests HF en UHD avec Euromedia.

 

 

FRANCE TV LAB PREMIÈRE MONDIALE TV 8K & 5G

La Fédération Française de Tennis (FFT) a une nouvelle fois challengé les équipes du Lab de France Télévisions pour mener une expérimentation autour de technologies avancées, comme la production TV en 8K et la diffusion en direct et en 5G avec Orange, son fournisseur officiel, avec plus de 100 heures de programmes en direct.

« Le nouveau court Philippe Chatrier préfigure le futur du tennis ; il s’agissait de donner notre vision du futur de la télévision dans ce stade rénové. Nous pensons que la 5G et le 8K seront des technologies très complémentaires qui auront un rôle important dans la décennie à venir », souligne Bernard Fontaine, directeur d’Innovations technologiques à France Télévisions, en charge du projet.

France Télévisions a ainsi réuni et piloté 20 partenaires venus du monde entier pour cette opération. Objectif : reproduire en 8K tous les usages actuels de la TV qu’elle soit en Live, Replay ou VOD ! Les caméras 8K Sharp reliées par fibre par Ereca avec Synoptics Broadcast sur un mélangeur de Blackmagic Design pour commuter les sources live et y faire l’habillage du programme. Trois encodeurs retenus, NEC et Advantech (hard et l’autre hard et soft), et un prototype Intel, tous encodaient en parallèle pour y tester différentes stratégies d’encodage.

Tous ces produits arrivent très vite sur le marché professionnel pas seulement par la demande japonaise, mais aussi par l’arrivée sur tous les continents des téléviseurs 8K qui vont avoir besoin de contenus encodé dans ce format.

La plateforme de traitement 8K était signée Harmonic et Intel. Elle permettait d’y traiter les formats de type 8K HDR, les transcodages temps réel multi résolutions adaptés à tous types d’écrans et de besoins. Un dispositif original réalisé par TiledMedia était testé pour permettre l’accès à un contenu 8K sur un écran HD de tablette en se déplaçant dans l’image du programme UHD 8K. La diffusion fut confiée par Orange à Nokia via son cœur de réseau 5G associé à des antennes 3.6 Ghz.

La réception des flux de streaming d’une centaine de Mb a été rendue possible par les modems Qualcomm 5G des mobiles Oppo (Reno) via un partage de connexion sur des PC Intel équipés des cartes nVidia et de players logiciels, comme Spin Digital ou Open Source, avec la participation très active de VLC à cette opération.

L’affichage des programmes 8K en 5G était, lui, effectué sur des dalles Sharp 8K HDR (75’) pilotées par l’app France TV réalisée par Videolabs et aussi une dalle 85’ Samsung qui, elle, était chargée de recevoir en fin de quinzaine les flux 8K testés et transmis par Eutelsat.

 

Merci aux équipes de France Télévisions, en particulier Matthieu Parmentier, pour la visite des infrastructures.

Article paru pour la première fois dans Mediakwest #33, p.84/86. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 2 octobre 2019 à 17:00

IBC 2019 : HDR-EVIE, la conversion HDR/SDR en temps réel devient une réalité !

HDR-EVIE, la conversion HDR/SDR en temps réel devient possible ! © DR

HDR Evie de Lynx Technik est le premier système au monde à utiliser des algorithmes permettant l’analyse automatique du contenu d’une image vidéo et l'application de corrections optimales, en temps réel et image par image. Cette capacité unique en fait un de outil de production idéal pour les applications sportives ou tout événement de diffusion en direct souhaitant produire une conversion HDR en temps réel de qualité.

 

Beaucoup d'outils de conversion temps réel HDR vers SDR utilisent une table de conversion statique de type LUT qui applique une correction globale et uniforme sur tout le contenu. LYNX Technik propose aussi ce type de solution «HDR Static», qui produit des résultats impressionnants et est idéal pour les environnements contrôlés, tels que : studios de télévision et production off-line. 

Toutefois, pour obtenir des résultats vraiment exceptionnels, capables de s’adapter automatiquement aux modifications brutales des niveaux de luminosité, un traitement image par image est nécessaire.

S'il existe aussi des solutions de conversion HDR vers SDR «image par image»  déjà disponibles sur le marché, elles offre un post-traitement nécessitant un ajustement et une définition des «métadonnées» pour chaque image, qui sont ensuite utilisées lors de la lecture en temps réel du contenu : ce processus, long et coûteux,  est finalement peu adéquate pour des applications de diffusion en direct.

Avec ses algorithmes propriétaires développés en coopération avec l'Université de Sciences Appliquées à Wiesbaden (Allemagne), HDR Evie propose des résultats exceptionnels et prrésentés commesupérieurs à toutes les autres solutions de conversion SDR vers HDR disponibles à ce jour.

 

 

Les caractéristiques...

- Analyse et correction «image par image» en temps réel

- 1 canal 4K UHD ou 4 canaux 3G HD (commutable)

- Synchroniseur d'images intégré avec cross conversion (up / down)

- Entrées 12G SDI 4K UHD ou 2SI (quadruple 3G)

- Options d’I/O pour Fibre 12G SDI

- Compatible avec les normes HLG, PQ, SDR et SLog3

- Contrôle en face avant ou interface graphique intuitive

- Fonctionne sur greenMachine "Titan"

 

 

  • 3 octobre 2019 à 17:00

IBC 2019 : KVM, encodage 4K et gestion de murs vidéo au menu chez Matrox

IBC 2019 : KVM, encodage 4K et gestion de murs vidéo au menu chez Matrox © Nathalie Klimberg

Sur cet IBC, Matrox avait déployé la totalité de son portfolio de produits destinés aux industries audiovisuelles : encodeurs et décodeurs HD, 4K, cartes d’entrées / sorties vidéo SMPTE ST 2110 et SDI, extensions IP KVM, cartes vidéo... Parmi tous ces produits, les KVM IP Matrox Extio 3, le Monarch Edge, qui faisait sa première sortie sur IBC et sa toute nouvelle solution dédiée aux murs d’images QuadHead2Go retenaient plus particulièrement l’attention…

 

Un nouveau mode agrégateur pour les KVM IP Matrox Extio 3…

Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. Cet environnement de commutation matriciel KVM évolutif est économique puisqu’il utilise des commutateurs de réseaux standards. Conçus pour des applications hautes performances, les KVM IP de la série Matrox Extio 3 offrent des performances 4Kp60 4: 4: 4 ou quadruples 1080p60 4: 4: 4 sur un réseau Ethernet Gigabit standard (fibre optique ou cuivre). Le nouveau mode agrégateur permet de surveiller et contrôler simultanément plusieurs systèmes à partir d'un espace de travail multi-écrans distant avec un seul clavier et une seule souris, l’application de configuration et de gestion est très intuitive…

Cette nouvelle génération de KVM est disponible en deux modèles… Extio 3 N3208, pour une prise en charge du double signal 1920x1200 à 60Hz et Extio 3 N3408 qui prend en charge jusqu’à quatre signaux 1920x1080 à 60Hz, deux 2560x1600 à 60Hz ou un seul signal 4K UHD 3840x2160 à 60Hz.

  

Premier IBC pour l’encodeur Matrox Monarch Edge…

Récompensé sur le NAB en tant que meilleur produit de l’année dans la catégorie « Remote Production », le Monarch Edge est un encodeur 4K/multi-HD à faible latence (50ms). Dévolu aux applications de webcasting et de production remote (REMI, pour Remote Integration), cet encodeur H.264 est capable de transporter de la vidéo en 10 bit 4: 2: 2 pour de la diffusion de directs multicanal à des résolutions allant jusqu'à 3840x2160 à 60 i/s.

Utilisé comme encodeur de contribution Web 4K « classique » ou en déporté, il pourra prendre en charge les principaux protocoles de transport permettant de diffuser des vidéos sur des réseaux GigE (MPEG-2 TS, RTP/RTSP, SRT, RTMP).

 

QuadHead2Go, la réponse de Matrox à la gestion murs d’images…

QuadHead2Go est une gamme de contrôleurs multi-écrans conçus pour offrir un moyen plus simple et pratique de déployer des installations de murs vidéo artistiques. Dévoilés sur InfoComm, ces contrôleurs peuvent gérer une source vidéo unique sur quatre écrans maximum dans des configurations rectangulaires ou artistiques, ou les utilisateurs peuvent combiner plusieurs unités QuadHead2Go avec des cartes graphiques Matrox ou tierces pour créer des murs vidéo à très grande échelle. Un boîtier dispose de 4 sorties HDMI, d’une mémoire de 1GB, d’une entrée standard supportant des flux jusqu’à 7680x1080 @60Hz. Ses processeurs lui permettent un affichage RGB: 8:8:8 (24 bits par pixel).

  • 7 octobre 2019 à 17:00

TF1 étend son usage de ContentAgent pour ses workflows

TF1 étend son usage de ContentAgent pour ses workflows © Nathalie Klimberg

Le Groupe TF1 optimise une partie de ses workflows d’acquisition et de livraison grâce à la solution ContentAgent développée par Root6 dont les intérêts sont représentés en France et en Belgique par la société IVORY.

 

Premier groupe de télévision français, le Groupe TF1 s’est engagé depuis plusieurs années dans une transformation en profondeur autour de 3 pôles stratégiques pour devenir un groupe leader de contenus médias, TV et digital, intégré de la production à la distribution. Le Groupe opère et développe notamment 5 chaînes en clair et des chaînes thématiques payantes ainsi que leurs déclinaisons digitales.

 

Le Groupe TF1 souhaitait faire évoluer leur dispositif de traitement de fichiers vers une solution plus performante et plus ergonomique, capable de décider automatiquement du traitement à appliquer à un nombre croissant de médias et les livrer dans des formats et codecs très variés.

C’est dans cet esprit que le Groupe TF1 a choisi d’étendre son usage de ContentAgent à une partie de ses workflows d’acquisition et de livraison. ContentAgent est une plateforme innovante d’acquisition, d’orchestration de tâches techniques et de transcodage puissante développée par l’éditeur britannique Root6.

 

ContentAgent était déjà utilisée au sein du Groupe pour automatiser les échanges de fichiers entre l’archive et les systèmes Avid de post-production. Après cette première collaboration fructueuse, le Groupe TF1 s’est à nouveau tourné vers leur partenaire CTM Solutions pour intégrer l’outil au sein de 3 pôles d’activités : post-production, bandes annonces et laboratoire.

 

ContentAgent est désormais exploité au quotidien et gère notamment l’orchestration des workflows et la normalisation pour le laboratoire du Groupe. Le laboratoire sert de hub centralisé pour l’acquisition et la mise à disposition des fichiers médias dématérialisés aux différentes équipes internes de TF1. Très efficace dans la manipulation d’images au format 4K, ContentAgent est particulièrement adapté au développement ambitieux de TF1 dans ce domaine.

 

Yves Bouillon Directeur Adjoint de la Diffusion des Chaînes et Responsable du Pôle Préparation des Médias explique que « l’ergonomie, les fonctionnalités avancées et la performance du moteur de workflow nous ont motivées dans le choix de cet outil pour le Groupe. En automatisant de nombreuses tâches complexes et répétitives, ContentAgent permet un véritable gain de productivité et une optimisation des coûts. Les équipes éditoriales peuvent se concentrer sur les processus créatifs et non sur l’orchestration des tâches techniques. »

  • 7 octobre 2019 à 17:32

IBC 2019 : NewTek et 3D Storm, l'aventure NDI ne fait que commencer !

IBC 2019 : NewTek et 3D Storm, l’aventure NDI ne fait que commencer ! © Nathalie Klimberg

Il s’agissait du premier IBC de Newtek sous l’étendard de Vizrt, l’acquisition ayant été officialisée sur le NAB…

 

Une version 4 de NDI, Live Story Creator (un outil disruptif proposé dans la suite Premium Access), un nouveau Tricaster, toute une famille de convertisseurs NDI, des updates dans la famille Live Expert… Voilà les principales nouveautés que l’on pouvait retrouver sur les stands Newtek et 3DStorm (le distributeur de Newtek pour l’Europe) de cet IBC 2019.

 

NDI entre dans l’ère de sa version 4…

NDI, désormais marque du groupe Vizrt, est aujourd’hui une norme IP dominante pour l’industrie des médias utilisant les réseaux Ethernet standards et des environnements mobiles.

Apparu il y a 4 ans et implémentée dans des milliards d'appareils du monde entier, Ce protocole annonce une version 4 qui repousse les limites de sa flexibilité…

Avec cette mise à jour, NDI peut sur une connexion WiFi véhiculer un signal vidéo avec une résolution jusqu'à 4K UHD, via un appareil mobile iOS et tout autre système compatible NDI…

"Notre mission est de rendre la vidéo accessible au plus grand nombre et agréable à produire et à diffuser. Il est clair que l’approche Vidéo software–defined est en train de changer la façon de produire et la quatrième génération de technologies NDI en profite pour combler le fossé entre le live et la post production en favorisant la création de workflows jusqu’à présent inenvisageables » explique Dr Andrew Cross, président de R & D pour le groupe Vizrt et inventeur du NDI.

 

Les principales nouveautés de NDI version 4…

- Prise en charge du canal alpha et data path 16 bits. Prise en prise en charge de l'UHD et au-delà

- Prise en charge de plus de 64 canaux audios, à toutes les fréquences d'échantillonnage

- Prise en charge de métadonnées extensibles

- Codecs audio et vidéo intégrés pour une utilisation dans des environnements sans fil et en remote

  

Live Story Creator

Sur le salon, NewTek exposait Premium Access, son nouveau pack logiciel d’utilitaires pour les régies NewTek VMC1 et TriCaster TC1. Parmi ces utilitaires, Live Story Creator s’appuie sur une intelligence artificielle pour proposer une automation de programmes plutôt révolutionnaire… Conçu comme un simple script intégré à Microsoft Word et doté de déclencheurs d’actions, ce Live Story Creator permet, une fois installé sur un TriCaster ou un VMC1, d’exécuter le script souhaité sans expérience de programmation.

NewTek Premium Access à partir de 2 299€ HT

 

 

La régie de direct TriCaster 410 Plus, dévoilée au printemps dernier, était aussi sous le feu de la rampe…

Celui-ci dispose de 8 entrées externes, 4 sorties M/Es, 4 sorties mixtes, ainsi que d’une intégration NDI pour la transmission de la vidéo, de l’audio et de données sur IP. Très complet, le système propose de multiples fonctionnalités : une publication en temps réel sur les réseaux sociaux, l’enregistrement multicanal, la lecture vidéo, des templates graphiques, des fonctionnalités de compositing…

La solution a notamment déjà été adoptée en Europe par le Wanda Stadium de Madrid...

TriCaster TC410 Plus à partir de 9 995€ HT

 

 

Une gamme de convertisseurs NDI plus que complète !

3D Storm présentait également toute la gamme des convertisseurs video NDI Spark de NewTek : Connect Spark SDI, Connect Spark HDMI, Spark Plus 4K et Connect Spark Pro… Et DELTA-neo N2H, sont petit boîtier conçu pour décoder et de visualiser tout flux NDI sur les périphériques d’affichage HDMI, les écrans de télévision et les projecteurs vidéo. Ce décodeur NDI haut débit de Deltacast détecte automatiquement le format de flux, le décode et le convertit au format HDMI avec audio intégré en observant une grande stabilité et une très faible latence.

DELTA-neo N2H prix de vente conseillé : 495€ HT

 

 

Retrouvez 3D Storm et les produits Newtek sur le SATIS Screen4ALL, les 5 et 6 Novembre prochains aux Docks de Paris >> https://buff.ly/328I9M0

  • 9 octobre 2019 à 17:00

France Télévisions UHD, 8K, 5G sur Roland Garros 2019

Dans le car régie de France Télévisions (Toulouse) qui produisait le signal international. © DR

Dans la continuité de ce qui avait été fait en 2018 sur les expérimentations en Ultra HD, France Télévisions est reparti sur les mêmes bases, mais en enrichissant grandement le dispositif et l’expérience utilisateur. Une chaîne événementielle UHD 4K était disponible en TNT, satellite et IPTV durant la totalité de la quinzaine. Une expérimentation de télévision en 8K et transmission 5G a également été testée, préfigurant l’un des futurs de la télévision. Visite des installations à Roland Garros et à France Télévisions.

 

Pour une fois commençons par l’audio ! Le dispositif était sensiblement le même qu’en 2018, sauf qu’entretemps le court central ayant été reconstruit, il était nécessaire de prendre d’autres repères pour le placement des microphones, notamment pour le système immersif Schoeps ORTF-3D (huit capsules audio) chargé de la captation de l’ambiance générale en 3D.

Placé sous le premier balcon, ce système baignait au milieu des spectateurs. Quant aux microphones directifs disposés autour du court, ils se focalisaient sur les sons du jeu : frappes, cris, courses et annonces arbitrales. Le car-régie a produit le signal international en 9.1 associé à un « objet sonore » optionnel proposant les commentaires en français. Les métadonnées audio nécessaires à la description et le monitoring de ce flux « audio orienté objets » ont été édités grâce un équipement Jünger.

Sur la TNT et le satellite (Fransat), une composante audio orientée objets encodé en Mpeg-H 3D fut proposée, permettant aux téléspectateurs équipés de matériel compatible de bénéficier d’un son immersif et interactif, d’ajuster le niveau sonore du commentaire et profiter de l’ambiance sonore du court en immersion.

À date, les seuls équipements disponibles sur le marché sont des barres de son 3D ou des amplificateurs AV dotés d’un décodeur Mpeg-H. Les fabricants de téléviseurs, lorsqu’ils supportent le Mpeg-H, proposent pour l’instant un simple rendu stéréo et non pas de l’audio 3D. Les premières interfaces Next Generation Audio intégrées dans les TV sont annoncées sur les modèles 2020.

Pour les équipements de réception audio classiques, une version proposant le son d’ambiance 3D du court Philippe Chatrier en binaural a été fabriquée. Cette version a été proposée sur le réseau Orange, en complément d’une version française classique et d’une autre version française dont le niveau des commentaires était renforcé pour les malentendants.

 

Dans le car-régie

Sur place, le signal UHD était produit par un car de production de France Télévisions (Toulouse), également en charge du signal international HD. Si ce car est bien UHD, le monitoring reste toutefois HD, et seuls 2 postes d’ingévision et celui du chef de car permettent de visualiser le signal UHD et vérifier l’intégrité du signal UHD en Haute Dynamique (HDR). La production reste donc principalement en HD, et le signal UHD est considéré comme une couche logique du mélangeur qui est manipulée et habillée en parallèle du signal HD.

Le dispositif de captation était constitué de douze caméras UHD Panasonic AK-UC4000 pour la réalisation principale et d’une caméra Sony HDC-4300 (Spider-cam). Ce dispositif était complété par 5 caméras HD upconverties en UHD (caméras dans le filet, CableCam, chaise-arbitre et entrée des joueurs) et 6 serveurs de ralenti HD upconvertis également.

Ajuster la colorimétrie entre différents modèles et marques de caméras est toujours un challenge, surtout lorsqu’il faut aussi homogénéiser la couleur de la terre battue d’un court à l’autre. Dans le cas de cette production parallèle UHD-HDR et HD-SDR, l’équation se complique à l’extrême. En UHD-HDR, le standard frise le milliard de couleurs, contre 16 millions en HD-SDR. L’usage veut qu’en HD l’image apparaisse flatteuse au prix de quelques exagérations chromatiques, tandis que le réalisme des couleurs UHD-HDR implique de s’en passer au profit des teintes naturelles.

Les caméras Panasonic offrent justement deux réglages de saturation colorimétrique distincts permettant d’adapter les signaux UHD-HDR et HD-SDR à ces deux esthétiques de production. Cette option n’est pas disponible sur les caméras Sony, dont il a fallu réduire l’excès chromatique de l’image UHD-HDR pour obtenir une image HD comparable aux autres caméras, malheureusement sans possibilité d’atteindre la perfection. L’up-conversion UHD-HDR des caméras HD fut confiée à des convertisseurs Cobalt (technologie Technicolor/InterDigital) dont l’algorithme permet une adaptation automatique aux variations de luminosité au cours de la journée. Les ralentis ont été convertis avec la technologie Sony (HDRC-4000).

 

Comment maîtriser le HDR

Produire en UHD-HDR, tout en donnant la priorité à un signal HD-SDR destiné à 99% des téléspectateurs, pose problème. Les ingénieurs vision se focalisent sur leur écran HD-SDR, lequel ne leur permet ni de valider la mise au point d’une caméra en 4K, ni l’évidence d’un raccord de luminosité ou de colorimétrie. Lors des changements importants de luminosité, il est arrivé fréquemment qu’un ingévision considère deux caméras homogènes en HD-SDR, avant de s’apercevoir, plusieurs minutes plus tard, que les signaux présentent une différence notable sur un écran UHD-HDR quatre fois plus précis. Seule solution pour sortir de ce piège : produire en UHD-HDR puis créer les déclinaisons SDR et HD-SDR à partir du HDR. Cette option n’est pas prévue pour le moment à Roland Garros.

Le signal UHD, produit en HLG, et les composantes audio associées ont été transportés en IP par une fibre optique de la porte d’Auteuil au siège de France Télévisions. C’est la régie finale de France Télévisions (le CDE – Centre de diffusion et d’échanges) qui a récupéré le signal afin de réaliser l’habillage de la chaîne (alternance des directs et rediffusions, bandes annonces, publicités, insertion de logos…) et qui a adapté les caractéristiques de cette chaîne événementielle France TV Sport aux différents réseaux de distribution. Les contenus ont été convertis en HDR10 assorties de métadonnées SL-HDR2 (technologie Philips/Technicolor) avec des cartes Cobalt. Ces métadonnées sont interprétées par les téléviseurs HDR.

Le choix de cette technologie a empêché la réception de cette chaîne UHD-HDR par certaines anciennes TV UHD, mais en contrepartie les téléviseurs compatibles ont pu bénéficier d’une meilleure qualité de service et d’un visuel amélioré. En parallèle, le signal UHD-HDR a également été converti en UHD-SDR pour alimenter le réseau IPTV d’Orange.

 

Une régie UHD chez France Télévisions

Désormais, France Télévisions dispose d’une régie de diffusion UHD. Le projet a été initié au mois de février, porté par la cellule Innovations & Développements de la direction des Technologies. Tout a été fait en un mois, l’appel d’offres lancé fin mars, avec la réception des équipements fin avril.

« Nous voulions à l’origine une régie en SMPTE 2110, mais les constructeurs n’étaient pas capables de fournir dans les temps pour Roland Garros. L’appel d’offres est constitué de trois parties : une partie pour les liaisons de contribution entre RG et la régie, une partie pour l’enregistrement des matches et playout et une partie pour l’infrastructure réseau. La société Harmonic a gagné l’AO sur les deux premiers lots. Ils n’étaient pas en capacité de livrer dans les temps pour RG. Ils ont livré en 4 x 3G SDI sur une base Spectrum X, et durant l’été nous avons eu la livraison de la version Spectrum X2 en SMPTE 2110 », souligne Claire Mérienne-Santoni, chef de projets Technologies au sein de la Direction Innovations & Développements de France Télévisions.

France Télévisions envisage de réaliser des productions futures sur le sport, mais aussi sur des événements de divertissement. Dans les prochains projets, il devrait y avoir la captation et la transmission de la course cycliste Paris-Tours en octobre 2019 où s’effectueront des tests HF en UHD avec Euromedia.

 

 

FRANCE TV LAB PREMIÈRE MONDIALE TV 8K & 5G

La Fédération Française de Tennis (FFT) a une nouvelle fois challengé les équipes du Lab de France Télévisions pour mener une expérimentation autour de technologies avancées, comme la production TV en 8K et la diffusion en direct et en 5G avec Orange, son fournisseur officiel, avec plus de 100 heures de programmes en direct.

« Le nouveau court Philippe Chatrier préfigure le futur du tennis ; il s’agissait de donner notre vision du futur de la télévision dans ce stade rénové. Nous pensons que la 5G et le 8K seront des technologies très complémentaires qui auront un rôle important dans la décennie à venir », souligne Bernard Fontaine, directeur d’Innovations technologiques à France Télévisions, en charge du projet.

France Télévisions a ainsi réuni et piloté 20 partenaires venus du monde entier pour cette opération. Objectif : reproduire en 8K tous les usages actuels de la TV qu’elle soit en Live, Replay ou VOD ! Les caméras 8K Sharp reliées par fibre par Ereca avec Synoptics Broadcast sur un mélangeur de Blackmagic Design pour commuter les sources live et y faire l’habillage du programme. Trois encodeurs retenus, NEC et Advantech (hard et l’autre hard et soft), et un prototype Intel, tous encodaient en parallèle pour y tester différentes stratégies d’encodage.

Tous ces produits arrivent très vite sur le marché professionnel pas seulement par la demande japonaise, mais aussi par l’arrivée sur tous les continents des téléviseurs 8K qui vont avoir besoin de contenus encodé dans ce format.

La plateforme de traitement 8K était signée Harmonic et Intel. Elle permettait d’y traiter les formats de type 8K HDR, les transcodages temps réel multi résolutions adaptés à tous types d’écrans et de besoins. Un dispositif original réalisé par TiledMedia était testé pour permettre l’accès à un contenu 8K sur un écran HD de tablette en se déplaçant dans l’image du programme UHD 8K. La diffusion fut confiée par Orange à Nokia via son cœur de réseau 5G associé à des antennes 3.6 Ghz.

La réception des flux de streaming d’une centaine de Mb a été rendue possible par les modems Qualcomm 5G des mobiles Oppo (Reno) via un partage de connexion sur des PC Intel équipés des cartes nVidia et de players logiciels, comme Spin Digital ou Open Source, avec la participation très active de VLC à cette opération.

L’affichage des programmes 8K en 5G était, lui, effectué sur des dalles Sharp 8K HDR (75’) pilotées par l’app France TV réalisée par Videolabs et aussi une dalle 85’ Samsung qui, elle, était chargée de recevoir en fin de quinzaine les flux 8K testés et transmis par Eutelsat.

 

Merci aux équipes de France Télévisions, en particulier Matthieu Parmentier, pour la visite des infrastructures.

Article paru pour la première fois dans Mediakwest #33, p.84/86. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 octobre 2019 à 17:00

NextRadioTV, prêt pour le futur

Les moyens techniques des régies sont uniformisés le plus possible. Il y a pour le moment sept régies, qui peuvent gérer les différents plateaux. © DR

Inauguré officiellement il y a quelques mois, le nouveau siège de NextRadioTV est une réalisation exemplaire qui associe des outils de pointe sur une infrastructure hybride. L’une des difficultés du projet fut de maintenir une activité de continuité alors que progressivement le site du nouveau Campus montait en charge. Cela a été rendu possible notamment grâce à la solution Riedel, permettant un maillage étroit facilitant la migration. Entretien avec Antoine Robelin, directeur technique broadcast, et Steven Robert, chef de projets broadcast au sein de NextRadioTV.

 

Le site historique de NextRadioTV de la rue d’Oradour-sur-Glane, dans le 15e arrondissement de Paris, était considéré comme trop exigu depuis un certain temps, avec les activités croissantes sur le site de RMC, BFMTV, BFM Business, puis le lancement des chaînes sport. En recherche d’un nouveau site, le projet s’est arrêté avec le rachat par le groupe Altice.

Une fois cette acquisition opérée, le projet est revenu sur le devant de la scène. Ce projet consistait, pour les chaînes du groupe, à intégrer le Campus Altice (siuté en face de France Télévisions) qui comprend quatre bâtiments. NextRadioTV devait être ainsi constitué de la partie Media Radio, Télévision et digital au sein du bâtiment Est qui comprend également quelques titres de presse comme Libération et L’Express.

Il a fallu redimensionner, en cours de rédaction du cahier des charges, les infrastructures, comme le souligne Antoine Robelin. « Nous avions défini les moyens techniques sur le site pour accueillir BFMTV, BFM Business, RMC Radio, RMC Découverte et RMC Story, et pendant que nous étions dans l’écriture du cahier des charges, le groupe a acquis les droits de la Ligue Europa et de la Ligue des Champions. Nous avons modifié pendant le projet une grosse partie du cahier des charges et des spécifications techniques. Cela a conduit à la création de chaînes et d’un rebranding complet de toute l’offre sport. Le projet à l’origine comprenait cinq plateaux, cinq régies et au final nous nous sommes retrouvés avec sept plateaux et sept régies. Toutes les continuités TV et Radio ont été intégrées pour l’ensemble du groupe. »

Pour simplifier les process de travail pour les techniciens, et rendre plus aisé le travail entre les différentes régies, les moyens techniques sont les plus uniformes possible. Ainsi, des mélangeurs Kahuna Grass Valley ont été choisis pour les régies 1, 2, 3 et des mélangeurs plus compacts Kula pour les régies de 4 à 7. Pour les moyens audio, ce sont des consoles Studer Vista, y compris sur les radios. Les routings vidéo et audio sont basés sur un système Riedel mediornet et sur des routers audio studer et le tout piloté par Cerebrum d’Axon.

Une régie finale unique assure la continuité pour l’ensemble des chaînes de TV et radios du groupe. Quelque 13 départs TV premiums sont opérés, dont 1 en UHD, 10 chaînes évènementielles pour les évènements sportifs, ainsi que 2 radios nationales. Le trafic unique gère le routing de l’ensemble des signaux de contribution entrants et sortants ainsi que l’ingest.

 

Une expansion rendue possible grâce à la modularité du système

Toutefois, malgré l’arrivée des nouvelles chaînes, il reste encore du potentiel de croissance ; le groupe travaille d’ailleurs sur le projet de déploiement régional. Récemment, Altice a fait l’acquisition de la chaîne locale TLM (Télé Lyon Métropole), qui va devenir BFM Lyon, et une envie d’avoir d’autres chaînes en région se fait sentir.

Trois catégories de chaînes sont développées : des chaînes news (live) avec, entre autres, BFMTV qui est le vaisseau amiral avec vingt heures de direct par jour, 4h30/00h30 en 24/24 sur la production, avec également BFM Business, BFM Paris, et prochainement BFM Lyon. Des chaînes de flux sont également proposées avec RMC Story, RMC Découverte, qui comprennent aussi des tranches de live, notamment avec le direct de Jean-Jacques Bourdin sur RMC Découverte chaque matin, et les Grandes Gueules sur RMC Story.

Le troisième cas de figure, et c’est l’une des spécificités du groupe, ce sont les synchros radio TV : « Faire de la radio, on savait faire ; de la télévision, on savait faire, mais radio et TV dans une plate-forme intégrée, c’est le plus gros challenge du groupe. Chaque plateau, chaque régie est capable de faire de la radio ou de la télévision. Il est possible de prendre l’antenne de n’importe quel endroit – nous ne sommes pas dans quelque chose de connu, il faut donc inventer des process nouveaux avec des responsables d’exploitation qui doivent maîtriser leurs outils. Radio et TV sont à la base deux métiers différents que nous parvenons à fusionner grâce aux synergies souhaitées depuis longtemps par Alain Weill et l’équipe dirigeante du groupe », insiste Antoine Robelin

 

Riedel, le facilitateur

NextRadioTV a fait le choix d’une infrastructure évolutive, hybride ; comme le fait remarquer Steven Robert : « Nous avons commencé à discuter avec Riedel au début du projet. Nous nous sommes posé la question : IP ou pas ? En 2016 l’IP était encore peu développé, les standards pas stabilisés, cela coûtait très cher et notre équipe de R & D n’était pas formée, en termes de compétences réseau, à ces technologies. Nous avons donc mis rapidement de côté l’IP. Nous ne voulions pas forcément non plus une infrastructure très classique avec des grilles SDI qui n’auraient pas été très évolutives. Nous avons cherché une solution décentralisée mais qui puisse progresser dans le temps. Nous souhaitions avoir un câblage “futur proof” entièrement fibre. Pour ne pas avoir à refaire le câblage lors d’une évolution IP, nous avons donc opté pour une solution hybride avec la solution Mediornet de Riedel. »

La plate-forme est constituée d’un ensemble d’éléments MicroN 12 entrées/12 sorties, il y a 190 MicroN qui sont répartis au plus proche des salles des techniques, des équipements. L’avantage avec Riedel, c’est qu’il ne comporte pas de maillage SDI cuivre Complexe à déployer sur un bâtiment de la taille de celui de NextRadioTV, les longueurs de câbles étant très importantes. Les modules sont répartis dans les régies et plateaux pour alimenter les murs d’images en plateau, les mosaïques, les moniteurs de contrôle dans les différentes régies. Le réseau est étendu dans les étages pour les newsroom, cabine speak, contrôle technique, salle de montage, poste QC…

Il y a deux salles techniques. Une au premier étage et l’autre au sous-sol. La majorité des équipements se répartit entre les deux. Ces salles accueillent les équipements production et postproduction des régies.

La solution Riedel permet d’innerver les différentes parties du bâtiment pour échanger des signaux dans l’intégralité des étages, toujours en transportant les signaux en fibre ; le maillage est très important, vu la taille du bâtiment. La technologie Riedel est dédiée à la production et le trafic ; elle est interconnectée avec d’autres grilles pour la diffusion. Pour la diffusion, l’architecture est plus classique, avec deux grilles Grass Valley en SDI.

La migration s’est faite sur plusieurs mois et la technologie Riedel a facilité le processus. Le réseau avait été étendu entre les deux sites. 4 Micron étaient déportés sur le site Oradour, permettant le routage de 48 signaux HD-SDI dans chaque sens « Nous avons étendu le réseau aux deux sites afin que les utilisateurs évoluent dans un environnement unique. Tout le monde travaillait dans un environnement unique ; le NRCS étant le même, en l’occurrence Dalet, les équipes ont travaillé sur le même système ; il n’y avait pas besoin de créer de site miroir avec synchro de base de données, ce qui a permis une transition assez douce. »

« Pareil côté trafic audio et vidéo. Nous avons basculé petit à petit sur toutes les ressources, y compris pour les transmissions. Nous avons pu déménager des antennes satellites d’Oradour au nouveau Campus et en acheter quelques-unes supplémentaires, plutôt que de tout racheter. Le groupe NextRadioTV exploite son propre téléport composé d’antennes fixes et motorisées réparties sur deux sites géographiques distincts. Le premier étant le Campus Altice et le second situé à une quarantaine de kilomètres de Paris. Nous rapatrions par fibre les signaux bande L depuis le téléport distant pour alimenter les IRDs du trafic. Pour l’ensemble des liaisons intersites nécessaires à la double exploitation, ainsi que pour les liaisons du téléport satellite au Campus Altice, nous nous basons sur des fibres déployées par SFR », poursuit Antoine Robelin.

 

Production et postproduction

Pour la prise de vue, tous les plateaux disposent de caméras automatisées, mais il est possible à tout moment de reprendre la main. Des caméras à l’épaule servent pour certaines productions en public. Toutes les caméras, hors plateau 4, sont des caméras Sony 4300 ou P43, excepté BFM Business qui exploite des PTZ H800. Les caméras sont placées sur des têtes Ross VR100 et VR600 (prompteur).

Le MAM est sur la technologie Dalet. Les montages magazines (news et sport) sont effectués sur Adobe Premiere pro avec plug-in Dalet Extend qui permet depuis Adobe d’avoir accès à l’intégralité des contenus du MAM Dalet. Concernant le stockage, il n’y a pas un stockage centralisé, mais plusieurs serveurs de stockage production et stockage plus froid pour les archives. Tout est sur serveur. Pas de bande.

 

Bilan et futur

La transition s’est bien passée. Ce fut un gros changement ; il a fallu former toutes les équipes de maintenance, mais aussi les équipes d’exploitation sur les nouveaux outils, tout en assurant la continuité. Redbee Media, filiale d’Ericsson, est l’intégrateur qui a été choisi pour accompagner NextRadioTV sur cet énorme projet. Les équipes d’ingénierie Redbee ont travaillé main dans la main avec les équipes NextRadioTV afin de construire l’un des plus gros sites de production et de diffusion TV et radio de France. Les équipes support ont été intégrées dès le début du projet afin d’être autonomes lors de la mise en production du site.

Aujourd’hui la technologie est stabilisée, le site est pris en main et l’idée désormais est de passer à l’étape supérieure. Il s’agit notamment de travailler sur le déploiement de décors virtuels plus complexes, de la réalité augmentée en s’appuyant sur des partenaires comme Avid, Zero Density /Dreamwall, ainsi que VizRT.

 

Article paru pour la première fois dans Mediakwest #32, p.92/93. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 octobre 2019 à 17:00

Les résultats du POC organisé par Videlio et l’IIFA sur l’interopérabilité du ST-2110

Lors de la présentation des enseignements du POC, Emanuele Di Mauro a détaillé le fonctionnement des matériels dans le laboratoire de formation de Videlio. © IIFA

L’intégrateur broadcast Videlio Media et l’institut de formation IIFA ont organisé début juillet 2019 un POC centré sur l’interopérabilité au niveau de la structure et du contrôle des flux audiovisuels, transmis selon le standard ST-2110 pour la production live en IP. Réunissant douze constructeurs, ils ont montré que le transport vidéo sur IP est devenu une réalité en déployant six workflows de production.

 

Dans le domaine de la production vidéo live, la migration du câblage SDI vers des infrastructures tout IP est un mouvement inéluctable, en particulier grâce à la généralisation des interfaces 10, 25, 40 ou 100 Gb/s compatibles avec les débits nécessaires pour exploiter les flux non compressés, gérés par la norme SMPTE ST-2110.

Ces ports IP, destinés au transport en mode paquets des signaux vidéo et audio sans compression, sont de plus en plus présents sur les équipements de production : mélangeurs vidéo, processeurs, convertisseurs…

Après une première période centrée sur les normes SMPTE 2022, conçues dans une optique de transport global des signaux et de leur sécurisation, la norme ST-2110 répond en priorité aux besoins de la production au cours de laquelle il faut traiter de manière séparée chacune des « essences », la vidéo, les multiples pistes audio, les métadonnées, le contrôle et les références temporelles.

C’est pourquoi la norme ST-2110 est organisée en une longue série de chapitres (ST-2110-10, -20, -21, -30…), certains étant encore en cours de rédaction (voir tableau). La séparation des « essences » se prête bien à la mise en place des workflows média, dans lesquels chaque module est spécialisé pour traiter une essence donnée.

L’exploitation des équipements ST-2110 fait basculer l’univers traditionnel des broadcasters vers celui de l’IT et des réseaux IP pour lesquels les technologies et les procédures sont basées sur des concepts totalement inédits pour le monde de l’audiovisuel. La complexité de la norme ST-2110 et les nouvelles méthodes sur lesquelles elle s’appuie ne rassurent pas les exploitants et techniciens qui doivent entreprendre une véritable conversion culturelle.

Face à l’émergence de nouveaux projets basés sur le tout IP, les responsables de Videlio Media et de l’IIFA, un organisme de formation qui a déjà accompagné de nombreuses chaînes et équipes audiovisuelles dans ce travail de mutation vers l’IT, ont décidé d’organiser un POC (Proof Of Concept) pour vérifier l’interopérabilité des flux entre des équipements provenant de plusieurs constructeurs.

Outre cet aspect, il s’agissait également de montrer que la norme ST-2110 offre une véritable souplesse dans la gestion séparée des divers flux audiovisuels, à la fois pour optimiser au mieux la charge réseau, mais aussi offrir toute la souplesse indispensable en phase de production. L’une des fonctions clés d’une architecture tout IP est remplie par l’orchestrateur qui facilite le passage d’un workflow à l’autre et offre des outils de pilotage et des panneaux de commande similaires à ceux des régies câblées en SDI.

Enfin, le dernier objectif était de découvrir en configuration de production les bonnes pratiques de mise en œuvre de ces nouvelles architectures, leurs limites et les points à surveiller lors de la mise en place d’un système tout IP.

 

Douze constructeurs associés à ce POC

Au départ, les initiateurs du POC avaient prévu d’interconnecter cinq ou six équipements distincts fonctionnant en ST-2110. Mais devant l’intérêt suscité par une telle expérimentation, d’autres constructeurs ont contacté Videlio Media et l’IIFA pour s’y associer. Ce sont en définitive douze constructeurs qui ont participé au POC en mettant à disposition seize équipements distincts, le tout piloté par un orchestrateur Magellan d’Imagine Communications et par un logiciel développé lors du POC, exploitant les API fournies par les constructeurs.

Au cœur du dispositif, se trouve un switch réseau Cisco de la gamme Nexus 9000 avec 48 ports recevant des modules SFP avec un débit de 1, 10 ou 25 Gb/s et six interfaces 40 ou 100 Gb/s compatibles QSFP28. Aja avait fourni deux modules de conversion HDMI <-> ST-2110, l’un en sortie d’une caméra JVC et le second pour afficher des signaux ST-2110 sur un écran JVC. Embrionix a mis à disposition deux modules de conversion SFP équipés l’un d’une double entrée SDI et l’autre en double sortie SDI, eux aussi raccordés à des caméras et à des écrans, Sony et JVC en l’occurrence.

La fonction de playout était assurée par un serveur Harmonic Spectrum X. En plus de l’orchestrateur Magellan déjà cité, Imagine Communications avait fourni un module de monitoring multiviewer Epic, ainsi qu’un processeur de conversion et de traitement vidéo Selenio Network Processeur. Il permet de traiter 32 entrées et 32 sorties HD-SDI depuis et vers du ST-2110 sur un port 100 Gb/s. Sony était également présent avec une caméra HDC-3100 équipée d’une sortie IP ST-2110 et un mélangeur XVS-8000 équipé full IP. Il récupérait des sources via ses interfaces IP et renvoyait un mixage vidéo vers l’installation.

Une passerelle Nevion Virtuoso était affectée à la conversion de la sortie SDI du mélangeur NewTek, mais servait aussi à du monitoring. Un châssis Micron MediorNet de Riedel récupère quatre flux IP via son interface ST-2110, effectue du clean switch et extrait un contenu audio renvoyé vers le PowerCore Audio de Lawo. Malgré ses multiples possibilités de traitement et de conversion audio, ce dernier avait surtout pour fonction d’extraire des signaux audio depuis des flux IP et de les convertir en analogique vers une enceinte amplifiée.

En plus d’un mélangeur TC-1 et d’un TriCaster, NewTek était également présent avec sa passerelle NC1 I/O IP. Avec le NDI, ce constructeur développe son propre protocole vidéo sur IP, basé sur des principes techniques totalement différents de ceux du ST-2110. Mais grâce à cette passerelle les signaux ST-2110 du POC étaient renvoyés vers les mélangeurs NewTek et en retour la sortie mixée repartait vers les équipements du POC. Une première technologique en Europe qui montre avec quelle facilité le passage d’un environnement à l’autre se fait de manière transparente.

Tektronix jouait un rôle central dans la mise en œuvre de ce POC en fournissant un générateur de référence PTP SPG8000A et un outil de mesure Prism pour l’analyse des signaux.

 

Une gestion des workflows totalement inédite

L’ensemble de ces équipements ST-2110 a été déployé en sept jours dans l’espace de formation de Videlio à Gennevilliers sous la coordination de Pascal Souclier et d’Emanuele Di Mauro (respectivement directeur et responsable de projet à l’IIFA) et de Marc Deshayes, directeur technique de l’ingénierie système et Jean Felix Luigi, chef de projet chez Videlio.

L’objectif des organisateurs était de parvenir à configurer six workflows simples et opérationnels correspondant à des configurations de travail habituelles dans les chaînes TV : sélection et contrôle d’une source vers un écran, sélection d’un process vidéo IP vers IP, clean switch entre plusieurs sources (dont une non adressable directement), playout avec habillage et commutation sur une source live, gestion séparée de chaque flux audio et contrôle d’une sélection de sources via une API.

Lors de la présentation des résultats de ce POC, Emanuele Di Mauro est revenu sur quelques éléments essentiels concernant le déploiement d’une infrastructure tout IP : « Dans une installation tout IP, on est un peu démuni car on ne voit pas directement son workflow. En SDI, chaque matériel est équipé d’entrées et de sorties, câblées successivement. On voit physiquement son workflow et c’est très rassurant. Dans une architecture tout IP, tous les équipements sont reliés en étoile sur le switch central (ou dans une topologie arborescente de type Spine Leaf) grâce à des liaisons IP fonctionnant de manière bidirectionnelle. Avec la même infrastructure on peut passer d’un workflow à l’autre sans rien modifier au niveau câblage. Ça donne beaucoup plus de souplesse car on passe alors à une gestion dynamique des workflows. Mais il faut alors un autre outil : l’orchestrateur. »

L’orchestrateur peut fonctionner de deux manières. Soit il contrôle directement les équipements réseau pour aiguiller les paquets entre la source et la destination, soit il pilote les équipements de destination. Dans ce cas, les sources de contenus transmettent des flux émis en mode multicast, et c’est l’orchestrateur qui indique aux destinations sur quels flux elles doivent se connecter.

Dans le premier cas, on utilise des outils de type SDN (Software Defined Network) qui virtualisent les couches réseaux et transforment les switchs réseaux en sorte de gare de triage. Cette approche a l’inconvénient de dépendre de la couche de messagerie utilisée par les switchs. Pour ce POC, la méthode de contrôle des destinations a été choisie, en cohérence avec la tendance actuelle qui privilégie le contrôle des flux au niveau applicatif, en lien avec le standard NMOS. Ce dernier va probablement s’imposer, mais il n’est pas encore totalement implanté et confirmé.

Pour la mise en place du POC, ses responsables ont alors choisi de piloter les équipements grâce au protocole Ember +, créé à l’initiative de Lawo, et choisi par de nombreux constructeurs broadcast. Il offre une structure similaire à celui du SNMP avec des branches de paramètres imbriquées.

L’orchestrateur Magellan d’Imagine Communications contrôlait de manière directe les équipements de ce constructeur (le multiviewer Epic et le processeur Selenio), puis grâce à Ember + les modules SFP d’Embrionix et les convertisseurs AJA. Pour l’outil de mesure Prism de Tektronix, Imagine Communications avait déjà développé un « connecteur » logiciel approprié.

Pour d’autres matériels comme le serveur Spectrum X d’Harmonic ou l’interface audio Lawo, une technique particulière a été adoptée : au lieu de contrôler directement ces destinations par l’orchestrateur Magellan, ce dernier envoyait les commandes via un dispositif central de conversion IP <-> IP, le processeur Selenio qui faisait office de passerelle NAT Multicast.

 

Le rôle essentiel du protocole PTP

Comme dans les architectures de type SDI, l’intersynchronisation des sources est un élément essentiel pour assurer une commutation propre entre les sources d’images. Dans une infrastructure IP, celle-ci est obtenue grâce au protocole PTP (Precision Time Protocol), issu de la norme IEEE-1588, adaptée à la vidéo dans le cadre du ST-2059 et maintenant intégré dans la ST-2110-10. Le signal de référence temporelle est fourni par un équipement « maître » sur lequel tous les autres équipements vont se synchroniser en mode slave.

Dans le cas du POC, le signal de référence était fourni par le générateur Tektronix SPG8000A, renvoyé ensuite vers le switch Cisco et redistribué à tous les équipements qui y sont connectés. L’outil d’analyse Prism de Tektronix est un élément indispensable pour contrôler l’intersynchronisation des signaux entre eux. Le protocole PTP tient compte des temps de propagation aller et retour des signaux sur les liens IP. Lors du POC, il a fallu ajuster la durée de certains tampons pour tenir compte de disparités de latence entre les matériels de divers constructeurs.

La qualité et les performances des modules SFP sont aussi des éléments fondamentaux dans l’exploitation d’un système de production tout IP. Cisco fournit des modèles en conformité avec les spécifications de ces actifs réseaux. Mais il existe de nombreuses autres sources d’approvisionnement plus économiques. Lors du POC, les équipes techniques ont constaté des écarts importants de performances selon leur origine avec parfois des incidences sur les signaux, pas évidentes à diagnostiquer. L’outil d’analyse Prism s’est révélé être d’un grand secours pour détecter l’origine de ces dysfonctionnements.

Plusieurs fois, une manipulation sur un équipement ou même un simple déplacement de câble provoquait une perte d’images ou de signaux, qu’intuitivement il semblait facile à corriger alors qu’en réalité les analyses et les mesures du Prism permettaient d’en déceler la cause sur un autre équipement. Le surcoût engendré par les modules SFP performants et fiables est également un paramètre à prendre en compte dans la mise en place d’un système tout IP.

 

Une grille de commutation fonctionnelle grâce à une API programmée sur place

La plupart des équipements et des applicatifs sont fournis avec des API afin de les piloter par des systèmes externes. Dans le cadre du POC, Emanuele Di Mauro a développé à titre expérimental une interface web tactile pilotant les modules Embrionix de manière à les exploiter dans une configuration de grille de commutation. Ce module de contrôle a été développé en cinq heures en PHP-MySQL. Il démontre ainsi que dans une équipe technique en charge d’un système de production IP, il est fort utile qu’au moins l’un de ses membres possède des compétences en développement pour gérer des API pour des besoins spécifiques et remédier aux limitations des outils de pilotage ou de l’orchestrateur mis en place.

Au cours de la présentation qui a conclu la semaine de tests du POC, Emanuele Di Mauro est revenu sur plusieurs points essentiels à prendre en compte lors du déploiement d’une architecture de production tout IP.

« La mise en place d’un réseau IP pour traiter des flux audiovisuels ne s’improvise pas et exige de solides compétences IT dans l’équipe d’intégration. Les actifs réseau se configurent grâce à de multiples lignes de commande avec lesquelles il est indispensable d’être à l’aise », explique-t-il.

Le POC était organisé autour d’un seul switch réseau, mais pour un vrai système de production, plusieurs switchs seront associés dans des architectures redondantes et complexes comme celle des « Spine Leaf ». Il faut également maîtriser toutes les subtilités de l’adressage multicast et être très rigoureux dans le plan d’adressage des machines.

 

Associer des compétences réseau et métier

Les équipes techniques ont dû faire face également à des difficultés d’accès aux manuels et documentations techniques des matériels. Elles sont soit incomplètes ou pas tenues à jour par rapport aux évolutions des « firmwares ». Plusieurs fois, ils ont dû se faire confirmer des informations techniques via des échanges directs avec les supports techniques des constructeurs.

Encore plus surprenant, certains matériels ont été fournis dans des configurations ou avec des versions logicielles ne correspondant pas à ce qui était annoncé. L’analyseur Prism a été d’un grand secours pour détecter immédiatement les caractéristiques réelles du signal fourni. Ainsi, par exemple, un équipement était annoncé ST-2110 alors que les signaux fournis étaient en 2022-6.

Mais pour Emanuele Di Mauro, « Le plus gros challenge lors du déploiement d’un système de production tout IP se situe au niveau de la constitution de l’équipe technique. Trois pôles de compétences doivent être réunis. Bien sûr un chef de projet avec une vraie expérience métier du broadcast, et au même niveau, un second responsable avec une véritable vision IT de l’installation et en complément un ou plusieurs développeurs selon la taille du projet. Ces derniers prendront en charge la conception des IHM pour piloter et centraliser l’interface utilisateur avec les API fournies par les équipements. »

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.50/52. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 13 octobre 2019 à 16:03

Un programme de radio filmée diffusé quotidiennement sur France 3 région avec MULTICAM SYSTEMS

Un programme de radio filmée diffusé quotidiennement sur France 3 région © DR

Radio France et France Télévisions se sont associés pour produire un direct vidéo des matinales de France Bleue et c’est la société française MULTICAM SYSTEMS qui a été choisie via un appel d’offre pour son système de production live automatisé MULTICAM RADIO.

 

« Il fallait fournir un système automatisé pour la captation vidéo mais également une interface de contrôle de l’habillage graphique. En effet, un opérateur est en charge d’habiller le programme radio selon une ligne éditoriale télévisuelle bien définie qui comprend des illustrations pour les reportages vidéo, des synthés pour l’actualité, le recouvrement des publicités radio… », précise Arnaud Anchelergue, directeur associé de MULTICAM SYSTEMS.

L’opérateur dispose de deux écrans tactiles : il peut agir sur la production du direct via l’écran de gauche (commandes pour l’IA et l’Auto-framing, gestion de l’enregistrement et du streaming) et sur l’habillage et les illustrations via l’écran de droite. Une charte spécifique a été implémentée, ses ajustements et la mise à l’antenne s’opèrent sur MULTICAM ASSIST, interface disponible sur cet écran de droite.

« L’ergonomie et la facilité d’utilisation du système permet une prise en main rapide. L’opérateur n’a pas besoin d’être un technicien, son profil étant plutôt orienté journaliste… », complète Arnaud Anchelergue.

 

Le système adopté pilote 5 caméras PTZ (Panasonic HE130) avec un module d’Intelligence artificielle basé sur la prise de parole. Un module de recadrage automatique (auto-framing) permet des presets en fonction des différences de position des intervenants.

L’émission, qui est diffusée avec un décrochage de 7h à 8h40 est diffusée sur la TNT, sur l’application France 3 régions et sur le site internet de Radio France. Un support d’assistance opérationnel quotidien de 6h00 à 9h00 a par ailleurs été spécifiquement déployé par MULTICAM pour ce projet.

Quatre sites ont déjà pris l’antenne, à Nice, à Lille, à Guéret et à Toulouse et au total, une quarantaine de stations seront équipées d’ici 3 ans. Les stations France Bleu seront aussi équipées de projecteurs 30 watt Mini Twinled fournis par Eurolight System.

Sur IBC, MULTICAM démontrait une configuration avec un pilotage de têtes robotisées, adapté aux caméras broadcast. Ses clients ne seront donc plus limités à un choix de caméras PTZ tout-en-un et pourront intégrer dans leurs studios des systèmes avancés comme des rails de traveling et dollies… Une intégration opportune qui devrait séduire les producteurs medias en recherche de solutions de direct tournées vers la simplification et la rationalisation…

 

L’équipe MULTICAM SYSTEMS vous donne rendez-vous sur le SATIS, le 5 et 6 Novembre prochains pour vous présenter toutes ses solutions…

  • 14 octobre 2019 à 17:00

Newsbridge fait le pont entre sport et IA

Détection visuelle d’une personnalité (ici, Lionel Messi), grâce à un moteur de recherche sémantique. © Newsbridge

Créée en 2016, la start-up parisienne s’est déjà fait un nom grâce à un positionnement original dans l’univers, entre autres, du sport broadcast.

 

Acheminer, centraliser, quelle que soit la source, et transcoder au format broadcast ou digital les flux vidéo dont le volume double chaque année (+300 % entre 2014 et 2017, par exemple), indexer des contenus via une technologie cognitive développée en interne et basée sur open source, permettant la détection visuelle (scènes, contextes, objets, personnalités…) et sonore (contenu d’un discours ou d’un échange), traduire des échanges ou discours via un outil de traduction neuronale, découper et extraire des moments clés en temps réel pour une diffusion live, échanger et mutualiser les actions dans un espace collaboratif online accessible aux équipes de production, départements éditoriaux et autres services de communication…

Telles sont les différentes fonctionnalités que concentre la plate-forme, de type SaaS, à laquelle Newsbridge a donné son nom et qui, d’ailleurs, fondent son originalité. « Notre positionnement est d’associer l’Intelligence artificielle (IA) avec le contexte de captation des images. Il existe certes des concurrents sur chacune de nos fonctionnalités, mais aucun ne regroupe tous ces outils », assure ainsi Yvan Lataste, directeur des ventes.

De la même manière, le croisement des informations contextuelles recueillies sur l’ensemble des outils mis à disposition (image, son, contexte) permet, en matière d’indexation, d’obtenir des résultats d’une fiabilité proche de 100 %.

 

Au terme d’un long processus de sélection, Newsbridge a scellé différents partenariats pour le développement de ces outils. Ainsi, pour la partie « Speech to text », la société travaille avec des acteurs spécialisés dans les secteurs de la sécurité et de la défense, comme Vocapia pour certaines langues. Pour la partie détection visuelle, en plus de son propre algorithme, elle utilise des bases publiques mises à disposition par Amazon et Google.

« Afin de favoriser notre intégration technique dans l’écosystème client, nous avons également noué des partenariats avec des industriels de l’audiovisuel, tant pour la partie fabrication (Dalet, Avid, Adobe…) que pour la partie transmission (Aspera, Aviwest, Live U…) », complète le responsable.

 

Newsbridge cible les créateurs de contenus BtoB, comme les diffuseurs, les sociétés de production, les ayants droit sportifs, et même les sociétés du CAC 40. La plate-forme les aide à fabriquer des vidéos en un temps record, grâce à l’indexation contextuelle en temps réel. Elle facilite ainsi la recherche d’événements spécifiques, comme tous les buts de la saison de Ligue 1. En moyenne, la société traite une centaine d’heures de contenus sportifs par mois.

Ses clients, basés en France et en Europe, souscrivent un abonnement annuel, avec une facturation mensuelle qui comporte une part fixe (droit d’accès à la plate-forme ou licence) et une part variable, selon le nombre d’heures chargées sur la plate-forme et le niveau d’indexation requis.

 

 

Logos, émotions et actions spécifiques en voie de détection

Fin 2018, Newsbridge en comptait trois pour le sport, qui représente 40 % de son activité. Par ordre d’importance, la Fédération française de rugby (FFR), Danone, sponsor de l’Evian Master de golf, et le comité d’organisation du championnat du monde de handball.

Dans le premier cas, la prestation consiste à indexer l’ensemble des joueurs du XV de France (masculin et féminin), ainsi qu’à agréger et valoriser la mémoire numérique de la FFR en centralisant photos et vidéos et en les partageant avec les sponsors. Dans le second, Newsbridge fournit une solution clé en main (moyens de transmission + plate-forme) permettant l’extraction de contenus chauds en direct pour une publication en ligne sur les réseaux sociaux et autres supports. Enfin, dans le troisième et dernier cas, la mise en place d’une « cloud newsroom » pour les équipes digitales permet de centraliser l’ensemble des contenus produits pendant la compétition (matches, conférences, interviews, résumés, photos…) et de les partager avec les ayants droit et les sponsors.

À court terme, la détection des logos et, à moyen terme, celle des émotions et d’actions sportives spécifiques (ippon ou o-goshi en judo, ace au tennis, KO en boxe, plaquage au rugby…) sont les pistes avancées par Newsbridge pour élargir son indexation contextuelle.

Basée à Boulogne-Billancourt, près de son cœur de cible (médias, diffuseurs, sociétés de production…), la société compte actuellement dix collaborateurs permanents (six en charge du développement informatique, quatre pour la partie business et relation clientèle). Ses fondateurs, Philippe et Frédéric Petitpont, respectivement ex-ingénieur broadcast à TF1 et ex-creative technologist chez Havas, sont actionnaires majoritaires et gardent la main sur les décisions stratégiques de la société. Laquelle est également soutenue par Bpifrance et le CNC dans le cadre d’un financement RIAM.

 

Retrouvez Newsbridge sur le SATIS Screen4ALL, les 5 et 6 Novembre prochains aux Docks de Paris... 

 

Article paru pour la première fois dans Mediakwest #31, p.82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 20 octobre 2019 à 16:02

Euromedia sur tous les fronts entre 4K intégrale et ROC

Euromedia sur tous les fronts entre 4K intégrale et ROC © EUROMEDIA.

Dimanche 13 octobre, Euromedia couvrait deux évènements sur lesquels la société a pu déployer toute son expertise et ses dernières innovations avec la captation HF en UHD intégrale de la course cycliste Paris Tours pour France Télévisions et la captation 4G des championnats de France de Marathon à Metz avec la réalisation à Saint Denis dans le nouveau ROC, le Remote Center by Euromedia pour le réseau VIA.

 

Paris Tours : captation et diffusion en 4K intégrale, une première mondiale

Dimanche 13 octobre, France Télévisions a proposé la diffusion de la course Paris Tours en direct sur France 3 et en Ultra-HD/4K sur sa chaîne événementielle France TV Sport UHD 4K.

Cet événement a bénéficié d’un dispositif de captation innovant : le transport d’un signal UHD (4K HDR) mobile natif longue distance en HF, opéré par Euromedia, partenaire de longue date de France Télévision et A.S.O. sur le cyclisme.

Toutes les caméras présentes sur l’opération, notamment celles embarquées sur un hélicoptère et sur les 3 motos, ont délivré un signal UHD (4K HDR) qui a emprunté, pour la première fois en direct, une liaison HF. Ces nouvelles liaisons dernières générations développées par Livetools Technology, filiale d’Euro Media Group, ont permis cette prouesse. La course a été réalisée par Antony Forestier depuis depuis un car-régie France Télévisions (car challenger 2), un car Euromédia fournissant les différents flux UHD HF motos et hélicos... Une première mondiale !

 

 

Championnats de France de Marathon en production distante depuis le nouveau ROC by Euromedia

Les championnats de France de Marathon, qui se sont déroulés ce dimanche à Metz, ont été diffusés sur les 18 TV locales du réseau Via. Pour accompagner ce dispositif, le réseau Via a confié la production de l’événement aux équipes d’Euromedia.

3 motos et 5 caméras ont couvert l’événement sur place. Les signaux de chaque caméra ont été transmis Live en 4G, pour la première fois, au nouveau ROC d’Euromedia, à 300 km de la ligne d’arrivée !

La réalisation a été assurée par Lionel Wetzer au sein du ROC sur vibox via les solutions Simplylive, le signal final étant distribué ensuite aux TV locales depuis le data center Via situé à Montpellier.

 

Cette production distante simplifiée a inauguré le ROC by Euromedia dont les Journées Portes Ouvertes auront lieu les 5 et 6 novembre prochain en parallèle du salon Satis aux Docks de Paris.

  • 21 octobre 2019 à 17:00

Le nuage informatique au-dessus du live !

Le nuage informatique au-dessus du live ! © DR

Le cloud computing n’en finit pas de gagner en performances. Des cas d’usage de plus en plus fréquents montrent que les nuages informatiques d’Amazon, Microsoft, Google et consorts sont en mesure de prendre en charge quasiment tous les maillons de la fabrication d’une chaîne de télévision, y compris lorsque celle-ci diffuse des programmes en live. Les usages progressent toutefois moins vite que la technologie. De nombreuses chaînes doivent encore amortir leurs infrastructures, tandis que des réticences demeurent sur la maîtrise des données. Autant de phénomènes qui incitent les acteurs industriels à promouvoir des solutions hybrides mêlant cloud public et cloud privé.

 

Chacun a bien en tête désormais les avantages du cloud computing dit « public » promus par les principales plates-formes AWS, Azure ou Google Cloud pour ne citer que les acteurs prépondérants de ce nouveau marché. Bien entendu, il existe d’autres clouds publics, y compris ceux bâtis par des acteurs français comme Orange ou OVH.

Dans la filière audiovisuelle, comme dans d’autres filières industrielles, les usages du cloud public se généralisent. Jusqu’ici le cloud concernait des tâches essentiellement liées au stockage, à l’encodage et à la multi-distribution des contenus sur des plates-formes OTT. Les plates-formes de publication de vidéos à la demande sont même devenues légion grâce à la facilité permise par les architectures évolutives du cloud dans la création d’un nouveau service SVOD, que ce soit en termes de prix ou de performances, qui peuvent évoluer au fur et à mesure que l’audience d’un service OTT grossit.

Ces plates-formes de services OTT comprennent généralement l’ingest des fichiers vidéo, leur transcodage en fichier pivot, le contrôle qualité, l’application de sous-titres, l’application de DRM, des fonctions de monitoring de l’audience et de monétisation.

Les facteurs de différenciation entre les acteurs de cette filière émergente se font d’ailleurs de plus en plus suivant des critères liés à l’ergonomie des services, le niveau de fonctionnalités proposé et à l’évolutivité vers de nouvelles technologies valorisant les contenus grâce à l’intelligence artificielle.

Néanmoins, depuis un an, le phénomène de cloudification du secteur audiovisuel touche aussi le dernier pan de cette industrie : les chaînes de TV linéaires. Le cloud computing fait l’objet de plus en plus de cas d’usage au cœur même des tâches liées à la fabrication et à la diffusion d’une chaîne TV broadcast.

 

 

L’essor des mélangeurs live dans le cloud

Si l’on remonte le fil de la chaîne de fabrication d’une chaîne de télévision jusqu’à son début, une des tendances émergentes aujourd’hui est l’apparition de mélangeurs live virtualisés hébergés dans le cloud. La tendance reste néanmoins timide dans la filière broadcast traditionnelle. Car, comme le souligne Alexandre Dubiez, head of global playout & studio solutions chez Red Bee Media : « Ces services que nous testons dans notre laboratoire à Londres sont perfectibles. Ils s’adressent pour le moment principalement aux marques organisatrices d’événements sportifs, qui n’ont pas forcément de récurrence dans la commercialisation de leurs droits de retransmission, ou aux médias de taille modeste qui veulent couvrir en direct du jour au lendemain un événement sportif ou culturel sans avoir à leur disposition les moyens techniques de captation, à l’exception des outils de tournage. »

C’est pourquoi, pour le moment, ce sont principalement des start-up qui s’engouffrent dans cette brèche, en espérant que la connectivité en situation de mobilité s’améliore à grands pas. Ces start-up proposent le plus souvent des solutions d’édition basées sur la captation à l’aide d’un smartphone ou de moyens de tournage légers dans la mesure où le transfert sans fil des signaux s’effectue de manière compressée en H264.

L’interface de mixage des sources vidéo sur ces nouveaux outils a une ergonomie souvent proche de celle d’un mélangeur classique, à la différence que les fonctions s’affichent sur un navigateur Internet et ouvre directement des instances de machines virtuelles dans un cloud public concernant la partie traitement des images et sons.

Les solutions d’entrée de gamme les plus en vue s’appellent ici Switcherstudio ou Livestream. Ce dernier outil, racheté par Vimeo à la fin 2017, a une philosophie hybride qui consiste à faire reposer sa solution de mélange « live » sur du matériel en complément des ressources dans le cloud.

En France, d’anciens cadres d’Orange ont fondé la start-up Dazzl, qui édite un switcher en SaaS hébergé chez Amazon. Dazzl en est déjà à sa version 2 et bénéficie d’une nouvelle interface encore plus ergonomique et adaptée à un réalisateur seul sur le terrain avec son PC ou à un réalisateur qui reçoit à distance les feeds d’un direct et les traite de son bureau. Il est aussi intéressant de constater que l’interface de Dazzl se rapproche de plus en plus d’une interface classique dédiée à l’édition de live… mais dans un navigateur Internet et des possibilités d’inserts démultipliées.

La start-up la plus avancée en la matière, qui séduit déjà des broadcasters traditionnels, est Make.tv. Cette jeune pousse de Seattle propose une application en SaaS très complète en termes de fonctionnalités, et qui peut être hébergée indifféremment dans le cloud public d’AWS, Azure ou Google. Make.tv permet de monitorer plus de 48 flux live dans son viewer et de switcher entre les sources au time-code près. Une des forces de cette application en ligne est de permettre la livraison d’un signal maître vers de nombreuses destinations différentes, mais aussi l’interface avec sa propre solution de playout dans le cloud. C’est d’ailleurs cette dernière fonctionnalité de play-out qui a convaincu la Fifa de se servir de Make.tv durant la Coupe du monde de football 2018, afin d’adresser les réseaux sociaux Facebook et Twitter avec un live spécifique, différent de la version broadcast.

 

 

Les acteurs du broadcast entrent dans la danse

Les éditeurs de solutions de « clipping », ces applications d’édition de clips vidéo au sein d’un flux live destinées à alimenter les sites web d’une chaîne et les réseaux sociaux, sont aussi parmi les pionniers de l’usage du cloud public dans le secteur de la TV linéaire. Le cas de la start-up française Wildmoka est à cet égard édifiant. À l’issue d’un partenariat prolifique depuis 2016 avec France Télévisions et de cas d’usage avec des chaînes internationales comme NBC aux USA, Wildmoka est en effet en train de s’affirmer comme un partenaire clé de la stratégie cloud d’Avid en matière d’architectures IP live dédiées à la TV linéaire.

Voyant une partie du monde broadcast se pencher sur la production dans le cloud, Sony s’est aussi lancé plus récemment sur ce créneau avec l’annonce, durant l’été 2018, d’un mélangeur logiciel hébergé sur AWS et baptisé Virtual Production Service. Ce mélangeur « virtuel » de Sony peut gérer jusqu’à six caméras, deux clip players, dont les signaux sont enregistrés en temps réel sur AWS, de même que le signal final une fois mixé.

Sony a expérimenté son dispositif pour la première fois durant l’été 2018 lors de la retransmission en direct sur le web de la course à mobylettes Red Bull Switzerland Alpenbrevet. Le terrain montagneux rendait difficile le déploiement des infrastructures de production live classiques comme une régie de production ou des véhicules DNSG, sans parler des investissements dans le matériel et le personnel que les organisateurs souhaitaient éviter. Des moyens de tournage légers ont donc été privilégiés, avec notamment deux caméras mobiles suivant le parcours et rapatriant le signal du live directement en 4G vers le mélangeur en ligne de Sony.

 

 

Les limites actuelles

Il faut savoir néanmoins que ces solutions de mélange en ligne des sources live ont quelques limites pour le moment, comme celle de ne pas intégrer de réseau d’ordre. C’est pourquoi la plupart des professionnels qui les ont déjà adoptées y ajoutent en général un réseau d’ordre sous forme d’une application baptisée Unity Connect (http://www.unityintercom.com/) qui permet de recréer un véritable réseau d’ordre à l’aide de smartphones grand public.

De même, en dépit d’évolutions rapides dans ce registre, les fonctionnalités d’habillage intégrées à ce genre de mélangeurs restent limitées et souvent le réalisateur est obligé de peaufiner son habillage antenne dans une fenêtre HTML à part, via un outil supplémentaire comme Singular.live (https://www.singular.live/), un autre service dans le cloud qui dispose d’une API ouverte.

Ces mélangeurs en ligne introduisent aussi une plus grande latence vis-à-vis d’une solution broadcast traditionnelle. Il faut compter entre deux et trois secondes de délai entre le signal qui sort de la caméra et l’entrée dans le mélangeur virtualisé. Ce problème est en partie résolu par le fait que les éditeurs de tels mélangeurs en ligne introduisent un temps de buffering au départ du direct, afin de pouvoir ensuite réaligner la synchronisation de l’ensemble des flux, notamment en cas de chute de la connectivité en situation de mobilité.

Attention néanmoins, la latence finale chez le téléspectateur dépend également de la plate-forme de publication des vidéos en streaming. En la matière, il faut savoir que la latence peut descendre à deux ou trois secondes dans le cas d’une plate-forme professionnelle, de cinq à sept secondes dans le cas de YouTube et jusqu’à vingt secondes sur Facebook.

 

 

Le cloud computing au service des « pop-up channels »

Dans la droite ligne de l’essor de ces outils virtualisés destinés à produire, via le cloud, du live d’événements sportifs ou culturels, certains éditeurs TV se hasardent à bâtir des chaînes événementielles en s’appuyant sur des plates-formes de cloud computing. Un acteur majeur de la contribution broadcast et IP comme Globecast l’a bien compris et se positionne sur ce créneau depuis près de trois ans. Son offre s’appelle Digital Media Hub et est agnostique de la plate-forme cloud utilisée pour héberger une ou plusieurs chaînes de télévision événementielle ou expérimentale.

Samy Bouchala, responsable du marketing et de l’anticipation stratégique, précise : « Nous analysons toutes les possibilités offertes à la fois sur le plan technique et économique et choisissons la plus adaptée au client entre un fournisseur de cloud public, une solution on-premise et l’offre cloud d’Orange plus pertinente sur certains aspects liés à la localisation et la sécurisation des données. Grâce au cloud, nous mettons en œuvre les projets de nos clients de manière agile et itérative, en suivant leur stratégie marketing et en interrogeant systématiquement le ratio coût du cloud public versus on-premise et cloud privé. Il faut savoir en effet que les tarifs dans le cloud public fluctuent beaucoup suivant la loi de l’offre et la demande. Au moment du black friday par exemple, il était quasi-impossible de trouver de la ressource fiable dans le cloud public, et à un prix raisonnable. Il a donc fallu trouver des solutions de rechange pour nos clients. »

Pour Globecast, le cloud public permet surtout de tester de nouveaux concepts de chaînes de télévision à moindres frais. C’est le cas par exemple de Virgin TV. Cette chaîne en 4K a d’abord été lancée à l’automne 2018 sur une tranche horaire du soir uniquement, afin de sonder une audience de niche. Au fur et à mesure que l’audience a grandi, les plages horaires de diffusion se sont élargies sans que cela n’entraîne de surcoût considérable grâce à la flexibilité du cloud. « Mieux, précise Samy Bouchala, lors de la mise en place technique de cette nouvelle chaîne, le cloud a suffisamment tenu la charge pour assurer la distribution de signaux UHD avec des images codées sur 10 bits couleur. »

L’offre TV dans le cloud de Globecast suscite aussi l’émergence de chaînes événementielles, les pop-up channels. Ce fut le cas en 2018 avec un client comme la société de services événementiels HPower qui assura la totalité de la production et de la gestion technique du défilé Great Pilgrimage 90, ainsi que de la cérémonie One Hundred Days (les 100 derniers jours de la Première Guerre mondiale) organisés par la Royal British Legion. À cette occasion, Globecast a également eu l’occasion de tester sa nouvelle solution de clipping dans le cloud, baptisée Live Spotter, afin de générer rapidement des extraits à publier sur le web et les réseaux sociaux.

Reste que si les barrières techniques tombent peu à peu, concernant la possibilité de créer des chaînes événementielles, le modèle économique reste lui encore incertain aux yeux des éditeurs TV traditionnels. Certains d’entre eux restent en effet encore sceptiques sur la capacité du public à payer pour voir un seul événement ou sur la capacité de mobiliser suffisamment d’annonceurs autour d’un canal événementiel ad hoc. Un nouveau marché qui reste à explorer…

 

 

Play-out dans le cloud public

En matière de play-out, cela fait quelques années déjà que des start-up anglo-saxonnes ont pris le virage du cloud public. On peut citer PlayBox Technology qui tente de créer un écosystème autour de ses solutions software de play-out IP. De même, l’Indien Amagi développe depuis trois ans une solution logicielle en ligne permettant d’adresser de manière performante des contenus différenciés suivant les régions de diffusion.

Quant à Veset, cette plate-forme hébergée sur Amazon s’articule autour de deux offres distinctes qui correspondent bien aux deux principaux segments actuels de ce marché. Veset propose en effet d’un côté Media Cirrus, une offre entrée de gamme et de l’autre Media Nimbus, une offre de services plus évoluée. L’offre Cirrus inclut uniquement l’up-load des fichiers via un navigateur web, un habillage graphique sommaire, l’encodage à l’aide de codecs ne dépassant pas le H264, un seul canal stéréo, pas de technologie de sous-titres standardisée, ni de normalisation loudness standard...

À l’inverse, son offre Nimbus est plus complète et proche du broadcast ; elle a déjà séduit une chaîne comme Fashion TV. La chaîne de la mode voulait s’appuyer sur une solution cloud permettant d’adresser le marché de la SVOD et de la Social TV en même temps que ses canaux broadcast traditionnels. Fashion TV a fait migrer dans le cloud l’ensemble de sa tête de réseau de distribution pour la TV IP, le câble, le satellite, Dailymotion… Au-delà du gain financier occasionné par cette bascule, Fashion TV indique avoir gagné en souplesse pour éditorialiser de nouvelles versions de sa chaîne dans le monde entier et avoir permis plus de cohérence entre son offre de programmes linéaire et VOD.

 

 

Des premières chaînes live dans le cloud public en Asie

D’autres acteurs plus ancrés dans le monde broadcast, comme Harmonic, se sont aussi très tôt lancés dans une offre de services de playout hébergée dans le cloud public. Depuis deux ans, Harmonic propose VOS 360 qui intéresse, semble-t-il, en priorité le marché des chaînes de TV asiatiques, tandis que de nombreux POC ont lieu en Europe, y compris en France.

Premier exemple emblématique de la mise en place de cette nouvelle offre de services en ligne, le cas de la chaîne SuperSoccerTV, éditée par le groupe indonésien PT. Perada Swara Productions (Djarum Group). Cette chaîne propose, dans une région du monde où le football est encore assez peu populaire, les images du championnat Série A italien et de la Premiere Ligue anglaise. Elle a fait appel à Harmonic dès 2016 en vue de donner une dimension live à son offre OTT de matches en direct, via son application mobile. Et de fait, grâce au cloud public, SuperSoccerTV adresse une audience croissante de plusieurs centaines de milliers de fans qui va grandissante.

Eric Gallier, responsable des solutions vidéo chez Harmonic, explique : « Dans les débuts, les retransmissions en direct via le cloud public engendraient une latence de plusieurs dizaines de secondes. Elle n’était pas gênante car peu de retransmissions broadcast en direct des matches de football ont lieu dans cette partie du globe. Toutefois, nous avons optimisé peu à peu le play-out, de sorte que la latence est aujourd’hui réduite à quelques secondes. En outre, l’offre de programmes de SoccerTV est montée en puissance avec deux matches retransmis par semaine et le play-out de cette chaîne OTT intègre désormais une chaîne de traitement complète avec des événements principaux et secondaires, des highlights, des rediffusions… une chaîne de télévision à part entière en somme... la présence sur les canaux numériques en plus. »

La couche de services de play-out que propose VOS 360 est agnostique en matière de plate-forme de cloud public choisie. Conforme au mode de gestion de projet du cloud, Harmonic a aussi défini que chaque mois un sprint de développement introduit une nouvelle fonctionnalité. Ainsi, VOS 360 est en mesure d’aller vers des spécifications dernier cri comme le traitement des flux en UHD HDR ou encore d’intégrer le protocole CMAF dans le player vidéo fourni avec son service. « Avec le CMAF, souligne Eric Gallier, nous avons franchi une étape, en particulier concernant la latence qui descend désormais en-dessous des six secondes. » De même, dans le cas de SuperSoccerTV, VOS 360 s’interface avec la solution de clipping en temps réel de Tellyo, concurrente de Wildmoka.

 

 

Play-out hybride, dans le cloud public et privé

L’usage d’un cloud public pour héberger l’ensemble de la chaîne de fabrication et de diffusion d’une chaîne de télévision comprend toutefois des limites techniques et juridiques, comme le fait de déléguer l’hébergement de ses contenus à des acteurs américains soumis au « patriot act ». Cela constitue une raison suffisante pour nombre d’éditeurs TV européens de regarder de près les services de play-out hébergés dans un cloud privé ou hybride mêlant cloud public et cloud privé (pour les données plus sensibles).

C’est le cas, par exemple, du fournisseur de solutions d’habillage graphique et de play-out wTVision, filiale de la société espagnole Mediapro qui combine tous les modèles possibles cloud public chez AWS, cloud hybride, cloud privé avec possibilité de piloter des opérations à distance en IP tout en ayant une partie de son play-out en local et bien sûr un play-out reposant sur des infrastructures on-premise, entièrement personnalisables.

C’est aussi la proposition faite par Red Bee Media (ex-Ericsson broadcast services). Selon Alexandre Dubiez, responsable des solutions Studio et Diffusion de RedBee Media : « Les clients viennent souvent nous voir en ayant comme préjugé que le cloud public est moins cher. Nous avons donc fait des projections en termes de coûts du cloud public versus cloud privé et infrastructures broadcast pour nous rendre compte que le cloud privé peut dans certains cas d’utilisation être une solution plus économique que les plates-formes d’Amazon, Microsoft ou Google. Nous ne sommes pas convaincus qu’il y ait une équation économique viable sur le long terme à placer l’hébergement complet d’une chaîne dans le cloud public. »

Le prestataire de service britannique oriente volontiers ses clients vers le cloud public pour des tâches telles que le débordement de ressources en cas de pic d’audience, le disaster recovery ou la création de chaînes événementielles OTT ou la social TV. Red Bee Media a d’ailleurs bâti son offre autour d’une proposition hybride jouant sur la complémentarité entre cloud privé et public.

Pour Alexandre Dubiez : « Les éditeurs TV de chaînes linéaires continuent de privilégier la qualité du signal TV et préfèrent travailler sur des flux non ou peu compressés en passant dans des cartes réseaux qui utilisent les couches basses des réseaux IP. S’ils veulent migrer vers le cloud, on peut leur proposer une solution du type cloud privé, robuste et qualitative, tout en restant sur une plate-forme ouverte sur le cloud public. »

 

 

Programmation et cloud privé made in France

Le logiciel Chyro, qui facilite la programmation d’une chaîne TV linéaire via un mode SaaS très flexible, propose également depuis quelque temps déjà d’héberger l’intégralité d’une chaîne en mode cloud privé.

Parmi les fonctionnalités de Chyro, rappelons que ce soft gère la planification des programmes aléatoire ou pas, mais aussi les coupures virtuelles, les droits de diffusions, les métadonnées, les coming next, la planification des replay, les exports XML des EPG... le tout via un simple navigateur web. Cette application en ligne est aussi capable de s’interfacer avec des plays-out tiers comme ceux d’Harmonic, Playbox ou Softron (c’est déjà le cas via des chaînes distribuées par Pixagility, DVMR ou TV Tours).

Toutefois, Chyro dispose également de ses propres datacenters à Paris et Toulouse reliés entre eux par une fibre optique de 10 gigabits/s, qui lui permettent de proposer à ses clients de virtualiser l’ensemble de leur process de fabrication d’une chaîne TV linéaire. Le cloud privé Chyro a l’avantage de fournir un fort niveau de supervision et de sécurisation des médias. Chyro sert de la sorte déjà plusieurs chaînes en Suisse, Afrique et Birmanie qui utilisent tout ou partie de ses outils en ligne de planification, de gestion des workflows, des métadonnées associées, du transcodage, des replays, des extraits… mais aussi ses outils de multidiffusion en streaming comme un CDN bénéficiant d’un point de présence aux États-Unis.

 

 

Migrer sa chaîne dans le cloud en vue du disaster recovery

Aujourd’hui, une des applications hébergées dans un cloud public qui intéresse le plus les chaînes de télévision est le « disaster recovery ». Rétablir en ordre de marche ses médias à chaud à partir de sa propre infrastructure IT coûte cher en équipements et en personnel de maintenance. C’est pourquoi de plus en plus souvent la redondance des médias d’une chaîne TV linéaire est assurée de manière synchrone via le cloud public et une couche d’intelligence permettant la restauration rapide des éléments on-premise. Dans un tel cas de figure, les technologies ont suffisamment évolué pour que la restauration des médias ne dépasse pas les vingt minutes.

Aux États-Unis, ce sont les chaînes sportives les premières qui ont utilisé une telle architecture de services dans le cloud, notamment lors des « super bowls » où les enjeux publicitaires sont tels que les chaînes hôtes de l’événement clonent systématiquement l’ensemble des médias et process on-premise. Lors de l’IBC 2018, la société Carrick Skills a démontré quant à elle grâce à son Carrick Flow, son outil de pilotage dynamique des workflows et l’outil d’automation de SGT, sa capacité à fournir un service de disaster recovery dans le cloud à la fois fiable techniquement et abordable sur le plan économique.

Christophe Remy-Neris, PDG de Carrick Skills, met en avant un concept original qui tient aussi de l’opportunisme fonctionnel : « À l’heure du cloud, nous devons réfléchir de manière plus opportuniste vis-à-vis des plates-formes IT. À partir du moment où les médias d’une chaîne TV sont copiés dans le cloud, il est possible de leur appliquer de nouveaux traitements à un coût marginal, chaque plate-forme cloud bénéficiant d’un environnement fonctionnel souvent très riche. »

En outre, rappelle Christophe Remy-Neris, « notre société ne vend aucun cloud, ni système de stockage. Elle est donc totalement agnostique aux offres cloud du marché et va aller vers la plate-forme de services qui répond le mieux aux besoins d’un éditeur TV. »

Ainsi, à IBC, Carrick Skills s’est orienté vers l’offre de stockage froid d’Orange Business Services, car elle permettait d’archiver au fil de l’eau et de restaurer rapidement de plus gros fichiers que dans l’offre S3 d’Amazon et donc de réduire les coûts de stockage tout en ayant un meilleur niveau de services. Au moment du disaster recovery, Carrick Flow est en mesure, en vingt minutes, de récupérer les playlists, les éléments d’automation d’une chaîne, d’organiser le rapatriement des médias froids vers les espaces de stockage de médias chauds et de permettre progressivement le retour à un fonctionnement normal d’une chaîne.

Pour Carrick Skills, placer l’archive en continu de sa chaîne TV dans un cloud public ira de soi à l’avenir. C’est la seule solution qui entraîne un surcoût marginal dans le cas du disaster recovery de plusieurs chaînes, la communication avec des partenaires extérieurs à son architecture IT est plus aisée…

En fait, selon Christophe Remy-Neris, « quand on choisit un cloud public pour son disaster recovery, il faut se focaliser sur la souplesse d’usage et le cycle de vie de ses médias, et avoir toujours en tête la manière dont on va assurer la continuité de services, y compris lorsqu’on veut changer de plate-forme cloud, ce qui nécessite une réversibilité progressive. Faire la bascule en une seule fois coûtera forcément plus cher. »

 

 

L’IA pour changer le paradigme du play-out dans le cloud

Les réticences moins fortes de certains éditeurs TV vis-à-vis de l’hébergement complet d’une chaîne dans le cloud public, font naître des vocations parmi les start-up promptes à disrupter ce marché. C’est le cas notamment de la jeune pousse française Quortex. Fondée par des spécialistes expérimentés du secteur – Marc Baillavoine CEO, Thierry Trolez CSA, Jérôme Vieron CTO et Julien Villeret COO – Quortex considère que le paradigme de l’hébergement d’une chaîne TV doit changer de manière radicale avec l’essor des technologies cloud.

Quortex a développé une solution logicielle utilisant des algorithmes d’intelligence artificielle conçus pour optimiser la distribution de vidéos dans le cloud. Ces algorithmes servent de système d’orchestration suffisamment flexible pour qu’il soit possible de modifier en temps réel et de manière dynamique une architecture de distribution quelle qu’elle soit, afin de se mettre à l’échelle automatiquement en cas de pic d’audience par exemple.

Pour ce faire, Quortex s’abstrait de l’existant qui nécessite généralement de la redondance et des ressources par silos de fonctionnalités, en insérant son logiciel intelligent entre la couche de contrôle des CPU et la couche de services. Ainsi, aucun service n’est attaché à une grappe de serveurs donnée. C’est l’algorithme de Quortex qui détermine à tout moment quels CPU seront adressés entre toutes les machines disponibles à un instant TV dans le cloud. La subtilité réside dans le fait que ces algorithmes prennent en compte dans leur modélisation l’ensemble des fonctions de base d’une chaîne de télévision de l’encodage jusqu’à la distribution, en étant capable d’anticiper en temps réel les défaillances au sein d’une étape dans la chaîne de traitement des flux et d’allouer de manière dynamique de nouveaux serveurs suivant les nouveaux besoins décelés.

La solution de Quortex reposant sur des briques open source comme Kubernetes, un éditeur TV qui souhaite s’appuyer sur cette IA peut aisément l’intégrer au sein d’une architecture multi-cloud ou mélangeant cloud public et privé.

Jérôme Vieron souligne : « Avec notre technologie, une chaîne de télévision peut être entièrement distribuée via une plate-forme cloud avec une grande fiabilité et sans que l’on ait à se préoccuper de sa maintenance, y compris si l’on veut intégrer de nouveaux services dans son workflow ou faire évoluer ses capacités de traitement ou de distribution. » Si l’on en doutait encore, la création complète d’une chaîne de TV linéaire sans infrastructure IT internalisée est à portée de main…

 

 

Extrait de l’article paru pour la première fois dans Mediakwest #31, p.70/76. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 28 octobre 2019 à 17:00

Une infrastructure de Radio-Télévision 100% IP en Suisse…

Une première infrastructure de Radio-Télévision 100% IP en Suisse…  © DR

Les radiodiffuseurs privés suisses RadioFr et La Télé viennent de finaliser un nouveau centre de radiodiffusion IP dévolu à la radio et la télévision sur une base d’équipements Lawo, avec l’accompagnement de l’intégrateur SLG Broadcast AG.

 

Depuis 30 ans, la radio de langue française Fribourg, la radio de langue allemande Fribourg et la télévision La Télé Fribourg possédaient deux installations distinctes situées sur 2 sites. La modernisation des installations opérée cette année a représenté une occasion idéale pour regrouper les deux infrastructures. D’une surface de 3 000 mètres carrés, le nouveau complexe baptisé «MEDIAParc», se déploie sur deux étages. Outre les studios de radio et de télévision, il héberge des plateformes de distribution médias qui complètent les services de diffusion en direct de RadioFr.

Retenue pour concevoir ces nouvelles installations de diffusion, SLG Broadcast, travaille avec RadioFr depuis plus de 15 ans. Un audit complet a été entrepris pour s'assurer que RadioFr tire pleinement parti des possibilités offertes par un environnement de studio basé sur IP sur la base d’un réseau normalisé AES67 pour l'audio et SMPTE 2022-6 pour la vidéo.

Plusieurs gammes de produits radio, vidéo et audio Lawo ont été utilisées pour donner à RadioFr la flexibilité opérationnelle recherchée pour ses flux de direct… Aujourd’hui, les studios principaux de Radio Fribourg et Radio Freiburg disposent chacun d'un pupitre de mixage principal Lawo Ruby à 12 faders, ainsi que d'un autre Ruby à 4 faders pour les news. Leurs écrans de contrôle ont été personnalisés à l'aide du logiciel de création d'interface graphique Lawo VisTool ; Trois cabines de montage radio sont équipées de consoles Ruby à 4 faders et d'écrans VisTool interfacés à un moteur de mixage unique, le Lawo Power Core DSP ; La suite de production radio dispose d’un moteur Ruby avec un Power Core 12 faders, et d’un mélangeur Lawo mc236 qui peut être déplacé dans d'autres salles selon les besoins des directs ; Un Lawo V_matrix8 gère le routage, le traitement et de visionnage multi-fenêtres IP vidéo de la chaîne de télévision via le logiciel Lawo VSM. Une autre surface de contrôle Ruby, avec un moteur Power Core DSP, est utilisée pour les besoins de mixage de la chaîne TV. Deux unités Lawo V_remote4 assurent par ailleurs une connexion IP entre MEDIAParc et les principaux studios de télévision de Lausanne.

Le cœur de l’installation dédiée aux opérations audio de la radio et de la télévision, est doté de son propre moteur Power Core et de la commande VisTool. Un routeur audio Lawo Nova fournit une matrice de retour à MEDIAParc; un second routeur Nova a été affecté au car régie de la station qui est aussi équipée d'une console de mixage Lawo Sapphire à 12 voies.

MEDIAParc a été conçu pour faciliter la production de contenus pour la distribution sur Internet, y compris de podcasts et autres contenus de médias sociaux, son infrastructure tout IP permet un accès facile aux signaux dans l’ensemble de l’installation.

L’Audiomatrix, au cœur des opérations de MEDIAParc, rend le partage audio possible avec équipes de production de télévision. Pour plus de flexibilité et une redondance, des sections Audiomatrix jumelées et interconnectées fonctionnent en parallèle : les flux de radio et de studio, ainsi que les routeurs Lawo Nova, les ordinateurs de diffusion et les systèmes téléphoniques sont connectés à Audiomatrix # 1 via MADI et à Audiomatrix # 2 via AES6 et il est possible de basculer l'audio de façon transparente entre les studios. L’architecture globale s’appuie sur des câbles fibres optiques.

L'Audiomatrix offre également un accès aux sorties des trois studios de montage et à la source distante produite par le car régie RadioFr. Un contrôle logiciel des codecs via SLG unifie les flux de tous types de sources.

MEDIAParc propose par ailleurs une configuration de production audio adaptée aux besoins des malvoyants. Le logiciel Lawo RƎLAY VPB Virtual Patch Bay, exécuté sur des PC de montage audio, est programmé pour envoyer automatiquement de l'audio vers la suite de montage ou à l'un des studios en ondes tout en commutant simultanément les sections surveillance, enregistrement et lecture des consoles.

 

«MEDIAParc représente le premier site de production de medias entièrement IP en Suisse. Il représente la concrétisation réussie d'une vision ambitieuse adaptée aux flux de travail multimédias», déclare Marc Straehl, PDG de SLG Broadcast AG. «RadioFr souhaitait virtualiser l'environnement de production avec des solutions standardisées et évolutives. Les stations de télévision et de radio partageant de plus en plus de ressources, ce type d'intégration transparente répond à un besoin aujourd’hui généralisé chez les radiodiffuseurs. »

  • 6 novembre 2019 à 17:00

ACE Medias Tools fluidifie les communications des talkshows

ACE Medias Tools fluidifie les communications des talkshows © DR

Les radios et les télévisions diffusent les auditeurs à l’antenne grâce à des équipements appelés hybrides qui sont gérés par des logiciels de gestion de talkshows, talkshows qui consistent à faire intervenir des auditeurs dans des émissions. ACE Medias Tools a créé et distribue aujourd’hui un de ces logiciels de gestion de talkshows. Généralement, un journaliste ou un animateur de radio ou de TV ayant appelé un correspondant pour l’interviewer à l’antenne avec son smartphone doit raccrocher pour rappeler depuis l’hybride et transférer la communication à l’antenne mais ACE Medias Tools a trouvé une solution...

 

La société a trouvé un moyen pour que les communications passées depuis un smartphone soient « diffusables » directement à l’antenne, sans transférer l’appel et sans application installée dans le téléphone de l’animateur.

Les équipes d’ACE Medias Tools ont développé un module électronique externe fonctionnant en Bluetooth pour intercepter les signaux audio et les informations de la communication. Celles-ci sont alors acheminées vers le logiciel Ines, qui gère des talkshows, par une liaison IP classique et en audio vers les équipements de la chaîne.

 

INES BT

Ines BT est un nouveau produit. C’est un module complémentaire de la suite logicielle Ines déjà développée. Ce module repose sur une agglomération de techniques et de technologies existantes. Il regroupe les technologies Bluetooth, les technologies IP/Ethernet et les technologies audio numériques AES.

Le principe est simple et similaire aux systèmes de téléphonie embarqués dans les véhicules automobiles. Le téléphone GSM de l’utilisateur vient se connecter en BlueTooth au module électronique externe (Ines BT). Le module Ines BT transmet :

- L’audio de la communication (aller et retour) vers les équipements audio de la chaîne de radio ou de télévision via la liaison AES.

- Les paramètres de la communication, comme l’identifiant de l’interlocuteur appelé ou la durée d’appel, via la liaison IP/Ethernet.

 

Un projet innovant

Jusqu’à maintenant, un journaliste souhaitant interviewer et enregistrer une personne par téléphone, devait le faire depuis les installations téléphoniques du studio. Il devait donc communiquer le numéro de téléphone de leur correspondant, parfois confidentiel, aux personnels de la régie, qui en effectuaient la numérotation depuis un logiciel, ce dernier pilotant un équipement appelé insert téléphonique en charge d’acheminer la communication téléphonique. La qualité de la communication reste une qualité téléphonique soit 3,5kHz, ce qui paraît une piètre qualité au 21ème siècle. Aujourd’hui, de plus en plus de journalistes ou d’animateurs appellent leurs contacts depuis leur téléphone GSM. Ils sont donc aussi contraints de raccrocher leur communication pour rappeler leur correspondant depuis les installations du studio.

Via Ines BT, il est possible de conserver cette communication sur le téléphone portable du journaliste et de l’intercepter via la technologie BlueTooth pour qu’il puisse enregistrer son correspondant depuis l’interface Ines. Il n’est donc plus question d’interrompre une communication pour la diffuser à l’antenne ou l’enregistrer et surtout il devient possible d’utiliser des applications tierces comme What’sApp, FaceTime ou Skype. C’est grâce à ces applications que la qualité audio des communications se trouvent améliorées…

  • 10 novembre 2019 à 16:00

La plateforme de diffusion Intraplex Ascent s’ouvre à la video sur IP…

Andy MacClelland, nouveau directeur opérationnel EMEA et Asie du Sud de Gates Air © DR

Sur le Stand Gates Air d'IBC, l’Intraplex Ascent était au centre de toutes les attentions... Après l’annonce, sur le NAB, d’une prise en charge de l’audio sur IP sur sa plateforme de transport de signaux, le constructeur a, cet été, dévoilé la prise en charge de la vidéo sur IP via l’intégration d’une passerelle SRT…

 

Avec le support vidéo, l’application offre une proposition de valeur exceptionnelle aux diffuseurs… Ouverte à tous les protocoles de diffusion vidéo en temps réel basé sur IP (notamment ATSC 3.0 et DVB-T / T2), la plate-forme centralisée gère des flux SRT (Secure Reliable Transport) multiples via son logiciel maison Dynamic Stream Splicing (DSS). Ce dernier distribue les données SRT sur des réseaux redondants avec un protocole qui évite les pertes de paquets et les défaillances réseau.

L’Intraplex Ascent, qui représente la première solution de transport audio sur IP multicanal évolutive du marché, a été conçu pour favoriser la convergence des opérations de diffusion avec l’infrastructure informatique. La solution propose une connexion directe aux interfaces audio analogiques numériques et analogiques traditionnelles et est conforme à la norme AES67 et compatible avec les solutions réseau AoIP.

 

« Avec le fractionnement de flux de la nouvelle application Ascent SRT Gateway, nous pouvons réduire efficacement le temps de latence pour la retransmission SRT et optimiser la redondance réseau pour une distribution vidéo optimisée », déclare Andy MacClelland, nouveau directeur opérationnel EMEA de Gates Air. « Cette technologie  est particulièrement utile pour nos clients qui distribuent de la vidéo et de l'audio en temps réel via des connexions hertziennes, fibre et IP, et transportent des flux à large bande passante vers des studios ou sites de transmissions multiples ».

  

Deux options sont disponibles, l’une en serveur 1RU (avec des options configurables pour les canaux physiques et AES67) et en solution logicielle, dans un conteneur virtualisé.

 

En phase de croissance...

Amorçant une restructuration globale, le leader mondial des solutions de diffusion de contenu hertzien pour les chaînes de télévision et de radio a récemment recruté Andy MacClelland en tant que directeur opérationnel EMEA et Asie du Sud ainsi que 4 personnes sur la zone Afrique. Dans le cadre d’une politique d’investissements active, la société américaine a aussi acquis, en mai dernier, Onetastic, entreprise Italienne spécialisée dans les technologies d’émetteurs à faible consommation d'énergie. Grâce à ce recrutement et cette opération d'achat, Gates Air va pouvoir bénéficier d’une base européenne de R&D et de production qui facilitera sa croissance sur le bassin géographique européen.

  • 20 novembre 2019 à 17:00

Les vidéos web de France Médias Monde sous-titrées par la plateforme Eolementhe

Les vidéos web de France Médias Monde sous-titrées par la plateforme Eolementhe © DR

Videomenthe annonce qu’Eolementhe, sa plateforme collaborative de workflow média, a été retenue par France Médias Monde comme solution de sous-titrage multilingue, à l’issue d’une phase de consultation.

 

Le groupe France Médias Monde réunit FRANCE 24, la chaîne d’information continue trilingue; RFI, la radio mondiale; et Monte Carlo Doualiya, la radio en langue arabe. Les trois chaînes émettent depuis Paris à destination des 5 continents, en 14 langues.

France Médias Monde a lancé une consultation pour se doter d’une solution cloud de sous-titrage vidéo, simple et moderne. En effet, le groupe publie sur ses sites web des vidéos courtes (interviews, reportages…) issues de sa production interne, et a comme volonté de faciliter et accélérer le travail des équipes en matière de sous-titrage.

Eolementhe, plateforme collaborative de workflow média, a été retenue par France Médias Monde pour ses fonctionnalités de transcription, traduction et sous-titrage multilingue, mais également pour sa modularité, sa simplicité d’utilisation, et bien entendu son budget.

 

« Avec Eolementhe, nous publions sur le web nos vidéos sous-titrées en plusieurs langues, très rapidement, grâce aux outils automatisés, sans compromis sur la qualité des traductions ! La possibilité de validation humaine, à chaque étape du processus, et en mode collaboratif, est un réel avantage.

Autre point : la disponibilité des équipes Videomenthe, qui nous a notamment permis de travailler ensemble à la personnalisation de la solution », explique Clément Bisset, RFI.

 

Videomenthe a en effet collaboré avec France Médias Monde pour créer un workflow séquentiel répondant au mode de fonctionnement des équipes sur toute la chaîne de production. Des étapes de correction et validation humaines permettent aux différents utilisateurs (journalistes, techniciens, rédacteur en chef…) d’intervenir après chaque étape automatisée (transcription et traductions en plusieurs langues), ce qui garantit fluidité, rapidité et efficacité.

La solution Eolementhe a également été personnalisée : des espaces de travail adaptés à chaque profil ont été créés et un habillage de sous-titres répondant à la charte graphique web de France Médias Monde, a été mis en place.

 

« Nous sommes évidemment ravis d’avoir la confiance de France Médias Monde sur ce projet, passionnant à plus d’un titre. Le contexte « vidéo mobile » tout d’abord, avec la collaboration entre équipes techniques et éditoriales internationales, qui se fait de façon fluide via Eolementhe. Le fait de livrer les contenus vidéo à destination des supports web et réseaux sociaux, ensuite, qui montre la souplesse de la solution en terme de formats. Enfin, l’implication de tous nos interlocuteurs chez France Médias Monde, qui font évoluer la solution de façon très constructive », conclut Muriel le Bellac, Présidente de Videomenthe. 

  • 13 novembre 2019 à 17:13

Blackmagic renforce l’offre sportive du groupe suisse Teleclub

Blackmagic renforce l’offre sportive du groupe Teleclub © DR

Blackmagic Design annonce que Teleclub, groupe leader de la télévision payante en Suisse, a intégré un système de diffusion en Ultra HD dans ses studios. L’infrastructure repose sur des produits Blackmagic Design 12G pour mieux gérer les programmes sportifs en direct et les programmes à la demande (PPV).

 

Le groupe a récemment enrichi son offre et propose désormais plus de 83 chaînes, dont huit en Ultra HD diffusées en allemand, français et italien. Elles couvrent désormais un grand nombre d’événements sportifs, dont les championnats de foot nationaux et européens et le hockey sur glace grâce à sa plateforme IPTV.

« Nous devions doubler la capacité de diffusion de Teleclub, notamment pour diffuser des programmes à la demande en HD et Ultra HD, mais aussi pour pouvoir ajouter des commentaires et des éléments graphiques » explique Remo Val, ingénieur système et développeur chez Teleclub. « Après avoir revu en détail notre installation Ultra HD, nous en sommes venus à la conclusion qu’un réseau single link 12G-SDI nous permettrait de gérer à la fois les salles de serveurs et la distribution des signaux sans complication. »

Dix-huit ATEM 4 M/E Broadcast Studio 4K ont été installés, chacun dédié à deux chaînes HD ou Ultra HD et dont chaque M/E est attribué à une chaîne. Pour la diffusion en direct, chaque mélangeur a été relié à un serveur vidéo/CG. Cette installation a été mise au point par Teleclub au moyen de cartes d’acquisition DeckLink Quad 2 et du logiciel Caspar CG. Un autre ATEM 4 M/E Broadcast Studio 4K fournit les signaux à un des bouquets HD.

Remo Val explique que le système est contrôlé par une interface conçue sur mesure.

« L’opérateur ouvre un événement dans notre base de données, puis le client ajoute le contenu de son choix à une liste de lecture, par exemple, la mention En direct, des bandeaux d’informations ou les logos des sponsors. Le logiciel contrôle l’ATEM, le serveur CG et le moteur audio et prépare les éléments suivants de la liste. L’opérateur est donc en mesure d’envoyer le programme finalisé en appuyant simplement sur un bouton. »

L'installation, située près du siège de production de la chaîne à Volketswil près de Zurich, comprend également un nouveau studio, 26 salles dédiées aux commentateurs, 12 Smart Videohub 40x40 12G reliés à des moniteurs sub-switch, des salons VIP et un bar pour les spectateurs. « Les quelque 250 Blackmagic Micro Converters et les convertisseurs Teranex Mini servent de liens dans cette installation numérique », ajoute Remo Val. « Il était important que les améliorations apportées grâce à cette mise en place soient évidentes pour tout le monde. »

« Ce projet n’aurait pas pu voir le jour sans Blackmagic Design », conclut Remo Val. « L’API ouverte et le prix des cartes d’acquisition nous ont permis de concevoir une solution polyvalente et fiable. Grâce à cette installation 12G, nous sommes en mesure de continuer à satisfaire nos clients avec des programmes de qualité pendant encore de longues années. »

  • 14 novembre 2019 à 17:00

Formation Broadcast Academy : le live sport en simulation

Formation Broadcast Academy : le live sport en simulation © DR

La Broadcast Academy proposera du 24 au 28 février 2020 une formation payante et un training sur la réalisation de direct de sports dans ses locaux à Boulogne Billancourt.

 

Cette séquence de 5 jours comportera une première partie présentée par le réalisateur Laurent Lachant sur les principes éditoriaux et le storytelling, le travail nécessaire de chaque caméra, la bonne construction des séquences ralentis, etc. Ceci sera suivi, toujours avec le réalisateur, d’une partie comportant des sessions de ‘hands-on’ sur l’outil de mise en situation qu’est le Live Simulateur développé en partenariat entre la Broadcast Academy et EVS. Cet outil mettant les participants dans un environnement et des conditions très proches de la réalité.

 

Cette formation s’adresse à des réalisateurs multi caméras ou producteurs d’évènements sportifs en direct qui seront sélectionnés par la Broadcast Academy pour participer à la formation.

 

Des bourses sont proposées aux femmes issues de l’industrie audiovisuelle souhaitant faire évoluer leur carrière dans la réalisation sportive. Vous trouverez plus d’informations à cette adresse Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser. et ici pour tout ce qui concerne l’AFDAS, Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser..

  

 

Inscriptions ici

 

Retrouvez également notre article précédent : La Broadcast Academy, qu’est-ce que c’est ?

 

 

 

 

 

  • 14 novembre 2019 à 17:00

IA & microservices : Quortex crée des workflows de streaming optimisés pour le cloud

© Quortex

Quortex est une jeune société fondée en 2018 à Rennes. Elle a pour ambition de révolutionner la diffusion vidéo sur Internet en offrant des solutions basées sur les technologies IT les plus récentes et en optimisant les potentialités offertes par le cloud. Elle propose des workflows innovants basés sur les microservices en association avec des outils d’IA (Intelligence Artificielle). Rencontre avec son directeur technique, Jérôme Viéron.

 

Mediakwest : Pouvez-vous nous détailler les raisons de la création de Quortex ?

Jérôme Viéron : Avec les trois autres fondateurs, Marc Baillavoine, Thierry Trolez et Julien Villeret, nous sommes partis d’un constat très simple. Tous les grands acteurs de l’IT migrent leurs systèmes informatiques dans le cloud. Il y a un secteur où cette tendance reste timide, c’est celui du broadcast.

Nous pensons que cela est dû au fait que les diffuseurs ont voulu transférer directement les workflows et leurs applicatifs qui tournaient sur leurs équipements On Premise (sur site) à l’identique sur des machines virtuelles dans le cloud. Hélas les économies annoncées n’étaient pas au rendez-vous. Un soft monolithique qui tourne dans le cloud coûte plus cher que son usage en interne. D’autre part un encodeur software n’a pas un fonctionnement linéaire. Il consommera 10 % de la ressource machine pour un profil ; si on passe à deux traitements, ce sera 30 % et parfois avec trois profils on risque d’atteindre 90 %. Par sécurité on dimensionne largement la capacité CPU, ce qui augmente d’autant la facture totale sans réellement l’exploiter.

La diffusion OTT exige aussi de démultiplier les versions d’un même contenu pour tenir compte des profils adaptés à chaque catégorie de terminaux, avec des codecs potentiellement différents, des débits variables selon les modes d’accès et aussi un packaging distinct, HLS pour Apple ou bien Dash pour le web ou Windows. Il n’est pas rare de préparer le contenu dans trente versions distinctes, et donc toujours plus de stockage à la fois dans le système de diffusion et dans les CDN (Content Delivery Network). Beaucoup de ces versions ne seront même pas consultées.

Sur certains catalogues de VOD en France, moins de 10 % des contenus dupliqués sont réellement regardés. Avec nos solutions, nous souhaitons ne mettre en ligne que ce qui est vraiment regardé, en profitant au maximum des potentialités techniques apportées par les services de cloud, avec des développements basés sur les microservices fonctionnant en mode sans état ou « stateless » et en exploitant des machines préemptives.

 

M. : Comment avez-vous adapté ces outils au monde de la vidéo ?

J.V. : Tous nos workflows sont découpés en tâches élémentaires : adaptation de la résolution, compression, sous-titrage, packaging… Pour chacune d’elles, nous créons des microservices que nous développons nous-mêmes ou en reprenant des outils disponibles sur le marché. Le principe de tous nos workflows est le suivant : le fichier vidéo est découpé en « chunks » (tronçons) ou segments de 2, 4 ou 6 secondes. Chacun est traité à chaque étape du WF par un microservice indépendant lancé en mode « stateless ».

Comme c’est un service web, cela permet de le lancer sur n’importe quelle machine, juste à côté ou à l’autre bout du monde, et sur n’importe quel OS ou dans un environnement distinct. Comme il fonctionne en mode « stateless », une requête avec les paramètres nécessaires est envoyée au microservice qui va lancer les ressources nécessaires pour exécuter la tâche qui lui a été affectée. Quand il l’a terminée, il renvoie un message de bonne fin pour enchaîner l’étape suivante du workflow avec un autre microservice. Chaque microservice réalise juste la tâche dont il est chargé et disparaît après.

Avec le mode « stateless », similaire à celui des requêtes http lancées par un navigateur web, le microservice ne renvoie qu’une réponse de bonne exécution sans aucune information sur le déroulement de la tâche ou son environnement de travail. Si le volume des tâches à exécuter augmente soudainement, on peut lancer autant de microservices que nécessaire sans craindre un engorgement, comme dans le cas des applications traditionnelles qui fonctionnent en mode « stateful ». Cela nous offre une scalabilité (ou évolutivité) beaucoup plus facile à gérer. Si on a besoin du même microservice, on le relance à nouveau avec un reset complet et on repart sur des bases saines.

 

M. : Vous y associez aussi l’intelligence artificielle (IA) et le deep learning.

J.V. : Notre objectif, c’est d’utiliser de manière optimale les ressources offertes par le cloud. L’IA et le deep learning nous servent à apprendre le comportement de nos microservices et en particulier des encodeurs par rapport au contenu. Ainsi, lors des futurs traitements, nous pourrons optimiser le paramétrage de nos outils et améliorer le « load balancing » entre toutes les fonctions : encodage, sous-titrage, packaging, etc. Nous ne le faisons pas en live, mais nous améliorons nos modèles au fur et à mesure lors des mises à jour.

Comme je l’ai expliqué au début, actuellement les plates-formes de diffusion multiplient les versions d’un même programme qu’elles poussent ensuite vers les CDN. Nous préconisons de faire l’inverse et de travailler en mode « pull ». C’est au moment où un spectateur demande une version particulière que nous préparons à la volée la copie du contenu selon les spécifications de son terminal. Le workflow ne se met en route que quand quelqu’un en fait la demande. Si une version d’un programme n’est pas demandée, aucune ressource n’est consommée, ni facturée. Ainsi nous ne préparons que les copies qui sont réellement demandées en mode « just in time ».

 

M. : Mais cela ne provoque-t-il pas un temps d’attente plus long ?

J.V. : Tout le monde nous pose la question. De manière générale aujourd’hui, sur n’importe quel système, la latence reste dans les mêmes ordres de grandeur. Nous sommes même capables de faire de l’ultra low latency et de diffuser en CMAF (Common Media Application Format). Il n’y a pas d’impact sur la latence et nos solutions offrent des performances du même ordre que les systèmes traditionnels.

 

M. : Pourquoi votre stratégie, basée entièrement sur le cloud, serait-elle plus économique ?

J.V. : Le ticket d’entrée pour aller sur le cloud n’est pas négligeable et c’est pourquoi les diffuseurs n’y vont pas aussi vite qu’annoncé. Nous pensons aussi que c’est parce que les utilisateurs portent leurs applicatifs monolithiques tels que sur des machines virtuelles. Le coût reste élevé parce qu’il y a du gâchis de ressources machines. Nos workflows reviennent moins chers car nous optimisons les ressources au sens CPU et que nous utilisons aussi des machines préemptives.

Tous les fournisseurs de cloud cherchent à optimiser leurs outils en termes de ressources et d’énergie. Pour cela ils proposent des machines quatre à dix fois moins coûteuses, mais qui en contrepartie peuvent « tomber » ou être stoppées à tout moment. Selon les fournisseurs, ce mode de fonctionnement a des dénominations différentes (Preemptible VM chez Google, Azure Low Priority pour Microsoft ou encore Spot Instances chez AWS) et avec des règles de suspension et de remise en route assez variables. C’est moins robuste qu’une VM classique, mais pour des applications bureautiques ou de gestion, cela est moins critique.

Dans le domaine du streaming, c’est plus problématique, mais avec nos solutions basées sur des microservices en mode « stateless », en cas d’interruption, les tâches accomplies sur une machine qui « tombe » sont très vite redistribuées sur une autre ou sur un cluster distinct. Quand une machine « tombe », on ne s’en rend pas compte.

Notre solution par construction est non seulement plus robuste, mais elle coûte beaucoup moins cher quand on choisit de la faire tourner sur du préemptif. En plus elle est parfaitement « scalable » (évolutive et élastique) car nous pouvons déporter un traitement sur un autre cluster, ou répartir le travail entre un système On Premise (sur site) et appeler les services cloud en complément. Il est également possible de jouer sur la répartition multizones et multirégions d’Amazon par exemple et de profiter des charges de travail variables en jouant sur les décalages horaires.

 

M. : Tous ces gains de performances et ces optimisations portent uniquement sur la partie diffusion. Sur les CDN vous ne pouvez pas intervenir ?

J.V. : Aujourd’hui, ce qui coûte cher c’est la partie CDN car la facture totale dépend du débit de sortie, du nombre de consultations et aussi du nombre de versions stockées en cache. Contrairement à l’hertzien, plus un programme a du succès sur Internet, plus sa diffusion coûte cher. D’autre part si le service de streaming prépare ses contenus dans le cloud, il paie pour la sortie des contenus de la plate-forme pour les envoyer au CDN. Donc il paie deux fois, et ça, c’est aussi un frein pour aller dans le cloud. Il préfère donc rester sur ses propres installations. Mais la situation est en train de changer. Les fournisseurs de cloud montent leurs propres services de CDN, comme Microsoft Azure, Google ou AWS avec Cloud Front.

Nous pensons chez Quortex que les deux fonctions, plate-forme de streaming et CDN, vont se fondre en une seule, ce qui réduira le coût du double transfert. Notre solution est déjà conçue pour fonctionner comme cela et permet d’anticiper cette évolution et de s’approcher de l’utilisateur avec le mode « edge ». Cela facilite aussi les traitements en étant beaucoup plus proche de l’utilisateur final, de ses demandes et de tenir compte des particularités locales. Avec un lien direct entre la diffusion et le CDN, il devient possible d’affecter plus de ressources pour l’encodage et la préparation des contenus et, du coup, de réduire les débits avec un facteur d’économie plus fort sur le segment du CDN. 

 

 

POSTFACE

Récemment, les travaux de Quortex ont été récompensés lors du 21e concours d’innovation I-Lab. Au printemps, le groupe M6 a choisi les workflows de Quortex pour sa plate-forme de streaming et en particulier 6Play. Les équipes de Quortex seront présentes à l’IBC 2019.

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.58/60. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 18 novembre 2019 à 17:00

Les fans contrôlent le son avec SupraLive ...

Conçue à l’origine pour les concerts, la solution SupraLive (Augmented Acoustics) s’applique désormais à tout événement live. © Augmented Acoustics

Quel spectateur n’a pas rêvé d’une intimité sonore avec l’événement, qu’il soit musical ou, en l’occurrence, sportif ? Cette expérience immersive est désormais possible grâce à la solution développée sous le nom de SupraLive par Augmented Acoustics, une start-up française qui soufflera en novembre prochain ses cinq bougies.

 

Si, pour l’heure, « SupraLive est un service VIP, réservé notamment aux habitués des loges dans les stades connectés, notre objectif est de l’étendre au plus grand nombre d’utilisateurs, dont les déficients sensoriels », prévient d’emblée Stéphane Dufossé, CEO.

Conçue à l’origine pour les concerts (le service a déjà été exploité sur plus de 125 d’entre eux) afin de permettre aux spectateurs équipés d’un casque et d’une application smartphone d’être au plus près des artistes sur scène grâce à l’interaction multipiste immersive, la solution s’applique désormais à tout événement live.

Ainsi, de la même manière qu’un mélomane peut s’imprégner du jeu de basse en l’écoutant en solo, le spectateur d’un match de foot pourra, en fonction de la disponibilité des sources, éliminer les cris du public adverse, choisir son commentaire, s’il est étranger, ou supporter de l’un des deux camps, voire celui exclusif d’une personnalité pour une expérience premium unique, ou encore entendre les sons du terrain, tels les consignes du banc de touche ou l’intercom des arbitres, pour une meilleure compréhension de l’événement. En résumé, faire son propre mix en temps réel, tout en respectant le travail de l’ingénieur du son.

« Ce que nous proposons, c’est une écoute alternative haute définition en multipiste, sans compression et sans latence. Pour cela, nous utilisons un émetteur C-MA4 qui se connecte à la console de l’ingénieur du son. Ce son “sortie de console” est délivré aux spectateurs via un boîtier contenant l’intelligence du système qui permet de garantir la qualité de service et de corriger la latence en live », détaille Stéphane Dufossé.

Dans le cas d’une retransmission à distance, l’enjeu de latence est différent, mais il en existe un autre : la synchronisation du son multipiste de SupraLive avec le flux vidéo, alors que les deux sources empruntent des canaux distincts. Pour résoudre ce point, « nous utilisons le même principe qu’en live sur le lieu de l’événement. Cela a d’ailleurs fait l’objet d’un dépôt de brevet », se contente de préciser le responsable.

Avec le déploiement prochain de la 5G, la solution va pouvoir s’affranchir du boîtier et Augmented Acoustics proposer le service directement via un téléphone mobile, ce qui va permettre d’étendre son accès au monde entier.

« Aujourd’hui, nous utilisons un boîtier pour qu’il n’y ait pas de décalage entre le son reçu dans le casque de l’utilisateur et le son externe. En live, on ne peut pas se permettre d’attendre que les paquets arrivent. »

Maintenant, poursuit Stéphane Dufossé, « ce qui, pour l’heure, n’est pas possible en wi-fi et 4G sans le boîtier le sera en 5G, grâce au découpage du réseau mobile en tranches (network slicing), qui permettra l’allocation de ressources dédiées pour chaque service, et à la faible latence. »

 

Extrait de l’article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.62/67. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 19 novembre 2019 à 17:00

Stockage : davantage de fluidité dans le pipeline vidéo d'Hiventy

Stockage : davantage de fluidité dans le pipeline vidéo d'Hiventy © DR

Créé en 1984, Hiventy regroupe aujourd’hui Monal (ex-CMC et LVT), RGB, Digimage, Mediadub, Sylicone et Captain Video. En France et à l’international avec des implantations à Varsovie, Ho Chi Minh-Ville et Singapour, Hiventy offre une gamme complète de solutions dans tous les domaines de l’audiovisuel et du cinéma : postproduction, restauration, localisation, deliveries et stockage. En 2018, le groupe, qui compte près de 270 collaborateurs, a réalisé un CA de 37 millions d’euros.

 

Dans le cadre de ses activités, qui nécessitent un volume colossal de données, Hiventy s’appuie historiquement sur deux infrastructures distinctes : d’une part une infrastructure dite de « stockage chaud » pour le traitement des projets en cours, et d’autre part une infrastructure de « stockage froid » pour l’archivage des projets déjà réalisés.

En phase d’accélération et pour faire face aux besoins liés aux nouvelles technologies audiovisuelles, et notamment le développement de la 4K, Hiventy lance en 2018 un projet de refonte totale de son infrastructure à chaud, nécessitant des temps d’accès réduits.

Pour le renouvellement de cette infrastructure dédiée aux projets en cours, dans laquelle les données ne restent que le temps d’être rapidement traitées ou transférées, Hiventy doit faire face à deux contraintes majeures : disposer d’une capacité disponible suffisante, soit environ 800 To, et avoir une bande passante capable de répondre aux enjeux de fluidité tout au long des processus de création et de livraison des projets.

 

Fluidité et volumes adaptés à l’audiovisuel avec Isilon nouvelle génération

Préalablement doté d’une infrastructure Isilon d’ancienne génération, et après une démonstration par Dell EMC des dernières versions de la technologie, Hiventy fait le choix de conserver une infrastructure Isilon : « la technologie Isilon répondait en tout point à notre besoin de disposer d'un environnement de stockage de données non-structurées offrant en même temps un stockage partagé et des performances maximales pour le traitement des supports numériques travaillés, sans créer de contraintes dans la chaîne de valeur », explique Gilles Lebon, DSI d’Hiventy.

Car au-delà des volumes et de la performance souhaités, l’évolutivité de la solution mise en œuvre est aussi une caractéristique primordiale dans un contexte d’augmentation de la taille des fichiers vidéo, liée notamment à l’accroissement des définitions d’image.

 

Un accompagnement complet par MTI

Pour l’accompagner dans la construction de sa nouvelle infrastructure, Hiventy se tourne vers l’équipe MTI France. Au terme de l’analyse préalable, MTI confirme le besoin d’une solution à la fois performante et « scale out », capable d’accompagner Hiventy dans ses évolutions métiers et la croissance de ses activités.

Concrètement, MTI définit une infrastructure basée sur un cluster de 8 nœuds de la gamme Isilon H500, offrant une capacité d’environ 800 To, sur un mix de disques rotatifs et Flash. La mise en œuvre devant quant à elle être très rapide, en prévision du lancement de la plateforme Amazon Prime en France, dont Hiventy est partenaire.

Outre la gestion de projet en amont (phase 0), le déploiement de la solution par les équipes MTI s’est réalisé en 3 étapes : mise en œuvre du cluster H500, migration des nœuds de l’ancien vers le nouveau cluster et enfin validation du bon fonctionnement, transfert de compétences et recettes. « L’équipe MTI, composée de 3 personnes, a parfaitement répondu à nos attentes » poursuit le DSI : « en 2 mois, notre nouvelle infrastructure était opérationnelle pour l’ensemble de nos collaborateurs, et hébergeait l’ensemble des fichiers de nos projets en cours, soit environ 400 To ».

 

Une adoption réussie de la nouvelle solution et de nouvelles perspectives envisagées

Et le premier constat est sans appel : d’une baie et demi pour l’ancienne infrastructure, la nouvelle n’occupe plus que 2 châssis 4U, soit un gain de place et d’énergie considérable. Les utilisateurs, quant à eux, ont gagné en fluidité, jusqu’à pouvoir travailler avec plusieurs flux 2K en direct ainsi que certaines configurations 4K et ce, sans besoin d’en télécharger une copie en local. « Certains de nos utilisateurs, qui disposaient pourtant d’un produit dédié au travail "à chaud", ont même fait le choix de migrer sur Isilon » s’enthousiasme Gilles Lebon.

Pour compléter son infrastructure, de nouveaux projets sont déjà à l’étude chez Hiventy. Parmi lesquels la création d’accès distants aux postes utilisateurs mais également la mise en œuvre de solutions de sécurité supplémentaires. « Des projets pour lesquels les équipes MTI seront bien sûr sollicitées : la compréhension de nos métiers, de nos enjeux et de nos contraintes dont ils ont fait preuve nous ont particulièrement séduits », conclut Gilles Lebon.

  • 19 novembre 2019 à 17:00

Un trophée SATIS pour le projet d'intégration du BTS Audiovisuel Henri-Martin de Saint-Quentin

Un trophée SATIS pour le projet d'intégration du BTS Audiovisuel Henri-Martin de Saint-Quentin © Emmanuel Nguyen Ngoc

En passant de la SD à l’IP, le BTS Audiovisuel Henri Martin préfigure ce que devrait être à l’avenir un BTS Audiovisuel, à savoir une architecture hybride ouverte sur le futur... Cet ambitieux projet d'intégration, réalisé par BCE France, vient de se voir décerner un Trophée SATIS/Mediakwest 2019 par la rédaction. L'équipe pédagogique de ce BTS nous ouvre les portes de son établissement... 

 

Un investissement de 2 millions d’euros a permis une rénovation en profondeur des équipements de ceBTS Audiovisueavec une approche IP et une interconnexion entre les équipements pour que, depuis n’importe quelle salle, il soit possible d’avoir accès aux médias. Un BTS Audiovisuel est sans doute plus complexe dans son architecture et ses moyens techniques à équiper qu’une chaîne de télévision ou un prestataire technique.La technique doit rester au service de la pédagogie et faciliter l’apprentissage sur différentes typologies de matériel ; ce dernier doit être robuste, simple à appréhender par les élèves et dans un budget contraint...

 

Qu’est-ce qu’un BTS Audiovisuel ?

Le BTS Audiovisuel est un diplôme de haut niveau mis en place par le ministère de l’Éducation nationale et reconnu sur le plan national et international. Les sections accueillent des étudiants venant de toute la France, mais aussi de l’étranger. Dispensée par des professeurs et des professionnels, la formation associe théorie et pratique. Les étudiants sont confrontés directement avec le matériel lors de travaux techniques et d’exploitation et pendant les cours de mise en œuvre et de réalisation qui se déroulent sous forme d’ateliers.

Le BTS Audiovisuel du lycée Henri-Martin de Saint-Quentin (Aisne) a été ouvert il y a 30 ans, en 1989, et s’est développé, au fil des années, par étapes successives. Il y avait une première option puis une seconde, et au fil de l’eau, de manière empirique, sans grosses subventions, il a pris de l’ampleur « Nous avions commencé à 12 élèves et nous sommes arrivés à plus de 120. Les dernières installations avaient 15 ans. Il y avait une équation à résoudre entre l’enseignement, le matériel disponible et le nombre d’élèves. La Région Picardie, en 2004, a débloqué des fonds à hauteur d’un million d’euros, mais 15 ans après le matériel était devenu obsolète. La technologie a évolué rapidement et, pour la Région, renouveler la subvention représentait une enveloppe énorme. Entre temps, il y a eu une fusion des régions et après maints reports nous avons pu enfin bénéficier d’une subvention de la région des Hauts-de-France qui a permis cette évolution », souligne Jacques Tabary, proviseur du lycée Henri-Martin.

Le BTS Audiovisuel Henri-Martin de Saint-Quentin est exemplaire à plus d’un titre. Outre ses nouvelles infrastructures, il est aujourd’hui l’un des rares établissements du service public à proposer les cinq options et avoisine les 100 % de réussite à l’examen chaque année. Pour se donner une idée de la sélection, c’est 5 700 dossiers reçus pour 75 places (sélection via Parcoursup).

Le BTS AV occupe principalement le rez-de-chaussée d’une partie de la cour d’honneur du lycée (partagée avec les Lettres Sup). Le lycée, de style napoléonien, même s’il impose quelques concessions en termes d’ergonomie des salles (le bâtiment est classé), est magnifique. Le BTS occupe plus de 1 200 m2 et comprend de nombreuses installations techniques. La complexité des locaux est d’être dans des bâtiments historiques, il faut les adapter à la technique sans toucher à la structure ! Ce qui demande de l’ingéniosité, mais aussi permet aux étudiants de réaliser de nombreux exercices pratiques (montage/démontage).

 

Retour en arrière

Le BTS AV du lycée Henri-Martin est l’un des plus importants de France. Il accueille quinze élèves par classe, comporte cinq options. Il y a quatre ans, le BTS a repris une partie d’un BTS créé à Amiens en apprentissage avec option Montage. Depuis, il intègre également une filière apprentissage en option image et l’année dernière a été ouverte une licence pro Postproduction Son.

L’idée de la Région, sous l’impulsion de son président Xavier Bertrand, fut de doter le BTS de ce nouveau matériel en l’amortissant sur le BTS, l’apprentissage et la licence pro. Une fois la subvention votée, les choses commencent, il faut rédiger un cahier des charges en phase avec les problématiques actuelles et futures.

« Il est très complexe pour nous de connaître le cahier des charges des besoins, et les professeurs n’ont pas la connaissance de toutes les innovations. Nous avons demandé à BOB (Boîte à Outils Broadcast), une entreprise spécialisée et professionnelle, de nous aider à rédiger ce cahier des charges », indique José Delclitte, intendant du lycée.

La société BOB les a accompagnés durant les 19 mois du projet. De manière préliminaire, avec un audit comprenant une visite des locaux, une rencontre avec les enseignants, un audit des besoins techniques en fonction des besoins pédagogiques et la définition d’une enveloppe budgétaire. Puis la rédaction proprement dite du CCTP consistant à assurer la coordination du groupe de travail dédié à l’écriture du marché, la phase de sourcing dans sa dimension financière et technique, la rédaction du CCTP et de l’allotissement du marché et le cadrage financier du marché. Enfin, l’appel d’offres incluant la visite des locaux avec les soumissionnaires, réponses aux questions et assistance à l’analyse des offres. La société BOB a également suivi l’exécution des travaux, le déploiement des matériels…

L’appel d’offres a été remporté par BCE France. Outre la dimension financière, importante dans ce genre de projet, c’est sans aucun doute la dimension humaine et d’écoute qui a prévalu.

« Tout s’est fait en liaison étroite avec les professeurs, avec grande implication de l’équipe pédagogique. Les professeurs savaient ce qu’ils voulaient, mais avaient parfois une grande difficulté pour exprimer leurs besoins. Il faut prévoir une maîtrise d’ouvrage dans les budgets car nous n’avons pas la compétence en interne. Trop techniques, les acheteurs publics à la région n’ont pas cette compétence. Si nous n’avions pas eu le partenariat étroit avec BCE et la société BOB nous n’aurions pas pu arriver à un tel projet », insiste le proviseur.

Philippe Mauduit et Mikael Graignic, de BCE France, ont fait des déplacements au minimum toutes les deux semaines, que ce soit avant d’avoir remporté l’appel d’offres, mais aussi après. « Il faut être dans l’écoute, car il faut être capable de comprendre les besoins. Cyril Mazouër a fait un travail remarquable pour définir les besoins, mais il était important pour nous d’écouter les professeurs s’exprimer avec leurs propres mots. Nous nous réunissions souvent dans la salle des professeurs ou dans une salle de réunion à l’étage de l’administration pour parler avec les enseignants. Je pense que ce relationnel et la souplesse que nous avons introduite dans ce projet a permis que tout se passe bien, sans heurts ni problèmes », souligne Philippe Mauduit, président de BCE France. Les équipes de BCE France étaient présentes régulièrement pour assurer le câblage, les installations des matériels, en synergie avec les enseignants et Cyril Mazouër.

Le projet de mise à jour des installations du BTS Audiovisuel, pour la partie déploiement, s’est déroulé de décembre 2018 à mai 2019. Un exercice difficile comme l’évoque José Delclitte : « Le renouvellement des équipements s’est fait pendant une période de fonctionnement du BTS. Le matériel a commencé à être installé fin 2018, cela coïncidait avec les premiers examens. Il fallait jongler entre l’ancien matériel et le nouveau, sans être en rupture avec le référentiel du programme des cours. Dans ce genre de dossier, on ne peut pas dire « Je vais gérer une partie du matériel avec un premier lot et faire la suite plus tard », il faut tout faire d’un coup, il faut traiter l’ensemble de la chaîne. »

« Il n’y a pas forcément de cohérence totale dans les matériels déployés, mais il faut apprendre sur les nouvelles technologies et les plus anciennes. Cette disparité de matériel est nécessaire pour se faire la main sur tout type d’outil », poursuit Philippe Mauduit.

La mission d’AMO (Assistance à Maîtrise d’Ouvrage) pour le compte d’un BTS Audiovisuel public est très différente d’une mission d’assistance classique. Lorsque l’on enseigne au sein d’un BTS, l’année scolaire est très chargée et les occasions de travailler aux côtés de professionnels sont rares. On peut ainsi très rapidement se retrouver déconnecté du monde professionnel sans s’en rendre compte. Il est indispensable d’aider les enseignants à prendre conscience de la réalité du terrain.

Le BTS Audiovisuel était encore en SD ; c’est donc un saut de géant qu’il vient de franchir en passant en HD, HDR et infrastructure IP. Certains enseignants voulaient passer en 4K, mais il était plus pédagogique de s’intéresser au HDR qui permet de se confronter à de nombreuses problématiques.

Idem pour le choix de l’IP, comme l’indique Cyril Mazouër : « Cette partie du projet a eu lieu en 2017. À cette époque, la norme 2110 n’était pas encore sèche, mais il nous paraissait important de nous y intéresser. Il n’a pas été facile de trouver les produits pouvant entrer dans l’enveloppe budgétaire et s’insérer au cœur d’une installation majoritairement SDI. Plusieurs aspects nous ont conduits à ces choix. Déjà, il était trop tôt pour faire une installation 100 % IP, et de toute façon, il n’y avait pas le budget pour ça. Mais surtout, autant il est indispensable de former les étudiants sur l’IP, autant il n’est pas possible de faire l’impasse sur le SDI, qui ne va pas disparaître du jour au lendemain de nos régies. Il fallait également trouver des pistes de mutualisation d’équipements, sans que cela n’impacte l’aspect pédagogique. »

 

L’architecture

Le BTS est à l’image d’une petite chaîne de télévision qui aurait une partie de production et de postproduction plutôt développée. La philosophie de l’ensemble repose sur une architecture hybride SDI et SMPTE 2110 avec un serveur EVS six canaux dans le nodal, les canaux se partageant entre les deux régies des deux plateaux. Le plateau principal, baptisé plateau vert, est le plus grand et comprend une régie fixe avec une grille SDI 64 x 64 et un réseau IP SMPTE-2110. Le serveur EVS est natif 2110, le mélangeur et le mutiviewer sont hybrides. Les autres équipements sont uniquement SDI (caméras, infographie…). Des convertisseurs IP/SDI permettent d’échanger les flux entre les deux mondes. Le convertisseur V_matrix de Lawo assure ces fonctions. Le châssis installé contient deux modules : un IPG 10/10 SDI et 20/20 IP, ainsi qu’un multiview 18/2 SDI et 24/8 IP.

Un contrôleur gère cette installation. Le VSM de Lawo permet de créer différents scénarios pour coller aux différents apprentissages des étudiants. Ainsi un étudiant débutant qui apprend à commuter la sortie d’une caméra dans un multiviewer ne sait pas réellement ce qui se passe. Lorsqu’il comprend mieux la technique, et grâce à un panel virtuel, il peut découvrir les interactions entre les équipements.

« Sur une installation d’école, il est indispensable de rendre les choses pédagogiques. Pour des raisons de coût, il est de plus en plus rare d’avoir des patchs vidéo au sein des régies. Dans une école, notre expérience nous a montré que c’était indispensable. Cela permet aux élèves de visualiser par où passe un signal. Évidemment la partie IP n’est pas matérialisable de la même façon ; c’est pourquoi nous avons fait un travail d’équilibriste pour trouver les meilleurs compromis entre la pédagogie et la nécessité d’avoir de l’IP. »

La seconde régie, qui se trouve dans le plateau bleu, est mobile ; elle est utilisée pour des travaux pratiques de câblage. Pour que les étudiants comprennent facilement les liens entre les différents matériels, il a été décidé que cette régie serait en SDI. Elle comprend une grille 16 x 16, un mélangeur 2 M/E Ross Carbonite, quatre caméras et une tourelle, un poste vision. Rien n’est précâblé en vidéo. Les enseignants peuvent donc faire le choix de câbler tout ou partie de la régie en fonction des exercices prévus.

Cette régie est importante pour l’option Exploitation car il faut câbler, décâbler, recâbler. Le câblage d’une régie est une épreuve de BTS, et donc plus simple sur une régie mobile. Une fois les élèves maîtrisant la technologie, ils pourront échanger des données avec l’autre régie via une carte de conversion SDI/IP ou bien de récupérer des canaux du serveur EVS. Les deux régies permettent de travailler en mode duplex.

À chaque régie vidéo, est associée une régie son. Il y a la console principale (des consoles Studer et intercom RTS) et la console recyclée des anciens équipements avec ainsi la possibilité de faire travailler deux élèves en même temps. Cela permet aux élèves de première année de se former sur du matériel. Un Avid Pro Tools est associé aux consoles, ce qui permet de faire de la postproduction. Le plateau son comporte une troisième régie audio. Ce plateau permet de faire de la prise de son et un peu de live, de radio.

« Dans le BTS en option métiers du son, il est important d’avoir des cours sur de l’analogique et du numérique. Il faut se confronter aux différents cas de figure. Les élèves doivent aussi pratiquer de nombreux exercices de câbles. Il y a une table atelier sur laquelle il est possible d’amener une console quelle qu’elle soit et de la câbler », souligne Bastien Lenoir, enseignant son.

 

Réseau et pédagogie

Toutes les salles de classes et les régies, le nodal, les auditoriums sont reliés par un réseau KVM pour récupérer la commande des stations de travail en salle de cours. Les élèves ont accès à leur propre machine. Le stockage des machines est local, mais un serveur d’échange commun à toutes les machines est disponible. Il est possible en salle de cours de connecter, via le KVM, une machine sur un vidéoprojecteur et d’avoir, sur grand écran par exemple, un montage en cours, ce qui sur un plan pédagogique est assez unique. Autre point important, toutes les machines sont reliées en réseau Dante. Le réseau Dante est important, trente machines sont dessus.

Il y a une salle d’étalonnage HDR qui sert également de lieu de visionnage pour les documents de fin d’étude. La salle est en Blackmagic Da Vinci avec une surface de contrôle pour faire de l’étalonnage et toujours en lien avec le nodal via les KVM.

Le BTS AV comprend de nombreuses salles de montage. Des salles pour le BTS proprement dit et des salles pour la formation en alternance. Les salles de montage sont en liaison fibre et 10 Gbits vers le nodal. Il y a huit salles de montage pour le BTS et une salle avec quinze stations de montage pour l’alternance. Toutes les stations sont des Avid Media Composer. Il y a huit stations de postproduction audio stéréo, une en 5.1, et deux cabines speak. Comme énoncé précédemment, les machines sont sur le réseau Dante.

Le nodal comprend le serveur XS4K EVS, l’Avid Nexis, les grilles, les convertisseurs. En première année, les élèves doivent découvrir ce qu’est un réseau, un signal vidéo… « Ils commenceront à travailler sur l’IP en seconde année. Le dernier référentiel a huit ans et pour le moment il n’y a pas de cours prévu sur l’IP officiellement, mais il est fondamental de prendre en compte le réseau », indique Alain Gawlik, enseignant exploitation.

Outre les salles et les régies, sont disponibles des équipements de reportage image et son. Le magasin comprend des unités que les élèves doivent préparer pour aller sur le terrain. Il y a une salle de préparation des reportages, préparer le matériel et vérifier. On y trouve également un car régie qui sera ré-équipé en SD avec l’ancien matériel provenant de la régie du Plateau Vert.

 

Au final, la formation

La fin de l’installation a eu lieu en mai. Ce fut une opération à tiroirs, avec déplacement de certaines parties de matériels dans des locaux pour permettre aux élèves de continuer à travailler. BCE France a dû se plier à cette organisation. Il ne s’agissait pas juste de matériel, mais aussi de travaux dans les salles, que ce soit des créations de cloisons, de tirer des câbles, de la fibre. Les étudiants ont d’ailleurs aussi participé aux travaux de câblage.

« Nous faisions des points réguliers, avec les différentes options. Il fallait prendre en compte les besoins, les contraintes des uns et des autres pour avancer dans la bonne direction. Il n’y avait pas de chef de travaux, d’où un travail direct avec les enseignants », insiste Philippe Mauduit.

« Nous disposons de quinze enseignants en BTS AV sur la partie technique (vacataire, titulaire, contractuel…). Il n’y a pas de diplôme pour le BTS AV ; il faut compter sur des enseignants qui ont pu suivre ce type de formation, mais aussi sur des professionnels – par exemple nous avons un chef monteur qui vient de Canal+. Dans le cadre de ce projet, nous n’avions pas dimensionné la formation sur le matériel et sur les nouvelles technologies qui y sont liées comme l’IP. Bien évidemment, BCE a formé aux outils, au-delà même de ses prérogatives, mais ce n’est pas suffisant. Il a fallu renégocier avec le rectorat et tous les organismes (formation initiale, alternance, licence) un budget supplémentaire de 30 K€ pour former les professeurs afin qu’ils puissent acquérir les compétences nécessaires à l’utilisation du matériel », poursuit Jacques Tabary.

La réforme du Bac en 2021 va dans doute impacter les BTS et une réforme devrait suivre. La preuve en est, les BTS vont passer de deux à trois ans. Comme dans l’université, il y aura une mise à niveau en première année. Tout le monde n’a pas le même niveau, il y aura un nouveau référentiel pour des mises à niveau et le numérique y prendra une part prépondérante, dont l’IP.

« Un projet doit bien se passer. Quel que soit le projet et cela s’est bien passé dès les premiers contacts. Les équipes de BCE France n’ont pas dit : « J’ai le savoir et c’est comme ça ! ». Ils ont su s’adapter en fonction de nos besoins. Nous sommes dans le cadre d’un marché public. Cela est très contraignant avec un cadre strict. Tout n’avait pas forcément été vu dans le détail et peut-être certains points ont-ils été oubliés, mais, chez BCE, ils ne se sont pas fermés par rapport à cela et ont été souples, au-delà même de ce qui était demandé dans le cadre du simple appel d’offres », conclut José Delclitte.

 

Les cinq options du BTS Audiovisuel Henri-Martin

• Gestion de production

• Technique d’ingénierie et exploitation des équipements

• Métiers de l’image

• Montage et postproduction

• Métiers du son

Article paru pour la première fois dans Mediakwest #33, p.78/82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 20 novembre 2019 à 17:00

CBC Radio Canada, en route vers le tout IP

Vue 3D du futur siège de CBC Radio Canada à Montréal. © DR

Le groupe CBC Radio Canada est l’un des premiers diffuseurs au monde qui passera début 2020 sur une architecture Full IP. Cette évolution correspondra également au déménagement dans un nouveau bâtiment moderne qui se situe à quelques centaines de mètres de la tour emblématique et historique de la chaîne. Nous nous sommes entretenus en exclusivité avec François Vaillant, directeur général, Solutions d’Ingénierie Infrastructure et Services Techniques Media CBC Radio Canada.

 

Mediakwest : Déjà, pour commencer, pourriez-vous nous présenter CBC Radio Canada ?

François Vaillant : Radio Canada est une société d’État, un diffuseur public de radio-télé-web dans les deux langues officielles du pays, le français et l’anglais. La société existe depuis les années 30, elle a été fondée peu après la BBC, son nom officiel est CBC Radio Canada. Nous couvrons l’ensemble du territoire canadien, certaines villes en Europe et en Asie, telles Londres, Paris, Moscou, Pékin, un peu l’Amérique du Sud et, bien évidemment, les États-Unis.

Pour le réseau anglais, l’ensemble de diffusion, est centralisé à Toronto, toutes les régions anglaises contribuent vers Toronto. Pour le réseau français, sa diffusion ainsi qu’une partie de sa production sont, elles, centralisées ici, à Montréal. Typiquement, nous comptons plusieurs chaînes de télévision et de radio, dans les deux langues. Nous avons aussi des chaînes radio en langues autochtones, locales, pour le Nord. Puis, nous avons nos plates-formes OTT, nos plates-formes web, nos applications en balado-diffusion, des chaînes spécialisées notamment sur les Jeux Olympiques pour lesquels nous avons acquis des droits. Le prochain événement de taille, évidemment c’est Tokyo, en 2020.

Notre mandat global est d’informer l’ensemble des Canadiens ; notre fer de lance, c’est l’information essentiellement. Nous faisons aussi de la production en divertissement, en dramatique, mais nous sommes plutôt sur de l’acquisition que de la création. L’ensemble des régions ne traite essentiellement que de l’information, laquelle alimente les trois plates-formes radio-télé-web.

 

M. : Disposez-vous de centres régionaux ?

F.V. : Oui, chaque région a sa régie ou son centre de production, mais la diffusion finale est envoyée à Toronto (pour l’anglais) ou Montréal (pour le français). À Vancouver, par exemple, les services français et anglais figurent dans la même station ; de même à Winnipeg et Regina ; en revanche, à Calgary, c’est seulement de l’anglais. Cela se fait un peu selon les marchés.

 

M. : Vous avez un gros projet sur Montréal, pouvez-vous nous en dire un peu plus sur sa genèse ?

F.V. : Le projet de Montréal va nous offrir l’avantage de nous regrouper dans un espace plus petit, de nous moderniser complètement, tant au niveau de l’infrastructure technologique que sur les moyens pour fabriquer les contenus. Nous avons décidé d’avoir une approche beaucoup plus près de nos auditeurs ou téléspectateurs. Les studios vont être accessibles et visibles de l’extérieur ou de l’intérieur. Ce sera beaucoup plus accueillant. La station est complètement vitrée, d’où de nouveaux défis au niveau de la production, de la luminosité essentiellement, mais c’est un grand désir. Vouloir se rapprocher des téléspectateurs me semble une tendance mondiale.

Dans un premier temps, une des raisons qui nous a incités à déménager, à lancer ce projet, venait du fait qu’ici, c’est beaucoup trop grand pour les besoins actuels. L’ensemble de nos studios radio-télé est sous terre. Quand nous faisons des productions avec le public, les personnes arrivent de l’extérieur, elles ne voient pas nécessairement les studios, on doit les accompagner. Dans les environnements studio, ce n’est pas ce qu’on cherche. On veut vraiment de la proximité, si les gens ont envie d’entrer, ils entrent.

C’est une volonté importante, de se rendre beaucoup plus agiles, flexibles, visibles. Nous ne sommes pas propriétaires de cet édifice, notre compagnie n’est pas nécessairement efficace en gestion d’immobilisation d’immeubles, l’entretien de l’édifice de 1973 est important. Quand on combine l’ensemble des raisons et le coût de restauration, il devenait avantageux de déménager afin de répondre à des besoins futurs beaucoup plus concrets.

 

M. : Quel est votre calendrier ?

F.V. : La livraison de l’édifice devrait se faire en janvier prochain 2020, c’est une réduction en espace de deux tiers ; ici nous avons quelque 1,2 million pieds carrés (environ 365 000 m2), le nouvel édifice doit mesurer 418 000 pieds carrés (environ 127 000 m2), soit deux tiers plus petit. Ce sont environs 3 000 personnes qui vont déménager de cet environnement-là à l’autre. Nous allons commencer le déménagement progressivement à compter de janvier prochain. Il n’y a pas de réduction des effectifs.

L’installation d’une grosse partie de l’infrastructure a déjà commencé. Nous avons un data center, une salle d’équipement technique qui représente aussi un tiers de la superficie. En termes de racks, ici on compte 465 racks ; dans le nouvel édifice, on va en avoir autour de 155. Nous avons dû revoir les façons de penser, de travailler, au niveau du design, de l’infrastructure technique. Nous avons besoin d’énormément moins de racks pour couvrir les mêmes besoins.

Nous allons déménager show par show et non pas par département, pour être sûrs que chacun des besoins pour chaque show soit comblé et assurer une continuité avec un minimum d’impact. Dans la préparation du déménagement, nous veillons à ne pas trop perturber les façons de faire. Les modifications de travail, les regroupements d’emplois, ont été entrepris longtemps à l’avance. Pas nécessairement dans la perspective d’un déménagement, c’était fait dans le but de se moderniser, mais cela rencontre les besoins actuels, on a recréé ces nouveaux processus de travail dans le nouvel édifice.

 

M. : Les collaborateurs sont impliqués…

F.V. : Exact, mais nous n’avons pas voulu travailler sur trois fronts, changer d’édifice, la façon de travailler, la technologie, on a trouvé que c’était déjà trop en soi ! Des employés vont perdre leurs bureaux, il n’y aura plus de bureau dans le nouvel édifice, tous vont être en bureaux ouverts, c’est un changement de culture. Nous avons dû attaquer sur trois fronts, trois leviers : le premier, la construction même de l’édifice ; le deuxième, la technologie ; le troisième, le « change management », pour nous assurer que nous sommes capables d’emmener 3 000 personnes dans un environnement différent.

 

M. : Il y aura moins de niveaux…

F.V. : Il n’y aura plus de sous-sol, juste un petit garage. L’édifice est en trois blocs, un bloc de sept étages, qui est le côté nord de l’édifice, connecté par des passerelles et par un atrium ; un autre de quatre étages ; puis, connecté à ceux-ci, il y a ce que l’on appelle l’aire technique, le data center, qui est en arrière.

 

M. : Combien de plateaux, de studios comptera le nouvel édifice ?

F.V. : Nous avons beaucoup réduit leur nombre. Nous allons avoir trois plateaux de télé conventionnels, dont un grand studio ; le reste, ce sont des plateaux multifonctions qui vont servir à toutes les sauces : productions web, diffusion du midi, captation radio en public. Nous avons cherché à disposer d’aires multifonctionnelles, à pouvoir partager l’infrastructure. Le partage de l’infrastructure faisait partie des critères qu’on devait pondérer dans le design. Les Nouvelles, fer de lance de notre stratégie, restent sensiblement pareilles. Il y aura quatre plateaux Nouvelles, quatre régies Nouvelles avec multiplateau. Les Nouvelles sont notre premier gros secteur ; la radio, le deuxième gros secteur ; pour le web, des développeurs essentiellement, c’est surtout de l’espace bureau qui est requis.

 

M. : Vous faites de la radio filmée ?

F.V. : Nous avons commencé à faire de la radio visuelle il y a quelques années, cela prend de plus en plus d’intérêt, surtout pour alimenter le web. Il va y avoir des caméras dans l’ensemble des régies radio, mais le déploiement va continuer à se faire au fil des années en fonction des besoins, des opportunités qui se créeront autour.

 

M. : À quand remontent vos premières réflexions sur la nouvelle architecture technique ?

F.V. : Le déménagement a été annoncé officiellement en 2012. Il devait intervenir en 2018, mais a été reporté à 2020. Contractuellement, il a été assez laborieux de trouver un constructeur et de modéliser un Business Case financier qui tienne la route pour les besoins de l’entreprise. Cela a été un peu plus long que prévu. Je dirais, sérieusement parlant, qu’en 2017 nous nous sommes demandé si nous allions bâtir une infrastructure conventionnelle HD SDI, quitte à être les derniers au monde à le faire, ou nous lancer dans une technologie IP. Nous avons opté pour la technologie IP.

 

M. : Quelles difficultés avez-vous rencontrées ?

F.V. : À l’époque, il y a vingt-quatre mois, il y avait encore beaucoup d’inconnues. Alors, nous avons collaboré avec l’EBU en Europe, le NABA aux États-Unis, certains partenaires broadcasters à travers le monde. Nous avons suivi des Proof of Concept (POC) réalisés ailleurs. Je dirais que IBC 2018 a été un déclencheur, parce que nous avons vu que notre projet était faisable en IP. Nous avons vraiment statué et lancé nos appels d’offres en conséquence, sachant que nous avions des critères de base : nous voulions une infrastructure IP évidemment, et que ce soit standardisé.

La norme SMPTE-2110 a été officiellement lancée par le SMPTE en novembre 2018, mais c’était dans l’air déjà à IBC 2018, on savait que c’était proche. On voulait que ce soit de l’équipement standard IT et non pas des équipements propriétaires, nous cherchions des applications virtualisables, software base, essentiellement des fournisseurs broadcast. Il y a une grosse tendance des fournisseurs à vendre encore des solutions dédiées propriétaires, plutôt que nous fournir une solution purement software. Laquelle peut s’installer sur un ordinateur ou un serveur générique, utiliser du storage générique, fonctionner sur un réseau IT complètement générique, un switch de type Cisco, Arista ou Juniper.

Certains essais ont été réalisés ; plus que des essais, des projets ont été entrepris au Luxembourg par BCE, qui a fait certaines avancées ; en Australie par la NEP. La BBC évidemment a plus de difficultés, mais a accompli d’énormes avancées. Cela nous a rassurés sur la viabilité, la faisabilité d’une solution complètement IP.

Au niveau des consoles audio-radio, nous avons trouvé l’ensemble des produits dont nous avions besoin ! Le marché de l’audio, de la radio est encore très niché ! Malgré tout, nous avons trouvé l’ensemble des parties, des voies de contournement pour les points qui manquent parce que quand on est précurseurs, tout n’est pas là ! C’est la raison pour laquelle on reçoit l’EBU, pour influencer les autres broadcasters qui vont faire les mêmes choix. Eux vont avoir les mêmes besoins et puis nous cherchons à ce que ces voix-là s’ajoutent à la nôtre pour influencer l’industrie et le développement.

Tout le réseau IP que nous montons est du IP standard, tous ces équipements peuvent être utilisés pour n’importe quelle autre fonction si besoin est. Si la télévision linéaire se dégrade ou disparaît, l’infrastructure en place est tout à fait capable de prendre n’importe quel autre format ou autre besoin. C’est cela qui nous semble intéressant, le réseau est très flexible, très agile, multi-usage et il compte beaucoup moins de câbles ! C’est impressionnant, c’est juste la fibre optique qui a une capacité de transport décuplé, comparé au bon vieux coaxial où c’était du point à point avec un seul signal. Dans notre nouvel édifice, nous avons notre data center avec nos routeurs. On se rattache optiquement plus près de nos flux de production, à travers une salle de télécom où on installe seulement un petit switch traditionnel cuts et on est capable de joindre l’ensemble de nos régies.

 

M. : Et du coup, en termes de marques, quels ont été vos choix, côté constructeurs ?

F.V. : Notre choix remonte à près d’un an. À l’époque, on cherchait un outil d’administration qui fonctionnerait selon nos preuves de concepts. On en a trouvé un qui agissait selon nos besoins, nos capacités, la quantité de ports qu’on avait à gérer. C’est Lawo qui a été choisi comme broadcast controler (VSM), avec Arista comme switch et les gateways qu’on utilise pour convertir du HD-SDI en SMPTE-2110, c’est essentiellement du Embrionix.

La beauté de la solution Embrionix, ce sont les petits SFP. Les SFP entrent dans le châssis même des switchs, et si l’interface devient 2110 natif un jour, on change les SFP, on met un port optique. C’est très flexible, facile à gérer, mécaniquement ; virtuellement, c’est autre chose, c’est un des défis : comment gère-t-on l’augmentation astronomique d’adresses IP, c’est une expertise qu’il faut développer en interne. Il y a également des consoles audio Lawo.

Nous sommes l’intégrateur, nous n’avons pas d’intégrateur externe. L’avantage est que nous nous devons de comprendre profondément nos produits. Nous sommes ainsi capables de challenger l’ensemble de l’industrie technologiquement parlant, sur ce que ça fait, ou cela devrait faire ou ce qu’on veut que cela fasse. Je trouve cela intéressant, mais cela prend du temps. Être « early adopter » demande des compétences internes pour être capable de le supporter. C’est un peu le prix à payer par les précurseurs d’une technologie donnée.

 

M. : Combien de personnes en technique ?

F.V. : Le groupe d’ingénierie compte environ 160 personnes ; moi, je suis à la tête de ce groupe. Il y a un groupe d’opération, de soutien de maintenance, qui tourne autour de 500 personnes dans le pays, ce qui est quand même assez significatif. Eux, doivent maintenir l’édifice actuel et nous supporter dans le déploiement du futur parce qu’ils devront supporter ces équipements-là. Pour être en mesure d’investir dans l’équipement de l’autre côté, nous avons dû arrêter d’investir ici en 2012. Quand le déménagement est devenu une réalité, nous avons mis à jour l’ensemble des équipements et de l’infrastructure dans l’optique de ne presque plus rien toucher jusqu’au déménagement. Autrement dit, les derniers cinq ans, nous avons réalisé ici un minimum d’investissements.

 

M. : En ce qui concerne le reste du matériel de la partie News, vous reprenez tout ce qui est ici ?

F.V. : Nous ne reprenons presque rien, tout sera bâti. Premièrement, parce que je dois rester en opération ! Nous avons vraiment déprécié l’ensemble de nos équipements, c’est la stratégie qu’on a prise, pour bâtir du nouveau, à même nos coûts normaux, coûts de l’opération et coûts budgets capitaux normaux. Aucun argent supplémentaire gouvernemental n’est attribué pour l’édifice, tout s’est fait en intérieur, des budgets opérationnels et des capitaux de Radio Canada. Évidemment, il y a eu un focus qui s’est fait, nous avons mis toutes nos billes ici pour deux ans. On fait le minimum partout ailleurs au Canada, mais c’est une décision d’entreprise. C’est pourquoi nous devons quitter assez vite ce lieu pour être capables de passer à autre chose, parce que nous avons d’autres choses à faire dans le pays !

 

M. : Au niveau des salles de newsroom, du montage, des caméras, quelles sont les marques, les constructeurs, que vous avez sélectionnés ?

F.V. : En fait, on a beaucoup automatisé nos processus de productions des Nouvelles. On fait des productions avec des équipes en régie d’une à quatre personnes, tout est très automatisé. Plus que de simplement répliquer, nous avons développé, déployé ce système à travers tout le Canada anglais-français. Nous utilisons la même technologie partout, avec la même automation, nous faisons même de la régie à distance. Les régions, comme Edmonton, dont je parlais plus tôt, n’ont plus de mélangeur local ; le mélangeur est soit à Toronto, soit à Vancouver ou Ottawa. La raison est simple : nous avons réduit de six régies à travers le pays en centralisant et en optimisant nos fuseaux horaires. Ils sont entre trois et quatre selon les saisons, et on est capable d’utiliser nos mêmes équipements. Tout le monde fait le dix-huit heures, l’heure topo des Nouvelles en direct, mais dix-huit heures avec la Time Zone… Cela nous a permis de réduire beaucoup l’empreinte technologique, en particulier en région.

 

M. : Pour le moment, vous restez HD, Full HD…

F.V. : Oui, absolument, la 4K on en parle évidemment pour le nouvel édifice, mais même la production n’en a pas tellement besoin, compte tenu que nous sommes essentiellement Nouvelles. Et que l’acquisition n’est pas tellement là ! Si on veut acheter du contenu 4K, ce n’est pas encore tout à fait là, la distribution n’est totalement pas là. Au niveau de la distribution ou des solutions satellitaires, nos antennes hertziennes sont HD, et il n’est pas dans les plans de modifier cela pour être compatible pour une diffusion 4K.

Pour l’instant, il n’y a cette attraction nulle part au Canada, et pas juste à Radio Canada. Les privés, non plus, n’ont pas cet appétit. Les privés font face comme nous à la baisse des revenus publicitaires. Du coup, beaucoup de questionnements se posent au niveau du hertzien. Le Canada est un grand pays, les gens sont très peu hertziens, ils sont tous câblés ; 80 à 85 % des Canadiens sont câblés à la maison. C’est dur d’avoir les chiffres exacts, mais on estime le taux de pénétration des antennes hertziennes autour de 5 %, inférieur à 6 %. Aux États-Unis, c’est complètement différent. Au Canada, compte tenu de la grosseur du territoire et du peu de population, je dirais que la tendance semble plus de rester connecté avec des câblodistributeurs.

 

M. : Et pour les JO, vous avez de l’OTT, de la VOD ?

F.V. : Les deux, on a du live, 110 sources à ramener, on a une équipe très restreinte que l’on envoie depuis qu’ont eu lieu les JO d’Athènes. Nous avons commencé à réduire énormément nos déploiements à l’extérieur des jeux, tout ce qui est source se ramène au centre de Toronto ou Montréal et les productions se font là, même le live, même remote. Nous avons déjà nos OTT pour nos besoins internes anglais et français, mais spécifiquement pour les JO nous envisageons même de développer notre propre OTT.

Le digital, au service français ici, est complètement dans le cloud chez Microsoft Azure, on est en migration, on était sur nos serveurs et notre capacité de stockage, nous sommes en train d’externaliser tout ça. Financièrement, la modélisation a fonctionné. Cela devenait rentable, compte tenu que c’est un contenu beaucoup moins lourd pour le web que pour la télédiffusion, de penser pousser dans le cloud. Cela procure un niveau d’agilité supérieur aux développeurs qui ont besoin d’être plus rapides dans leurs remplacements et développements produits. Évidemment, ce n’est pas nous qui faisons le Front Head, c’est Akamai qui fait le cache de l’ensemble de nos portails, de nos pages web ; eux sont équipés pour recevoir nos demandes.

Voilà à quoi ressemble notre infrastructure, on a encore en radio 754 antennes radio à travers le pays et à la télévision il nous reste 27 antennes télé HD qui ont été remplacées en 2012, c’est quand même assez récent. C’est pourquoi l’intérêt n’est pas tout à fait là pour la 4K !

 

M. : Quels défis pour l’avenir ?

F.V. : Un des gros défis actuels est le re-stacking des fréquences, je suppose que vous en avez entendu parler aux États-Unis où la vente des bandes 600 MHz a eu un gros impact. CBC/Radio-Canada est obligé de remplacer certaines fréquences parce qu’on est près des frontières américaines. Nous remplaçons certaines de nos fréquences pour accommoder la vente de fréquences qui s’est faite autant par le gouvernement canadien qu’américain, pour lesquelles les broadcasters canadiens doivent assumer à leur frais et sans compensation. Et le 5G qui arrive est à l’affût de nos bandes C qu’on utilise énormément pour les arrivées de feeds. On suit cela de près, avec la bande C nous alimentons le Grand Nord et l’ensemble de nos antennes parce que, sur 754 antennes, environ 100 sont dans un gros marché et les 650 autres dans des petits marchés éloignés ; il n’y a pas nécessairement de fibre optique, de réseau pour atteindre les antennes. Mon seul moyen pour alimenter les antennes est satellitaire ; de là, je redistribue en hertzien, mais c’est la bande C qui est utilisée.

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.44/48. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 25 novembre 2019 à 17:00
❌