Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierMediakwest - Broadcast

IA & microservices : Quortex crée des workflows de streaming optimisés pour le cloud

© Quortex

Quortex est une jeune société fondée en 2018 à Rennes. Elle a pour ambition de révolutionner la diffusion vidéo sur Internet en offrant des solutions basées sur les technologies IT les plus récentes et en optimisant les potentialités offertes par le cloud. Elle propose des workflows innovants basés sur les microservices en association avec des outils d’IA (Intelligence Artificielle). Rencontre avec son directeur technique, Jérôme Viéron.

 

Mediakwest : Pouvez-vous nous détailler les raisons de la création de Quortex ?

Jérôme Viéron : Avec les trois autres fondateurs, Marc Baillavoine, Thierry Trolez et Julien Villeret, nous sommes partis d’un constat très simple. Tous les grands acteurs de l’IT migrent leurs systèmes informatiques dans le cloud. Il y a un secteur où cette tendance reste timide, c’est celui du broadcast.

Nous pensons que cela est dû au fait que les diffuseurs ont voulu transférer directement les workflows et leurs applicatifs qui tournaient sur leurs équipements On Premise (sur site) à l’identique sur des machines virtuelles dans le cloud. Hélas les économies annoncées n’étaient pas au rendez-vous. Un soft monolithique qui tourne dans le cloud coûte plus cher que son usage en interne. D’autre part un encodeur software n’a pas un fonctionnement linéaire. Il consommera 10 % de la ressource machine pour un profil ; si on passe à deux traitements, ce sera 30 % et parfois avec trois profils on risque d’atteindre 90 %. Par sécurité on dimensionne largement la capacité CPU, ce qui augmente d’autant la facture totale sans réellement l’exploiter.

La diffusion OTT exige aussi de démultiplier les versions d’un même contenu pour tenir compte des profils adaptés à chaque catégorie de terminaux, avec des codecs potentiellement différents, des débits variables selon les modes d’accès et aussi un packaging distinct, HLS pour Apple ou bien Dash pour le web ou Windows. Il n’est pas rare de préparer le contenu dans trente versions distinctes, et donc toujours plus de stockage à la fois dans le système de diffusion et dans les CDN (Content Delivery Network). Beaucoup de ces versions ne seront même pas consultées.

Sur certains catalogues de VOD en France, moins de 10 % des contenus dupliqués sont réellement regardés. Avec nos solutions, nous souhaitons ne mettre en ligne que ce qui est vraiment regardé, en profitant au maximum des potentialités techniques apportées par les services de cloud, avec des développements basés sur les microservices fonctionnant en mode sans état ou « stateless » et en exploitant des machines préemptives.

 

M. : Comment avez-vous adapté ces outils au monde de la vidéo ?

J.V. : Tous nos workflows sont découpés en tâches élémentaires : adaptation de la résolution, compression, sous-titrage, packaging… Pour chacune d’elles, nous créons des microservices que nous développons nous-mêmes ou en reprenant des outils disponibles sur le marché. Le principe de tous nos workflows est le suivant : le fichier vidéo est découpé en « chunks » (tronçons) ou segments de 2, 4 ou 6 secondes. Chacun est traité à chaque étape du WF par un microservice indépendant lancé en mode « stateless ».

Comme c’est un service web, cela permet de le lancer sur n’importe quelle machine, juste à côté ou à l’autre bout du monde, et sur n’importe quel OS ou dans un environnement distinct. Comme il fonctionne en mode « stateless », une requête avec les paramètres nécessaires est envoyée au microservice qui va lancer les ressources nécessaires pour exécuter la tâche qui lui a été affectée. Quand il l’a terminée, il renvoie un message de bonne fin pour enchaîner l’étape suivante du workflow avec un autre microservice. Chaque microservice réalise juste la tâche dont il est chargé et disparaît après.

Avec le mode « stateless », similaire à celui des requêtes http lancées par un navigateur web, le microservice ne renvoie qu’une réponse de bonne exécution sans aucune information sur le déroulement de la tâche ou son environnement de travail. Si le volume des tâches à exécuter augmente soudainement, on peut lancer autant de microservices que nécessaire sans craindre un engorgement, comme dans le cas des applications traditionnelles qui fonctionnent en mode « stateful ». Cela nous offre une scalabilité (ou évolutivité) beaucoup plus facile à gérer. Si on a besoin du même microservice, on le relance à nouveau avec un reset complet et on repart sur des bases saines.

 

M. : Vous y associez aussi l’intelligence artificielle (IA) et le deep learning.

J.V. : Notre objectif, c’est d’utiliser de manière optimale les ressources offertes par le cloud. L’IA et le deep learning nous servent à apprendre le comportement de nos microservices et en particulier des encodeurs par rapport au contenu. Ainsi, lors des futurs traitements, nous pourrons optimiser le paramétrage de nos outils et améliorer le « load balancing » entre toutes les fonctions : encodage, sous-titrage, packaging, etc. Nous ne le faisons pas en live, mais nous améliorons nos modèles au fur et à mesure lors des mises à jour.

Comme je l’ai expliqué au début, actuellement les plates-formes de diffusion multiplient les versions d’un même programme qu’elles poussent ensuite vers les CDN. Nous préconisons de faire l’inverse et de travailler en mode « pull ». C’est au moment où un spectateur demande une version particulière que nous préparons à la volée la copie du contenu selon les spécifications de son terminal. Le workflow ne se met en route que quand quelqu’un en fait la demande. Si une version d’un programme n’est pas demandée, aucune ressource n’est consommée, ni facturée. Ainsi nous ne préparons que les copies qui sont réellement demandées en mode « just in time ».

 

M. : Mais cela ne provoque-t-il pas un temps d’attente plus long ?

J.V. : Tout le monde nous pose la question. De manière générale aujourd’hui, sur n’importe quel système, la latence reste dans les mêmes ordres de grandeur. Nous sommes même capables de faire de l’ultra low latency et de diffuser en CMAF (Common Media Application Format). Il n’y a pas d’impact sur la latence et nos solutions offrent des performances du même ordre que les systèmes traditionnels.

 

M. : Pourquoi votre stratégie, basée entièrement sur le cloud, serait-elle plus économique ?

J.V. : Le ticket d’entrée pour aller sur le cloud n’est pas négligeable et c’est pourquoi les diffuseurs n’y vont pas aussi vite qu’annoncé. Nous pensons aussi que c’est parce que les utilisateurs portent leurs applicatifs monolithiques tels que sur des machines virtuelles. Le coût reste élevé parce qu’il y a du gâchis de ressources machines. Nos workflows reviennent moins chers car nous optimisons les ressources au sens CPU et que nous utilisons aussi des machines préemptives.

Tous les fournisseurs de cloud cherchent à optimiser leurs outils en termes de ressources et d’énergie. Pour cela ils proposent des machines quatre à dix fois moins coûteuses, mais qui en contrepartie peuvent « tomber » ou être stoppées à tout moment. Selon les fournisseurs, ce mode de fonctionnement a des dénominations différentes (Preemptible VM chez Google, Azure Low Priority pour Microsoft ou encore Spot Instances chez AWS) et avec des règles de suspension et de remise en route assez variables. C’est moins robuste qu’une VM classique, mais pour des applications bureautiques ou de gestion, cela est moins critique.

Dans le domaine du streaming, c’est plus problématique, mais avec nos solutions basées sur des microservices en mode « stateless », en cas d’interruption, les tâches accomplies sur une machine qui « tombe » sont très vite redistribuées sur une autre ou sur un cluster distinct. Quand une machine « tombe », on ne s’en rend pas compte.

Notre solution par construction est non seulement plus robuste, mais elle coûte beaucoup moins cher quand on choisit de la faire tourner sur du préemptif. En plus elle est parfaitement « scalable » (évolutive et élastique) car nous pouvons déporter un traitement sur un autre cluster, ou répartir le travail entre un système On Premise (sur site) et appeler les services cloud en complément. Il est également possible de jouer sur la répartition multizones et multirégions d’Amazon par exemple et de profiter des charges de travail variables en jouant sur les décalages horaires.

 

M. : Tous ces gains de performances et ces optimisations portent uniquement sur la partie diffusion. Sur les CDN vous ne pouvez pas intervenir ?

J.V. : Aujourd’hui, ce qui coûte cher c’est la partie CDN car la facture totale dépend du débit de sortie, du nombre de consultations et aussi du nombre de versions stockées en cache. Contrairement à l’hertzien, plus un programme a du succès sur Internet, plus sa diffusion coûte cher. D’autre part si le service de streaming prépare ses contenus dans le cloud, il paie pour la sortie des contenus de la plate-forme pour les envoyer au CDN. Donc il paie deux fois, et ça, c’est aussi un frein pour aller dans le cloud. Il préfère donc rester sur ses propres installations. Mais la situation est en train de changer. Les fournisseurs de cloud montent leurs propres services de CDN, comme Microsoft Azure, Google ou AWS avec Cloud Front.

Nous pensons chez Quortex que les deux fonctions, plate-forme de streaming et CDN, vont se fondre en une seule, ce qui réduira le coût du double transfert. Notre solution est déjà conçue pour fonctionner comme cela et permet d’anticiper cette évolution et de s’approcher de l’utilisateur avec le mode « edge ». Cela facilite aussi les traitements en étant beaucoup plus proche de l’utilisateur final, de ses demandes et de tenir compte des particularités locales. Avec un lien direct entre la diffusion et le CDN, il devient possible d’affecter plus de ressources pour l’encodage et la préparation des contenus et, du coup, de réduire les débits avec un facteur d’économie plus fort sur le segment du CDN. 

 

 

POSTFACE

Récemment, les travaux de Quortex ont été récompensés lors du 21e concours d’innovation I-Lab. Au printemps, le groupe M6 a choisi les workflows de Quortex pour sa plate-forme de streaming et en particulier 6Play. Les équipes de Quortex seront présentes à l’IBC 2019.

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.58/60. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 18 novembre 2019 à 17:00

Les fans contrôlent le son avec SupraLive ...

Conçue à l’origine pour les concerts, la solution SupraLive (Augmented Acoustics) s’applique désormais à tout événement live. © Augmented Acoustics

Quel spectateur n’a pas rêvé d’une intimité sonore avec l’événement, qu’il soit musical ou, en l’occurrence, sportif ? Cette expérience immersive est désormais possible grâce à la solution développée sous le nom de SupraLive par Augmented Acoustics, une start-up française qui soufflera en novembre prochain ses cinq bougies.

 

Si, pour l’heure, « SupraLive est un service VIP, réservé notamment aux habitués des loges dans les stades connectés, notre objectif est de l’étendre au plus grand nombre d’utilisateurs, dont les déficients sensoriels », prévient d’emblée Stéphane Dufossé, CEO.

Conçue à l’origine pour les concerts (le service a déjà été exploité sur plus de 125 d’entre eux) afin de permettre aux spectateurs équipés d’un casque et d’une application smartphone d’être au plus près des artistes sur scène grâce à l’interaction multipiste immersive, la solution s’applique désormais à tout événement live.

Ainsi, de la même manière qu’un mélomane peut s’imprégner du jeu de basse en l’écoutant en solo, le spectateur d’un match de foot pourra, en fonction de la disponibilité des sources, éliminer les cris du public adverse, choisir son commentaire, s’il est étranger, ou supporter de l’un des deux camps, voire celui exclusif d’une personnalité pour une expérience premium unique, ou encore entendre les sons du terrain, tels les consignes du banc de touche ou l’intercom des arbitres, pour une meilleure compréhension de l’événement. En résumé, faire son propre mix en temps réel, tout en respectant le travail de l’ingénieur du son.

« Ce que nous proposons, c’est une écoute alternative haute définition en multipiste, sans compression et sans latence. Pour cela, nous utilisons un émetteur C-MA4 qui se connecte à la console de l’ingénieur du son. Ce son “sortie de console” est délivré aux spectateurs via un boîtier contenant l’intelligence du système qui permet de garantir la qualité de service et de corriger la latence en live », détaille Stéphane Dufossé.

Dans le cas d’une retransmission à distance, l’enjeu de latence est différent, mais il en existe un autre : la synchronisation du son multipiste de SupraLive avec le flux vidéo, alors que les deux sources empruntent des canaux distincts. Pour résoudre ce point, « nous utilisons le même principe qu’en live sur le lieu de l’événement. Cela a d’ailleurs fait l’objet d’un dépôt de brevet », se contente de préciser le responsable.

Avec le déploiement prochain de la 5G, la solution va pouvoir s’affranchir du boîtier et Augmented Acoustics proposer le service directement via un téléphone mobile, ce qui va permettre d’étendre son accès au monde entier.

« Aujourd’hui, nous utilisons un boîtier pour qu’il n’y ait pas de décalage entre le son reçu dans le casque de l’utilisateur et le son externe. En live, on ne peut pas se permettre d’attendre que les paquets arrivent. »

Maintenant, poursuit Stéphane Dufossé, « ce qui, pour l’heure, n’est pas possible en wi-fi et 4G sans le boîtier le sera en 5G, grâce au découpage du réseau mobile en tranches (network slicing), qui permettra l’allocation de ressources dédiées pour chaque service, et à la faible latence. »

 

Extrait de l’article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.62/67. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 19 novembre 2019 à 17:00

Stockage : davantage de fluidité dans le pipeline vidéo d'Hiventy

Stockage : davantage de fluidité dans le pipeline vidéo d'Hiventy © DR

Créé en 1984, Hiventy regroupe aujourd’hui Monal (ex-CMC et LVT), RGB, Digimage, Mediadub, Sylicone et Captain Video. En France et à l’international avec des implantations à Varsovie, Ho Chi Minh-Ville et Singapour, Hiventy offre une gamme complète de solutions dans tous les domaines de l’audiovisuel et du cinéma : postproduction, restauration, localisation, deliveries et stockage. En 2018, le groupe, qui compte près de 270 collaborateurs, a réalisé un CA de 37 millions d’euros.

 

Dans le cadre de ses activités, qui nécessitent un volume colossal de données, Hiventy s’appuie historiquement sur deux infrastructures distinctes : d’une part une infrastructure dite de « stockage chaud » pour le traitement des projets en cours, et d’autre part une infrastructure de « stockage froid » pour l’archivage des projets déjà réalisés.

En phase d’accélération et pour faire face aux besoins liés aux nouvelles technologies audiovisuelles, et notamment le développement de la 4K, Hiventy lance en 2018 un projet de refonte totale de son infrastructure à chaud, nécessitant des temps d’accès réduits.

Pour le renouvellement de cette infrastructure dédiée aux projets en cours, dans laquelle les données ne restent que le temps d’être rapidement traitées ou transférées, Hiventy doit faire face à deux contraintes majeures : disposer d’une capacité disponible suffisante, soit environ 800 To, et avoir une bande passante capable de répondre aux enjeux de fluidité tout au long des processus de création et de livraison des projets.

 

Fluidité et volumes adaptés à l’audiovisuel avec Isilon nouvelle génération

Préalablement doté d’une infrastructure Isilon d’ancienne génération, et après une démonstration par Dell EMC des dernières versions de la technologie, Hiventy fait le choix de conserver une infrastructure Isilon : « la technologie Isilon répondait en tout point à notre besoin de disposer d'un environnement de stockage de données non-structurées offrant en même temps un stockage partagé et des performances maximales pour le traitement des supports numériques travaillés, sans créer de contraintes dans la chaîne de valeur », explique Gilles Lebon, DSI d’Hiventy.

Car au-delà des volumes et de la performance souhaités, l’évolutivité de la solution mise en œuvre est aussi une caractéristique primordiale dans un contexte d’augmentation de la taille des fichiers vidéo, liée notamment à l’accroissement des définitions d’image.

 

Un accompagnement complet par MTI

Pour l’accompagner dans la construction de sa nouvelle infrastructure, Hiventy se tourne vers l’équipe MTI France. Au terme de l’analyse préalable, MTI confirme le besoin d’une solution à la fois performante et « scale out », capable d’accompagner Hiventy dans ses évolutions métiers et la croissance de ses activités.

Concrètement, MTI définit une infrastructure basée sur un cluster de 8 nœuds de la gamme Isilon H500, offrant une capacité d’environ 800 To, sur un mix de disques rotatifs et Flash. La mise en œuvre devant quant à elle être très rapide, en prévision du lancement de la plateforme Amazon Prime en France, dont Hiventy est partenaire.

Outre la gestion de projet en amont (phase 0), le déploiement de la solution par les équipes MTI s’est réalisé en 3 étapes : mise en œuvre du cluster H500, migration des nœuds de l’ancien vers le nouveau cluster et enfin validation du bon fonctionnement, transfert de compétences et recettes. « L’équipe MTI, composée de 3 personnes, a parfaitement répondu à nos attentes » poursuit le DSI : « en 2 mois, notre nouvelle infrastructure était opérationnelle pour l’ensemble de nos collaborateurs, et hébergeait l’ensemble des fichiers de nos projets en cours, soit environ 400 To ».

 

Une adoption réussie de la nouvelle solution et de nouvelles perspectives envisagées

Et le premier constat est sans appel : d’une baie et demi pour l’ancienne infrastructure, la nouvelle n’occupe plus que 2 châssis 4U, soit un gain de place et d’énergie considérable. Les utilisateurs, quant à eux, ont gagné en fluidité, jusqu’à pouvoir travailler avec plusieurs flux 2K en direct ainsi que certaines configurations 4K et ce, sans besoin d’en télécharger une copie en local. « Certains de nos utilisateurs, qui disposaient pourtant d’un produit dédié au travail "à chaud", ont même fait le choix de migrer sur Isilon » s’enthousiasme Gilles Lebon.

Pour compléter son infrastructure, de nouveaux projets sont déjà à l’étude chez Hiventy. Parmi lesquels la création d’accès distants aux postes utilisateurs mais également la mise en œuvre de solutions de sécurité supplémentaires. « Des projets pour lesquels les équipes MTI seront bien sûr sollicitées : la compréhension de nos métiers, de nos enjeux et de nos contraintes dont ils ont fait preuve nous ont particulièrement séduits », conclut Gilles Lebon.

  • 19 novembre 2019 à 17:00

Un trophée SATIS pour le projet d'intégration du BTS Audiovisuel Henri-Martin de Saint-Quentin

Un trophée SATIS pour le projet d'intégration du BTS Audiovisuel Henri-Martin de Saint-Quentin © Emmanuel Nguyen Ngoc

En passant de la SD à l’IP, le BTS Audiovisuel Henri Martin préfigure ce que devrait être à l’avenir un BTS Audiovisuel, à savoir une architecture hybride ouverte sur le futur... Cet ambitieux projet d'intégration, réalisé par BCE France, vient de se voir décerner un Trophée SATIS/Mediakwest 2019 par la rédaction. L'équipe pédagogique de ce BTS nous ouvre les portes de son établissement... 

 

Un investissement de 2 millions d’euros a permis une rénovation en profondeur des équipements de ceBTS Audiovisueavec une approche IP et une interconnexion entre les équipements pour que, depuis n’importe quelle salle, il soit possible d’avoir accès aux médias. Un BTS Audiovisuel est sans doute plus complexe dans son architecture et ses moyens techniques à équiper qu’une chaîne de télévision ou un prestataire technique.La technique doit rester au service de la pédagogie et faciliter l’apprentissage sur différentes typologies de matériel ; ce dernier doit être robuste, simple à appréhender par les élèves et dans un budget contraint...

 

Qu’est-ce qu’un BTS Audiovisuel ?

Le BTS Audiovisuel est un diplôme de haut niveau mis en place par le ministère de l’Éducation nationale et reconnu sur le plan national et international. Les sections accueillent des étudiants venant de toute la France, mais aussi de l’étranger. Dispensée par des professeurs et des professionnels, la formation associe théorie et pratique. Les étudiants sont confrontés directement avec le matériel lors de travaux techniques et d’exploitation et pendant les cours de mise en œuvre et de réalisation qui se déroulent sous forme d’ateliers.

Le BTS Audiovisuel du lycée Henri-Martin de Saint-Quentin (Aisne) a été ouvert il y a 30 ans, en 1989, et s’est développé, au fil des années, par étapes successives. Il y avait une première option puis une seconde, et au fil de l’eau, de manière empirique, sans grosses subventions, il a pris de l’ampleur « Nous avions commencé à 12 élèves et nous sommes arrivés à plus de 120. Les dernières installations avaient 15 ans. Il y avait une équation à résoudre entre l’enseignement, le matériel disponible et le nombre d’élèves. La Région Picardie, en 2004, a débloqué des fonds à hauteur d’un million d’euros, mais 15 ans après le matériel était devenu obsolète. La technologie a évolué rapidement et, pour la Région, renouveler la subvention représentait une enveloppe énorme. Entre temps, il y a eu une fusion des régions et après maints reports nous avons pu enfin bénéficier d’une subvention de la région des Hauts-de-France qui a permis cette évolution », souligne Jacques Tabary, proviseur du lycée Henri-Martin.

Le BTS Audiovisuel Henri-Martin de Saint-Quentin est exemplaire à plus d’un titre. Outre ses nouvelles infrastructures, il est aujourd’hui l’un des rares établissements du service public à proposer les cinq options et avoisine les 100 % de réussite à l’examen chaque année. Pour se donner une idée de la sélection, c’est 5 700 dossiers reçus pour 75 places (sélection via Parcoursup).

Le BTS AV occupe principalement le rez-de-chaussée d’une partie de la cour d’honneur du lycée (partagée avec les Lettres Sup). Le lycée, de style napoléonien, même s’il impose quelques concessions en termes d’ergonomie des salles (le bâtiment est classé), est magnifique. Le BTS occupe plus de 1 200 m2 et comprend de nombreuses installations techniques. La complexité des locaux est d’être dans des bâtiments historiques, il faut les adapter à la technique sans toucher à la structure ! Ce qui demande de l’ingéniosité, mais aussi permet aux étudiants de réaliser de nombreux exercices pratiques (montage/démontage).

 

Retour en arrière

Le BTS AV du lycée Henri-Martin est l’un des plus importants de France. Il accueille quinze élèves par classe, comporte cinq options. Il y a quatre ans, le BTS a repris une partie d’un BTS créé à Amiens en apprentissage avec option Montage. Depuis, il intègre également une filière apprentissage en option image et l’année dernière a été ouverte une licence pro Postproduction Son.

L’idée de la Région, sous l’impulsion de son président Xavier Bertrand, fut de doter le BTS de ce nouveau matériel en l’amortissant sur le BTS, l’apprentissage et la licence pro. Une fois la subvention votée, les choses commencent, il faut rédiger un cahier des charges en phase avec les problématiques actuelles et futures.

« Il est très complexe pour nous de connaître le cahier des charges des besoins, et les professeurs n’ont pas la connaissance de toutes les innovations. Nous avons demandé à BOB (Boîte à Outils Broadcast), une entreprise spécialisée et professionnelle, de nous aider à rédiger ce cahier des charges », indique José Delclitte, intendant du lycée.

La société BOB les a accompagnés durant les 19 mois du projet. De manière préliminaire, avec un audit comprenant une visite des locaux, une rencontre avec les enseignants, un audit des besoins techniques en fonction des besoins pédagogiques et la définition d’une enveloppe budgétaire. Puis la rédaction proprement dite du CCTP consistant à assurer la coordination du groupe de travail dédié à l’écriture du marché, la phase de sourcing dans sa dimension financière et technique, la rédaction du CCTP et de l’allotissement du marché et le cadrage financier du marché. Enfin, l’appel d’offres incluant la visite des locaux avec les soumissionnaires, réponses aux questions et assistance à l’analyse des offres. La société BOB a également suivi l’exécution des travaux, le déploiement des matériels…

L’appel d’offres a été remporté par BCE France. Outre la dimension financière, importante dans ce genre de projet, c’est sans aucun doute la dimension humaine et d’écoute qui a prévalu.

« Tout s’est fait en liaison étroite avec les professeurs, avec grande implication de l’équipe pédagogique. Les professeurs savaient ce qu’ils voulaient, mais avaient parfois une grande difficulté pour exprimer leurs besoins. Il faut prévoir une maîtrise d’ouvrage dans les budgets car nous n’avons pas la compétence en interne. Trop techniques, les acheteurs publics à la région n’ont pas cette compétence. Si nous n’avions pas eu le partenariat étroit avec BCE et la société BOB nous n’aurions pas pu arriver à un tel projet », insiste le proviseur.

Philippe Mauduit et Mikael Graignic, de BCE France, ont fait des déplacements au minimum toutes les deux semaines, que ce soit avant d’avoir remporté l’appel d’offres, mais aussi après. « Il faut être dans l’écoute, car il faut être capable de comprendre les besoins. Cyril Mazouër a fait un travail remarquable pour définir les besoins, mais il était important pour nous d’écouter les professeurs s’exprimer avec leurs propres mots. Nous nous réunissions souvent dans la salle des professeurs ou dans une salle de réunion à l’étage de l’administration pour parler avec les enseignants. Je pense que ce relationnel et la souplesse que nous avons introduite dans ce projet a permis que tout se passe bien, sans heurts ni problèmes », souligne Philippe Mauduit, président de BCE France. Les équipes de BCE France étaient présentes régulièrement pour assurer le câblage, les installations des matériels, en synergie avec les enseignants et Cyril Mazouër.

Le projet de mise à jour des installations du BTS Audiovisuel, pour la partie déploiement, s’est déroulé de décembre 2018 à mai 2019. Un exercice difficile comme l’évoque José Delclitte : « Le renouvellement des équipements s’est fait pendant une période de fonctionnement du BTS. Le matériel a commencé à être installé fin 2018, cela coïncidait avec les premiers examens. Il fallait jongler entre l’ancien matériel et le nouveau, sans être en rupture avec le référentiel du programme des cours. Dans ce genre de dossier, on ne peut pas dire « Je vais gérer une partie du matériel avec un premier lot et faire la suite plus tard », il faut tout faire d’un coup, il faut traiter l’ensemble de la chaîne. »

« Il n’y a pas forcément de cohérence totale dans les matériels déployés, mais il faut apprendre sur les nouvelles technologies et les plus anciennes. Cette disparité de matériel est nécessaire pour se faire la main sur tout type d’outil », poursuit Philippe Mauduit.

La mission d’AMO (Assistance à Maîtrise d’Ouvrage) pour le compte d’un BTS Audiovisuel public est très différente d’une mission d’assistance classique. Lorsque l’on enseigne au sein d’un BTS, l’année scolaire est très chargée et les occasions de travailler aux côtés de professionnels sont rares. On peut ainsi très rapidement se retrouver déconnecté du monde professionnel sans s’en rendre compte. Il est indispensable d’aider les enseignants à prendre conscience de la réalité du terrain.

Le BTS Audiovisuel était encore en SD ; c’est donc un saut de géant qu’il vient de franchir en passant en HD, HDR et infrastructure IP. Certains enseignants voulaient passer en 4K, mais il était plus pédagogique de s’intéresser au HDR qui permet de se confronter à de nombreuses problématiques.

Idem pour le choix de l’IP, comme l’indique Cyril Mazouër : « Cette partie du projet a eu lieu en 2017. À cette époque, la norme 2110 n’était pas encore sèche, mais il nous paraissait important de nous y intéresser. Il n’a pas été facile de trouver les produits pouvant entrer dans l’enveloppe budgétaire et s’insérer au cœur d’une installation majoritairement SDI. Plusieurs aspects nous ont conduits à ces choix. Déjà, il était trop tôt pour faire une installation 100 % IP, et de toute façon, il n’y avait pas le budget pour ça. Mais surtout, autant il est indispensable de former les étudiants sur l’IP, autant il n’est pas possible de faire l’impasse sur le SDI, qui ne va pas disparaître du jour au lendemain de nos régies. Il fallait également trouver des pistes de mutualisation d’équipements, sans que cela n’impacte l’aspect pédagogique. »

 

L’architecture

Le BTS est à l’image d’une petite chaîne de télévision qui aurait une partie de production et de postproduction plutôt développée. La philosophie de l’ensemble repose sur une architecture hybride SDI et SMPTE 2110 avec un serveur EVS six canaux dans le nodal, les canaux se partageant entre les deux régies des deux plateaux. Le plateau principal, baptisé plateau vert, est le plus grand et comprend une régie fixe avec une grille SDI 64 x 64 et un réseau IP SMPTE-2110. Le serveur EVS est natif 2110, le mélangeur et le mutiviewer sont hybrides. Les autres équipements sont uniquement SDI (caméras, infographie…). Des convertisseurs IP/SDI permettent d’échanger les flux entre les deux mondes. Le convertisseur V_matrix de Lawo assure ces fonctions. Le châssis installé contient deux modules : un IPG 10/10 SDI et 20/20 IP, ainsi qu’un multiview 18/2 SDI et 24/8 IP.

Un contrôleur gère cette installation. Le VSM de Lawo permet de créer différents scénarios pour coller aux différents apprentissages des étudiants. Ainsi un étudiant débutant qui apprend à commuter la sortie d’une caméra dans un multiviewer ne sait pas réellement ce qui se passe. Lorsqu’il comprend mieux la technique, et grâce à un panel virtuel, il peut découvrir les interactions entre les équipements.

« Sur une installation d’école, il est indispensable de rendre les choses pédagogiques. Pour des raisons de coût, il est de plus en plus rare d’avoir des patchs vidéo au sein des régies. Dans une école, notre expérience nous a montré que c’était indispensable. Cela permet aux élèves de visualiser par où passe un signal. Évidemment la partie IP n’est pas matérialisable de la même façon ; c’est pourquoi nous avons fait un travail d’équilibriste pour trouver les meilleurs compromis entre la pédagogie et la nécessité d’avoir de l’IP. »

La seconde régie, qui se trouve dans le plateau bleu, est mobile ; elle est utilisée pour des travaux pratiques de câblage. Pour que les étudiants comprennent facilement les liens entre les différents matériels, il a été décidé que cette régie serait en SDI. Elle comprend une grille 16 x 16, un mélangeur 2 M/E Ross Carbonite, quatre caméras et une tourelle, un poste vision. Rien n’est précâblé en vidéo. Les enseignants peuvent donc faire le choix de câbler tout ou partie de la régie en fonction des exercices prévus.

Cette régie est importante pour l’option Exploitation car il faut câbler, décâbler, recâbler. Le câblage d’une régie est une épreuve de BTS, et donc plus simple sur une régie mobile. Une fois les élèves maîtrisant la technologie, ils pourront échanger des données avec l’autre régie via une carte de conversion SDI/IP ou bien de récupérer des canaux du serveur EVS. Les deux régies permettent de travailler en mode duplex.

À chaque régie vidéo, est associée une régie son. Il y a la console principale (des consoles Studer et intercom RTS) et la console recyclée des anciens équipements avec ainsi la possibilité de faire travailler deux élèves en même temps. Cela permet aux élèves de première année de se former sur du matériel. Un Avid Pro Tools est associé aux consoles, ce qui permet de faire de la postproduction. Le plateau son comporte une troisième régie audio. Ce plateau permet de faire de la prise de son et un peu de live, de radio.

« Dans le BTS en option métiers du son, il est important d’avoir des cours sur de l’analogique et du numérique. Il faut se confronter aux différents cas de figure. Les élèves doivent aussi pratiquer de nombreux exercices de câbles. Il y a une table atelier sur laquelle il est possible d’amener une console quelle qu’elle soit et de la câbler », souligne Bastien Lenoir, enseignant son.

 

Réseau et pédagogie

Toutes les salles de classes et les régies, le nodal, les auditoriums sont reliés par un réseau KVM pour récupérer la commande des stations de travail en salle de cours. Les élèves ont accès à leur propre machine. Le stockage des machines est local, mais un serveur d’échange commun à toutes les machines est disponible. Il est possible en salle de cours de connecter, via le KVM, une machine sur un vidéoprojecteur et d’avoir, sur grand écran par exemple, un montage en cours, ce qui sur un plan pédagogique est assez unique. Autre point important, toutes les machines sont reliées en réseau Dante. Le réseau Dante est important, trente machines sont dessus.

Il y a une salle d’étalonnage HDR qui sert également de lieu de visionnage pour les documents de fin d’étude. La salle est en Blackmagic Da Vinci avec une surface de contrôle pour faire de l’étalonnage et toujours en lien avec le nodal via les KVM.

Le BTS AV comprend de nombreuses salles de montage. Des salles pour le BTS proprement dit et des salles pour la formation en alternance. Les salles de montage sont en liaison fibre et 10 Gbits vers le nodal. Il y a huit salles de montage pour le BTS et une salle avec quinze stations de montage pour l’alternance. Toutes les stations sont des Avid Media Composer. Il y a huit stations de postproduction audio stéréo, une en 5.1, et deux cabines speak. Comme énoncé précédemment, les machines sont sur le réseau Dante.

Le nodal comprend le serveur XS4K EVS, l’Avid Nexis, les grilles, les convertisseurs. En première année, les élèves doivent découvrir ce qu’est un réseau, un signal vidéo… « Ils commenceront à travailler sur l’IP en seconde année. Le dernier référentiel a huit ans et pour le moment il n’y a pas de cours prévu sur l’IP officiellement, mais il est fondamental de prendre en compte le réseau », indique Alain Gawlik, enseignant exploitation.

Outre les salles et les régies, sont disponibles des équipements de reportage image et son. Le magasin comprend des unités que les élèves doivent préparer pour aller sur le terrain. Il y a une salle de préparation des reportages, préparer le matériel et vérifier. On y trouve également un car régie qui sera ré-équipé en SD avec l’ancien matériel provenant de la régie du Plateau Vert.

 

Au final, la formation

La fin de l’installation a eu lieu en mai. Ce fut une opération à tiroirs, avec déplacement de certaines parties de matériels dans des locaux pour permettre aux élèves de continuer à travailler. BCE France a dû se plier à cette organisation. Il ne s’agissait pas juste de matériel, mais aussi de travaux dans les salles, que ce soit des créations de cloisons, de tirer des câbles, de la fibre. Les étudiants ont d’ailleurs aussi participé aux travaux de câblage.

« Nous faisions des points réguliers, avec les différentes options. Il fallait prendre en compte les besoins, les contraintes des uns et des autres pour avancer dans la bonne direction. Il n’y avait pas de chef de travaux, d’où un travail direct avec les enseignants », insiste Philippe Mauduit.

« Nous disposons de quinze enseignants en BTS AV sur la partie technique (vacataire, titulaire, contractuel…). Il n’y a pas de diplôme pour le BTS AV ; il faut compter sur des enseignants qui ont pu suivre ce type de formation, mais aussi sur des professionnels – par exemple nous avons un chef monteur qui vient de Canal+. Dans le cadre de ce projet, nous n’avions pas dimensionné la formation sur le matériel et sur les nouvelles technologies qui y sont liées comme l’IP. Bien évidemment, BCE a formé aux outils, au-delà même de ses prérogatives, mais ce n’est pas suffisant. Il a fallu renégocier avec le rectorat et tous les organismes (formation initiale, alternance, licence) un budget supplémentaire de 30 K€ pour former les professeurs afin qu’ils puissent acquérir les compétences nécessaires à l’utilisation du matériel », poursuit Jacques Tabary.

La réforme du Bac en 2021 va dans doute impacter les BTS et une réforme devrait suivre. La preuve en est, les BTS vont passer de deux à trois ans. Comme dans l’université, il y aura une mise à niveau en première année. Tout le monde n’a pas le même niveau, il y aura un nouveau référentiel pour des mises à niveau et le numérique y prendra une part prépondérante, dont l’IP.

« Un projet doit bien se passer. Quel que soit le projet et cela s’est bien passé dès les premiers contacts. Les équipes de BCE France n’ont pas dit : « J’ai le savoir et c’est comme ça ! ». Ils ont su s’adapter en fonction de nos besoins. Nous sommes dans le cadre d’un marché public. Cela est très contraignant avec un cadre strict. Tout n’avait pas forcément été vu dans le détail et peut-être certains points ont-ils été oubliés, mais, chez BCE, ils ne se sont pas fermés par rapport à cela et ont été souples, au-delà même de ce qui était demandé dans le cadre du simple appel d’offres », conclut José Delclitte.

 

Les cinq options du BTS Audiovisuel Henri-Martin

• Gestion de production

• Technique d’ingénierie et exploitation des équipements

• Métiers de l’image

• Montage et postproduction

• Métiers du son

Article paru pour la première fois dans Mediakwest #33, p.78/82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 20 novembre 2019 à 17:00

CBC Radio Canada, en route vers le tout IP

Vue 3D du futur siège de CBC Radio Canada à Montréal. © DR

Le groupe CBC Radio Canada est l’un des premiers diffuseurs au monde qui passera début 2020 sur une architecture Full IP. Cette évolution correspondra également au déménagement dans un nouveau bâtiment moderne qui se situe à quelques centaines de mètres de la tour emblématique et historique de la chaîne. Nous nous sommes entretenus en exclusivité avec François Vaillant, directeur général, Solutions d’Ingénierie Infrastructure et Services Techniques Media CBC Radio Canada.

 

Mediakwest : Déjà, pour commencer, pourriez-vous nous présenter CBC Radio Canada ?

François Vaillant : Radio Canada est une société d’État, un diffuseur public de radio-télé-web dans les deux langues officielles du pays, le français et l’anglais. La société existe depuis les années 30, elle a été fondée peu après la BBC, son nom officiel est CBC Radio Canada. Nous couvrons l’ensemble du territoire canadien, certaines villes en Europe et en Asie, telles Londres, Paris, Moscou, Pékin, un peu l’Amérique du Sud et, bien évidemment, les États-Unis.

Pour le réseau anglais, l’ensemble de diffusion, est centralisé à Toronto, toutes les régions anglaises contribuent vers Toronto. Pour le réseau français, sa diffusion ainsi qu’une partie de sa production sont, elles, centralisées ici, à Montréal. Typiquement, nous comptons plusieurs chaînes de télévision et de radio, dans les deux langues. Nous avons aussi des chaînes radio en langues autochtones, locales, pour le Nord. Puis, nous avons nos plates-formes OTT, nos plates-formes web, nos applications en balado-diffusion, des chaînes spécialisées notamment sur les Jeux Olympiques pour lesquels nous avons acquis des droits. Le prochain événement de taille, évidemment c’est Tokyo, en 2020.

Notre mandat global est d’informer l’ensemble des Canadiens ; notre fer de lance, c’est l’information essentiellement. Nous faisons aussi de la production en divertissement, en dramatique, mais nous sommes plutôt sur de l’acquisition que de la création. L’ensemble des régions ne traite essentiellement que de l’information, laquelle alimente les trois plates-formes radio-télé-web.

 

M. : Disposez-vous de centres régionaux ?

F.V. : Oui, chaque région a sa régie ou son centre de production, mais la diffusion finale est envoyée à Toronto (pour l’anglais) ou Montréal (pour le français). À Vancouver, par exemple, les services français et anglais figurent dans la même station ; de même à Winnipeg et Regina ; en revanche, à Calgary, c’est seulement de l’anglais. Cela se fait un peu selon les marchés.

 

M. : Vous avez un gros projet sur Montréal, pouvez-vous nous en dire un peu plus sur sa genèse ?

F.V. : Le projet de Montréal va nous offrir l’avantage de nous regrouper dans un espace plus petit, de nous moderniser complètement, tant au niveau de l’infrastructure technologique que sur les moyens pour fabriquer les contenus. Nous avons décidé d’avoir une approche beaucoup plus près de nos auditeurs ou téléspectateurs. Les studios vont être accessibles et visibles de l’extérieur ou de l’intérieur. Ce sera beaucoup plus accueillant. La station est complètement vitrée, d’où de nouveaux défis au niveau de la production, de la luminosité essentiellement, mais c’est un grand désir. Vouloir se rapprocher des téléspectateurs me semble une tendance mondiale.

Dans un premier temps, une des raisons qui nous a incités à déménager, à lancer ce projet, venait du fait qu’ici, c’est beaucoup trop grand pour les besoins actuels. L’ensemble de nos studios radio-télé est sous terre. Quand nous faisons des productions avec le public, les personnes arrivent de l’extérieur, elles ne voient pas nécessairement les studios, on doit les accompagner. Dans les environnements studio, ce n’est pas ce qu’on cherche. On veut vraiment de la proximité, si les gens ont envie d’entrer, ils entrent.

C’est une volonté importante, de se rendre beaucoup plus agiles, flexibles, visibles. Nous ne sommes pas propriétaires de cet édifice, notre compagnie n’est pas nécessairement efficace en gestion d’immobilisation d’immeubles, l’entretien de l’édifice de 1973 est important. Quand on combine l’ensemble des raisons et le coût de restauration, il devenait avantageux de déménager afin de répondre à des besoins futurs beaucoup plus concrets.

 

M. : Quel est votre calendrier ?

F.V. : La livraison de l’édifice devrait se faire en janvier prochain 2020, c’est une réduction en espace de deux tiers ; ici nous avons quelque 1,2 million pieds carrés (environ 365 000 m2), le nouvel édifice doit mesurer 418 000 pieds carrés (environ 127 000 m2), soit deux tiers plus petit. Ce sont environs 3 000 personnes qui vont déménager de cet environnement-là à l’autre. Nous allons commencer le déménagement progressivement à compter de janvier prochain. Il n’y a pas de réduction des effectifs.

L’installation d’une grosse partie de l’infrastructure a déjà commencé. Nous avons un data center, une salle d’équipement technique qui représente aussi un tiers de la superficie. En termes de racks, ici on compte 465 racks ; dans le nouvel édifice, on va en avoir autour de 155. Nous avons dû revoir les façons de penser, de travailler, au niveau du design, de l’infrastructure technique. Nous avons besoin d’énormément moins de racks pour couvrir les mêmes besoins.

Nous allons déménager show par show et non pas par département, pour être sûrs que chacun des besoins pour chaque show soit comblé et assurer une continuité avec un minimum d’impact. Dans la préparation du déménagement, nous veillons à ne pas trop perturber les façons de faire. Les modifications de travail, les regroupements d’emplois, ont été entrepris longtemps à l’avance. Pas nécessairement dans la perspective d’un déménagement, c’était fait dans le but de se moderniser, mais cela rencontre les besoins actuels, on a recréé ces nouveaux processus de travail dans le nouvel édifice.

 

M. : Les collaborateurs sont impliqués…

F.V. : Exact, mais nous n’avons pas voulu travailler sur trois fronts, changer d’édifice, la façon de travailler, la technologie, on a trouvé que c’était déjà trop en soi ! Des employés vont perdre leurs bureaux, il n’y aura plus de bureau dans le nouvel édifice, tous vont être en bureaux ouverts, c’est un changement de culture. Nous avons dû attaquer sur trois fronts, trois leviers : le premier, la construction même de l’édifice ; le deuxième, la technologie ; le troisième, le « change management », pour nous assurer que nous sommes capables d’emmener 3 000 personnes dans un environnement différent.

 

M. : Il y aura moins de niveaux…

F.V. : Il n’y aura plus de sous-sol, juste un petit garage. L’édifice est en trois blocs, un bloc de sept étages, qui est le côté nord de l’édifice, connecté par des passerelles et par un atrium ; un autre de quatre étages ; puis, connecté à ceux-ci, il y a ce que l’on appelle l’aire technique, le data center, qui est en arrière.

 

M. : Combien de plateaux, de studios comptera le nouvel édifice ?

F.V. : Nous avons beaucoup réduit leur nombre. Nous allons avoir trois plateaux de télé conventionnels, dont un grand studio ; le reste, ce sont des plateaux multifonctions qui vont servir à toutes les sauces : productions web, diffusion du midi, captation radio en public. Nous avons cherché à disposer d’aires multifonctionnelles, à pouvoir partager l’infrastructure. Le partage de l’infrastructure faisait partie des critères qu’on devait pondérer dans le design. Les Nouvelles, fer de lance de notre stratégie, restent sensiblement pareilles. Il y aura quatre plateaux Nouvelles, quatre régies Nouvelles avec multiplateau. Les Nouvelles sont notre premier gros secteur ; la radio, le deuxième gros secteur ; pour le web, des développeurs essentiellement, c’est surtout de l’espace bureau qui est requis.

 

M. : Vous faites de la radio filmée ?

F.V. : Nous avons commencé à faire de la radio visuelle il y a quelques années, cela prend de plus en plus d’intérêt, surtout pour alimenter le web. Il va y avoir des caméras dans l’ensemble des régies radio, mais le déploiement va continuer à se faire au fil des années en fonction des besoins, des opportunités qui se créeront autour.

 

M. : À quand remontent vos premières réflexions sur la nouvelle architecture technique ?

F.V. : Le déménagement a été annoncé officiellement en 2012. Il devait intervenir en 2018, mais a été reporté à 2020. Contractuellement, il a été assez laborieux de trouver un constructeur et de modéliser un Business Case financier qui tienne la route pour les besoins de l’entreprise. Cela a été un peu plus long que prévu. Je dirais, sérieusement parlant, qu’en 2017 nous nous sommes demandé si nous allions bâtir une infrastructure conventionnelle HD SDI, quitte à être les derniers au monde à le faire, ou nous lancer dans une technologie IP. Nous avons opté pour la technologie IP.

 

M. : Quelles difficultés avez-vous rencontrées ?

F.V. : À l’époque, il y a vingt-quatre mois, il y avait encore beaucoup d’inconnues. Alors, nous avons collaboré avec l’EBU en Europe, le NABA aux États-Unis, certains partenaires broadcasters à travers le monde. Nous avons suivi des Proof of Concept (POC) réalisés ailleurs. Je dirais que IBC 2018 a été un déclencheur, parce que nous avons vu que notre projet était faisable en IP. Nous avons vraiment statué et lancé nos appels d’offres en conséquence, sachant que nous avions des critères de base : nous voulions une infrastructure IP évidemment, et que ce soit standardisé.

La norme SMPTE-2110 a été officiellement lancée par le SMPTE en novembre 2018, mais c’était dans l’air déjà à IBC 2018, on savait que c’était proche. On voulait que ce soit de l’équipement standard IT et non pas des équipements propriétaires, nous cherchions des applications virtualisables, software base, essentiellement des fournisseurs broadcast. Il y a une grosse tendance des fournisseurs à vendre encore des solutions dédiées propriétaires, plutôt que nous fournir une solution purement software. Laquelle peut s’installer sur un ordinateur ou un serveur générique, utiliser du storage générique, fonctionner sur un réseau IT complètement générique, un switch de type Cisco, Arista ou Juniper.

Certains essais ont été réalisés ; plus que des essais, des projets ont été entrepris au Luxembourg par BCE, qui a fait certaines avancées ; en Australie par la NEP. La BBC évidemment a plus de difficultés, mais a accompli d’énormes avancées. Cela nous a rassurés sur la viabilité, la faisabilité d’une solution complètement IP.

Au niveau des consoles audio-radio, nous avons trouvé l’ensemble des produits dont nous avions besoin ! Le marché de l’audio, de la radio est encore très niché ! Malgré tout, nous avons trouvé l’ensemble des parties, des voies de contournement pour les points qui manquent parce que quand on est précurseurs, tout n’est pas là ! C’est la raison pour laquelle on reçoit l’EBU, pour influencer les autres broadcasters qui vont faire les mêmes choix. Eux vont avoir les mêmes besoins et puis nous cherchons à ce que ces voix-là s’ajoutent à la nôtre pour influencer l’industrie et le développement.

Tout le réseau IP que nous montons est du IP standard, tous ces équipements peuvent être utilisés pour n’importe quelle autre fonction si besoin est. Si la télévision linéaire se dégrade ou disparaît, l’infrastructure en place est tout à fait capable de prendre n’importe quel autre format ou autre besoin. C’est cela qui nous semble intéressant, le réseau est très flexible, très agile, multi-usage et il compte beaucoup moins de câbles ! C’est impressionnant, c’est juste la fibre optique qui a une capacité de transport décuplé, comparé au bon vieux coaxial où c’était du point à point avec un seul signal. Dans notre nouvel édifice, nous avons notre data center avec nos routeurs. On se rattache optiquement plus près de nos flux de production, à travers une salle de télécom où on installe seulement un petit switch traditionnel cuts et on est capable de joindre l’ensemble de nos régies.

 

M. : Et du coup, en termes de marques, quels ont été vos choix, côté constructeurs ?

F.V. : Notre choix remonte à près d’un an. À l’époque, on cherchait un outil d’administration qui fonctionnerait selon nos preuves de concepts. On en a trouvé un qui agissait selon nos besoins, nos capacités, la quantité de ports qu’on avait à gérer. C’est Lawo qui a été choisi comme broadcast controler (VSM), avec Arista comme switch et les gateways qu’on utilise pour convertir du HD-SDI en SMPTE-2110, c’est essentiellement du Embrionix.

La beauté de la solution Embrionix, ce sont les petits SFP. Les SFP entrent dans le châssis même des switchs, et si l’interface devient 2110 natif un jour, on change les SFP, on met un port optique. C’est très flexible, facile à gérer, mécaniquement ; virtuellement, c’est autre chose, c’est un des défis : comment gère-t-on l’augmentation astronomique d’adresses IP, c’est une expertise qu’il faut développer en interne. Il y a également des consoles audio Lawo.

Nous sommes l’intégrateur, nous n’avons pas d’intégrateur externe. L’avantage est que nous nous devons de comprendre profondément nos produits. Nous sommes ainsi capables de challenger l’ensemble de l’industrie technologiquement parlant, sur ce que ça fait, ou cela devrait faire ou ce qu’on veut que cela fasse. Je trouve cela intéressant, mais cela prend du temps. Être « early adopter » demande des compétences internes pour être capable de le supporter. C’est un peu le prix à payer par les précurseurs d’une technologie donnée.

 

M. : Combien de personnes en technique ?

F.V. : Le groupe d’ingénierie compte environ 160 personnes ; moi, je suis à la tête de ce groupe. Il y a un groupe d’opération, de soutien de maintenance, qui tourne autour de 500 personnes dans le pays, ce qui est quand même assez significatif. Eux, doivent maintenir l’édifice actuel et nous supporter dans le déploiement du futur parce qu’ils devront supporter ces équipements-là. Pour être en mesure d’investir dans l’équipement de l’autre côté, nous avons dû arrêter d’investir ici en 2012. Quand le déménagement est devenu une réalité, nous avons mis à jour l’ensemble des équipements et de l’infrastructure dans l’optique de ne presque plus rien toucher jusqu’au déménagement. Autrement dit, les derniers cinq ans, nous avons réalisé ici un minimum d’investissements.

 

M. : En ce qui concerne le reste du matériel de la partie News, vous reprenez tout ce qui est ici ?

F.V. : Nous ne reprenons presque rien, tout sera bâti. Premièrement, parce que je dois rester en opération ! Nous avons vraiment déprécié l’ensemble de nos équipements, c’est la stratégie qu’on a prise, pour bâtir du nouveau, à même nos coûts normaux, coûts de l’opération et coûts budgets capitaux normaux. Aucun argent supplémentaire gouvernemental n’est attribué pour l’édifice, tout s’est fait en intérieur, des budgets opérationnels et des capitaux de Radio Canada. Évidemment, il y a eu un focus qui s’est fait, nous avons mis toutes nos billes ici pour deux ans. On fait le minimum partout ailleurs au Canada, mais c’est une décision d’entreprise. C’est pourquoi nous devons quitter assez vite ce lieu pour être capables de passer à autre chose, parce que nous avons d’autres choses à faire dans le pays !

 

M. : Au niveau des salles de newsroom, du montage, des caméras, quelles sont les marques, les constructeurs, que vous avez sélectionnés ?

F.V. : En fait, on a beaucoup automatisé nos processus de productions des Nouvelles. On fait des productions avec des équipes en régie d’une à quatre personnes, tout est très automatisé. Plus que de simplement répliquer, nous avons développé, déployé ce système à travers tout le Canada anglais-français. Nous utilisons la même technologie partout, avec la même automation, nous faisons même de la régie à distance. Les régions, comme Edmonton, dont je parlais plus tôt, n’ont plus de mélangeur local ; le mélangeur est soit à Toronto, soit à Vancouver ou Ottawa. La raison est simple : nous avons réduit de six régies à travers le pays en centralisant et en optimisant nos fuseaux horaires. Ils sont entre trois et quatre selon les saisons, et on est capable d’utiliser nos mêmes équipements. Tout le monde fait le dix-huit heures, l’heure topo des Nouvelles en direct, mais dix-huit heures avec la Time Zone… Cela nous a permis de réduire beaucoup l’empreinte technologique, en particulier en région.

 

M. : Pour le moment, vous restez HD, Full HD…

F.V. : Oui, absolument, la 4K on en parle évidemment pour le nouvel édifice, mais même la production n’en a pas tellement besoin, compte tenu que nous sommes essentiellement Nouvelles. Et que l’acquisition n’est pas tellement là ! Si on veut acheter du contenu 4K, ce n’est pas encore tout à fait là, la distribution n’est totalement pas là. Au niveau de la distribution ou des solutions satellitaires, nos antennes hertziennes sont HD, et il n’est pas dans les plans de modifier cela pour être compatible pour une diffusion 4K.

Pour l’instant, il n’y a cette attraction nulle part au Canada, et pas juste à Radio Canada. Les privés, non plus, n’ont pas cet appétit. Les privés font face comme nous à la baisse des revenus publicitaires. Du coup, beaucoup de questionnements se posent au niveau du hertzien. Le Canada est un grand pays, les gens sont très peu hertziens, ils sont tous câblés ; 80 à 85 % des Canadiens sont câblés à la maison. C’est dur d’avoir les chiffres exacts, mais on estime le taux de pénétration des antennes hertziennes autour de 5 %, inférieur à 6 %. Aux États-Unis, c’est complètement différent. Au Canada, compte tenu de la grosseur du territoire et du peu de population, je dirais que la tendance semble plus de rester connecté avec des câblodistributeurs.

 

M. : Et pour les JO, vous avez de l’OTT, de la VOD ?

F.V. : Les deux, on a du live, 110 sources à ramener, on a une équipe très restreinte que l’on envoie depuis qu’ont eu lieu les JO d’Athènes. Nous avons commencé à réduire énormément nos déploiements à l’extérieur des jeux, tout ce qui est source se ramène au centre de Toronto ou Montréal et les productions se font là, même le live, même remote. Nous avons déjà nos OTT pour nos besoins internes anglais et français, mais spécifiquement pour les JO nous envisageons même de développer notre propre OTT.

Le digital, au service français ici, est complètement dans le cloud chez Microsoft Azure, on est en migration, on était sur nos serveurs et notre capacité de stockage, nous sommes en train d’externaliser tout ça. Financièrement, la modélisation a fonctionné. Cela devenait rentable, compte tenu que c’est un contenu beaucoup moins lourd pour le web que pour la télédiffusion, de penser pousser dans le cloud. Cela procure un niveau d’agilité supérieur aux développeurs qui ont besoin d’être plus rapides dans leurs remplacements et développements produits. Évidemment, ce n’est pas nous qui faisons le Front Head, c’est Akamai qui fait le cache de l’ensemble de nos portails, de nos pages web ; eux sont équipés pour recevoir nos demandes.

Voilà à quoi ressemble notre infrastructure, on a encore en radio 754 antennes radio à travers le pays et à la télévision il nous reste 27 antennes télé HD qui ont été remplacées en 2012, c’est quand même assez récent. C’est pourquoi l’intérêt n’est pas tout à fait là pour la 4K !

 

M. : Quels défis pour l’avenir ?

F.V. : Un des gros défis actuels est le re-stacking des fréquences, je suppose que vous en avez entendu parler aux États-Unis où la vente des bandes 600 MHz a eu un gros impact. CBC/Radio-Canada est obligé de remplacer certaines fréquences parce qu’on est près des frontières américaines. Nous remplaçons certaines de nos fréquences pour accommoder la vente de fréquences qui s’est faite autant par le gouvernement canadien qu’américain, pour lesquelles les broadcasters canadiens doivent assumer à leur frais et sans compensation. Et le 5G qui arrive est à l’affût de nos bandes C qu’on utilise énormément pour les arrivées de feeds. On suit cela de près, avec la bande C nous alimentons le Grand Nord et l’ensemble de nos antennes parce que, sur 754 antennes, environ 100 sont dans un gros marché et les 650 autres dans des petits marchés éloignés ; il n’y a pas nécessairement de fibre optique, de réseau pour atteindre les antennes. Mon seul moyen pour alimenter les antennes est satellitaire ; de là, je redistribue en hertzien, mais c’est la bande C qui est utilisée.

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.44/48. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 25 novembre 2019 à 17:00

Cyber sécurité, garder le contrôle du réseau avec le Grid Computing

L’environnement de type Grid Computing, permet à plusieurs instances d’un même composant d’être disponibles et substituables entre elles, se sécurisant mutuellement sur le principe actif/actif. © Adobe Stock / Sergey Nivens

« Au jeu du gendarme et du voleur, le voleur a toujours un temps d’avance pour s’introduire chez vous… Dans une infrastructure, il en profitera pour dérober ou altérer des données, voire prendre le contrôle de certains traitements, mais plusieurs précautions peuvent prévenir ces désagréments... ».

 

Fondateur de JLMorizur Engineering, Jean-Luc Morizur supervise des projets internationaux orientés numérisation et mise en réseau des moyens techniques depuis 20 ans. Il partage avec nous son approche de la cybersécurité vis-à-vis d’organisations de médias exigeantes en termes de mobilité, de travail collaboratif, mais aussi de sécurisation des traitements et de protection des données…

« La mise en réseau des moyens techniques en environnement IP dans le domaine du broadcast s’appuie sur des standards d’interopérabilité qui sont ouverts et publics. Dans les années 80, la suite de protocoles TCP/IP a supplanté le modèle OSI (Open Systems Interconnection) avec pour bénéfice un renforcement des mécanismes d’interconnexion, mais cette ouverture pose aujourd’hui problème…

Le transit des informations via des réseaux publics non sécurisés, la généralisation de la mobilité des équipes et la multiplication des nouveaux terminaux (tablette, téléphonie mobile, ordinateur portable) induisent une complexification de l’approche sécuritaire des infrastructures… », souligne Jean-Luc Morizur.

Perdre le contrôle de son infrastructure, de son activité et de ses données : une situation de plus en plus courante...

Le recours aux technologies open source pour éviter les coûts de licence lors du traitement des contenus est aujourd’hui banal. Pourtant, un code source non qualifié ou non expertisé, c’est-à-dire non certifié, peut héberger un virus, un back door et, en plus, souvent dans les organisations qui utilisent des solutions open source, on remarque une absence de moyens alloués au contrôle par des équipes dédiées…

Les risques sont pourtant bien réels ; dernièrement, une faille de sécurité détectée par un institut allemand a été classée au niveau 4, soit le niveau de risque le plus critique, pour un logiciel open source téléchargé plusieurs milliards de fois dans le monde entier !

 

Prévenir plutôt que guérir avec l’approche Grid Computing

Il est vrai que les coûts pour sécuriser et maintenir une infrastructure traditionnelle peuvent s’envoler ; ils peuvent toutefois être maîtrisés dans le cadre d’une nouvelle approche déclinée à partir de solutions innovantes et spécifiquement imaginées pour le web, une approche qui sera active et qui offrira une meilleure qualité de service à moindre coût. Dans cette perspective, une démarche de type Grid Computing a pour avantage une répartition dynamique de charge, et d’optimisation de l’occupation des réseaux.

En environnement de type Grid Computing, plusieurs instances d’un même composant sont disponibles et substituables entre elles, se sécurisant mutuellement sur le principe actif/actif. Cette approche permet de faire évoluer à chaud les infrastructures en fonctionnalité et en capacité, sans remise en cause du core system.

Au niveau du design, ménager un cloisonnement des sous-systèmes les uns par rapport aux autres, intégrer les secours et les modes dégradés dès la phase de conception offre la possibilité d’anticiper une intrusion dans toute l’infrastructure.

Les composants déployés pour rendre les services seront découplés les uns des autres. Ainsi le changement d’un composant dû à une mutation de technologie sous-jacente (normes, langages, programmes, équipements, réseaux, etc.) n’affectera pas les autres composants.

L’introduction d’une intelligence au niveau de la couche session (niveau 5 du modèle OSI) permet de découpler les services au niveau logique du réseau physique et de mettre en œuvre les mécanismes nécessaires pour favoriser cette nouvelle approche.

« Ces réflexions, menées de longue date au sein de certains groupes de travail de l’UIT (Union internationale des télécommunications), dont TINA (Telecommunications Information Networking Architecture), prennent ainsi aujourd’hui tout leur sens », explique le CEO de JLMorizur.

 

Les quatre principes clés d’un réseau sécurisé et évolutif…

Dans l’univers des médias, de nouveaux services apparaissent (replay, svod, ciblage publicitaire…) pour capter de nouveaux revenus, les infrastructures doivent donc aussi être pensées pour ménager l’accueil des futurs services sans remise en cause des investissements déjà consentis. Dans cette perspective, l’architecture doit observer quatre principes :

1. Analyse et conception orientées objet,

2. Distribution des composants,

3. Découplage des composants entre eux,

4. Séparation des préoccupations (exploitation, supervision, facturation…).

 

Aujourd’hui, l’accent mis sur la sécurité porte essentiellement sur TCP/IP, à savoir le réseau. Il est nécessaire de sécuriser l’accès aux données au moyen de systèmes d’identification et d’authentification pour certifier qu’il s’agit bien de la bonne personne pour le bon traitement ; mais il faut également protéger les données en elles-mêmes au moyen de solutions de chiffrement.

« La recommandation R143 portée par EBU (European Broadcast Union) va dans ce sens, mais il faut aussi souligner que sans la pleine adhésion des utilisateurs, la sécurité d’une infrastructure ne peut pas être garantie ; il faut donc aussi veiller à une sensibilisation et à une formation régulière des utilisateurs aux bons usages… », conclut Jean-Luc Morizur.

 

Article paru pour la première fois dans Mediakwest #33, p.74. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

JLMorizur Engineering qui exposait sur le SATIS 2019 aux Docks de Paris à La Plaine-Saint-Denis, les 5 et 6 novembre dernier s'est vu récompensé par un trophée SATIS du Public pour son produit ADN PLAY (player adaptatif spécifiquement dédié à la remote production).

.

  • 4 décembre 2019 à 17:00

Conax Go Live, la télévision autrement

Workflow de la préparation, sécurisation et distribution des contenus via Conax Contego et Conax GO Live.  © Canal Cable

Vous vous demandez comment diffuser vos programmes sur les smartphones de vos abonnés, afin que ceux-ci regardent vos contenus plutôt que les offres concurrentes ? Vous envisagez de lancer un service vidéo pour convertir vos clients prépayés en abonnés permanents ? Vous cherchez à vous développer au-delà de vos frontières pour atteindre un public d’expatriés ? Ou peut-être souhaitez-vous ajouter une nouvelle dimension à vos formations, grâce à la vidéo ? Bonne nouvelle! Conax GO Live de Nagra en partenariat avec Canal Cable, est disponible en France avec une offre technique, rapide à déployer et très facile d’utilisation.

 

Nagra est un leader mondial sur les marchés de la sécurité des contenus vidéo et des solutions média convergentes de bout en bout, qui compte parmi ses clients la plupart des géants des médias et de la communication. La société collabore avec Canal Cable qui est un intégrateur reconnu en France depuis 35 ans pour la distribution de Conax GO Live.

Conax GO Live de Nagra comprend de nombreuses fonctionnalités permettant de prendre en charge le contenu vidéo de chaines linéaires broadcast tout comme des contenus à la demande (VoD). De plus, grâce à Conax Contego, la plateforme de sécurité de Nagra conforme aux standards des studios hollywoodiens, vous gardez le contrôle de vos contenus. Canal Cable, partenaire de Nagra sur le marché français, apporte tous les outils et services nécessaires pour diffuser des vidéos en streaming. Lancé en 2015, GO Live est aujourd’hui utilisé par des dizaines d’opérateurs ayant des abonnés dans 150 pays à travers le monde, tels que Canal+ au Myanmar ou Shant TV en Arménie.

 

Économique et rapide à déployer

En créant Conax GO Live, Nagra offre un outil à la fois complet et abordable économiquement. Le modèle commercial est basé sur un prix de départ modeste, à la suite de quoi le client ne paie que pour les appareils que ses abonnés utilisent. C’est donc un moyen idéal pour ajouter des appareils OTT à un service existant de télévision payante, ou pour tester un nouveau service.

Conax GO Live est rapide à mettre en service. Canal Cable peut mettre en place une démonstration en quelques minutes, et un déploiement complet en 30 jours seulement. En effet, Conax GO Live dispose déjà d’applis sur iOS, Android, AppleTV, AndroidTV, FireTV, Chromecast et Roku. L’infrastructure sous-jacente est basée sur Amazon Web Services (AWS), il n’y a donc aucun matériel à acheter. Un clic, et c’est parti !

 

Facile à utiliser et riche en fonctions

Pour exploiter Conax GO Live, un simple navigateur web est suffisant. Après une page de connexion sécurisée, vous accédez au centre de contrôle de Conax GO Live, qui via une interface intuitive donne accès à une panoplie d’outils pour créer des offres commerciales, activer des chaînes en direct, encoder des vidéos, et gérer des abonnés. Conax GO Live s’adapte à vos ambitions, que vous l’utilisez seul ou dans le cadre d’un centre opérationnel complet.

Conax GO Live offre de nombreuses fonctions qui feront de vous une star de la télévision en streaming et de la vidéo à la demande (VoD) ! Il permet la création de catalogues de chaînes personnalisés et de guides électroniques des programmes (EPG), ainsi que l’ingestion de contenus en VoD, le basculement rapide d’une chaîne à l’autre, la pause en cours de visionnage, ou encore la reprise d’émissions au début et le visionnage en différé. Avec des utilisateurs dans 150 pays, la gestion de la langue et des sous-titrages est prise en charge. Proposé en marque blanche, Conax GO Live laisse au client la possibilité d’ajouter sa propre marque, son logo, ses couleurs et ses images.

Canal Cable est un intégrateur reconnu en France depuis 35 ans. Il propose à ses clients (opérateurs de diffusion, fournisseurs de contenus, administrations et grandes entreprises ou hôtellerie) l’offre Conax GO Live packagée avec toute la palette des services connexes : captation ou gestion des contenus, transcodage et profilage OTT, monitoring de la diffusion OTT, exploitation déléguée…

Canal Cable a choisi Conax GO Live pour sa flexibilité, sa facilité d’intégration avec ses solutions de transcodage, sa rapidité de mise en œuvre et sa qualité de diffusion et de protection « broadcast ». Ainsi, que l’on soit opérateur d’un bouquet de chaînes TV ou directeur de la communication d’une grande entreprise du CAC 40, GO Live offre la garantie que les contenus sont protégés et diffusés dans les meilleures conditions. L’offre Conax GO Live peut être packagée avec toute la palette des services connexes que propose Canal Cable : captation ou gestion des contenus, transcodage et profilage OTT, monitoring de la diffusion OTT, exploitation déléguée…

 

Article paru pour la première fois dans Mediakwest #33, p.76. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 26 novembre 2019 à 17:00

Le sport en mode wireless

Pour les motos du Tour de France et autres courses cyclistes, la mobilité de l’émetteur et du récepteur nécessite d’ajouter du délai pour rendre la modulation plus robuste. © DR

Si, dans l’écosystème du sport broadcast, la HF traditionnelle demeure dominante, typiquement sur un stade et pour des opérations d’envergure comme le Tour de France, la technologie 4G gagne du terrain. En attendant la 5G.

 

Chine, Australie, Pologne, Mexique, Argentine, Autriche, Azerbaïdjan, Norvège, Maroc ou encore Bahreïn… Depuis le début de l’année, les personnels HF d’AMP Visual TV jouent les globe-trotteurs. « Nos équipes ont déjà tourné dans vingt-et-un pays et nous ne sommes que début avril ! », sourit Stéphane Alessandri, directeur général délégué, en charge des activités internationales, avant de convenir : « La HF est un levier très important de notre développement à l’international ».

En la matière, cependant, « les investissements sont énormes et les opérations de grande envergure pas si nombreuses pour les rentabiliser », observe de son côté Bruno Gallais, directeur du département HF d’Euromedia. « Toujours est-il qu’à défaut de capter l’essentiel de la rentabilité de nos entreprises, l’activité HF et ses à-côtés, telle la géolocalisation multiple en temps réel, sont la vitrine d’un savoir-faire tricolore mondialement reconnu, acquis notamment sur les routes du Tour de France. Ainsi, « notre application Smacs (Smart Connected Sensors) nous permet de localiser l’ensemble du peloton et un certain nombre de véhicules suiveurs, soit plus de 200 sources simultanées de manière permanente », rappelle Bruno Gallais.

 

Les prestataires en action

En année courante, le sport représente plus d’une centaine de prestations pour les équipes HF d’AMP Visual TV et quelque cent cinquante pour celles d’Euromedia, sans compter les sorties de foules. Des prestations qui englobent ce qu’il est convenu d’appeler le short range (tournage dans un stade ou une aréna), le medium range (un hippodrome ou un circuit automobile) et le long range (toutes épreuves se déroulant sur de longues distances : cyclisme, marathon, triathlon, rallye…).

Côté captation, le premier déploie habituellement des caméras Sony P1, PMW-Z450 ou 2400, en fonction des besoins. « Nous attendons avec impatience la nouvelle caméra Sony P50 », glisse Stéphane Alessandri. Par ailleurs, le prestataire utilise un correcteur colorimétrique de chez CyanView pour retoucher les images HF, uniquement sur le long range.

Sur le short range, en revanche, le dispositif de contrôle des paramètres d’une caméra HF est le même que pour une caméra câblée. Simplement, la première est par définition beaucoup plus mobile et va changer d’axe très rapidement, ce qui peut amener l’ingénieur de la vision à plus de correction.

De son côté, Euromedia exploite le modèle LDX86N RF de Grass Valley (groupe Belden) avec l’interface Colibri de sa filiale Livetools Technology « qui donne à l’ensemble une compacité sans équivalent sur le marché », vante Bruno Gallais.

 

De nouveaux systèmes embarqués

Les progrès en matière de miniaturisation des émetteurs/récepteurs, combinés à ceux des minicaméras (lire MK n° 13), permettent aujourd’hui de multiplier les systèmes embarqués. Ainsi, les équipes d’AMP Visual TV ont développé en interne un ensemble caméra/émetteur/batterie de moins de 200 grammes, doté d’une optique grand angle et d’un micro intégré, pour le cyclisme sur piste.

Emetteur ASI, GPS embeddé, multiplex intégré de quatre entrées vidéo (y compris « picture-in-picture »), bandes de fréquences interchangeables, modules XFP, horloge interne (réveil/extinction) et déclenchement par geofencing… De la même manière, le nouvel émetteur Quantum de Livetools permet désormais aux équipes d’Euromedia de s’adresser à tous les marchés du « on-board » (marathon, trail, voile…) qui réclament une miniaturisation des équipements.

En la matière, outre la taille et le poids, l’autre contrainte est d’embarquer l’énergie nécessaire pour des tournages de plus ou moins longue durée. « En HF, toute l’alimentation est sur batterie », rappelle Stéphane Alessandri. L’ensemble mis au point par AMP Visual TV revendique ainsi une autonomie de 45 minutes. « Pour une épreuve cycliste sur piste, par exemple, une autonomie de plus d’un quart d’heure peut suffire. En revanche, sur route, la course n’a pas commencé », constate un responsable d’exploitation.

Si, sur le short range, l’arrivée du numérique a sonné le glas du technicien pointeur, la liaison sur un stade s’effectuant aujourd’hui directement entre une antenne omnidirectionnelle à l’émission et une ou deux autres à la réception, sur le long range, typiquement le Tour de France, qui mobilise des moyens aériens, le pointage entre l’aéronef et le point de réception au sol fait appel à des antennes autoguidées du suisse Usidec, couplées à des systèmes GPS propriétaires.

Dans les airs, l’avion a, depuis quelques années déjà, supplanté l’hélicoptère. « Pour les relais aériens, l’avion pressurisé reste le meilleur outil. C’est pour cela que nous avons fait depuis peu, via notre partenaire WorldLinx Alliance, l’acquisition d’un second Beescraft B200, confié à une chef pilote », indique Stéphane Alessandri. Grâce à ce type d’appareil, qui embarque sept antennes gyroscopiques dans un cargo pod et une huitième en extérieur, fixée à un mât d’une longueur de 2,20 mètres, jusqu’à quinze signaux HD peuvent être relayés simultanément.

Évoluant sans contrainte météo à une vitesse de 180 km/h et possédant une autonomie de sept heures, le B200 est autorisé à voler à une altitude de quelque 9 200 mètres. Néanmoins, son plafond oscille habituellement entre 7 200 et 8 000 mètres, essentiellement pour des raisons de temps de mise en place et de consommation. L’an passé, les différentes missions de relais aérien ont représenté plus de 1 000 heures de vol. Quant aux cinq avions, dont quatre pressurisés, qu’aligne, entre autres moyens la Business Unit HF d’Euro Media Group, ceux-ci enregistrent en année courante un taux d’utilisation de 75 % sur le long range.

 

« On a perdu Sarko ! »

Au sol, l’implantation du dispositif doit permettre d’abolir autant que faire se peut les obstacles entre la réception et l’avion. Ainsi, sur le Tour de France, notamment lors de la traversée des Vosges, comme sur certains rallyes, celui de Suède par exemple, « quand vous avez de grands sapins qui bordent la route et que, de surcroît, il pleut, la liaison passe moins bien », confie un habitué de la Grande Boucle. Le choix des fréquences comme celui des points hauts pour les relais intermédiaires, qui font l’objet d’un repérage minutieux trois mois avant l’épreuve, s’avère alors déterminant pour réduire, sinon éliminer, le fading et autres décrochages du signal.

Parmi les passages critiques où la propagation de celui-ci peut être altérée figurent également les ponts et les tunnels, comme ceux de Sharjah, lors du dernier Tour des Émirats arabes unis, couvert par Euromedia. De même, la venue de Nicolas Sazkozy sur l’étape Bourg-Saint-Maurice – Le Grand-Bornand, lors du Tour de France 2009, donna-t-elle des sueurs froides aux équipes HF du prestataire. Mobilisées pour l’occasion, les motos de la production avaient perdu l’ancien président. Gag : sa voiture attendait dans un tunnel le moment opportun pour sortir !

De même encore, l’identification des différentes sources HF, typiquement lors d’une course cycliste, a-t-elle longtemps été un exercice improvisé. « Autrefois, on disait “Moto 1, est-ce que tu m’entends ?”, le cadreur mettait son pouce devant l’objectif et on savait que c’était la moto 1 », témoigne Hervé Besnard, responsable d’exploitation du département HF d’Euromedia. Avec le numérique, les encodeurs ont un numéro de programme. L’identification de chaque source s’effectue grâce à son PID (Packet Identifier), en mettant le récepteur sur le numéro de programme correspondant à celui de l’émetteur. Si bien qu’aujourd’hui, le risque de mélanger les différents programmes d’un stream HF n’existe pratiquement plus.

 

À la recherche du meilleur compromis

Dans certains cas, typiquement pour les motos du Tour de France et autres courses cyclistes, la mobilité de l’émetteur et du récepteur nécessite d’ajouter du délai dans la transmission pour rendre la modulation plus robuste, suivant la technique du « time interleaving » qui permet de reconstituer le signal d’origine. D’autre part, le transport d’un nombre sans cesse croissant de datas issus d’équipements connectés en mobilité (maillots, chaussures, raquettes, gants de boxe et, demain peut-être, ceux, biométriques, des pilotes de Formule 1, rendus obligatoires cette saison) requiert des connexions sensibles.

Trouver le bon compromis entre le choix du format, la qualité (qui dépend du débit), la robustesse (due principalement au choix de la modulation) et le délai, en fonction de l’événement et de son environnement, constitue d’ailleurs le fondement de toute transmission HF. Pour y parvenir, Euromedia, par exemple, s’appuie sur les produits Livetools de différentes générations (Carry Coder, puis Live Runner et, depuis 2011, HDRunner et sa modulation propriétaire). D’autre part, les nouvelles liaisons UHD Fusion (Livetools encore) et leur nouvelle modulation propriétaire, qui seront étrennées en juin prochain lors du Marathon du Mont-Blanc, avant le grand rendez-vous des Jeux Olympiques de Tokyo en 2020, sont la promesse de nouveaux progrès en matière de robustesse et de débit.

Sur le long range, l’arrivée du HEVC permet désormais de travailler en 1 080p sans augmenter le débit nécessaire. Ainsi, « depuis cette année, nous produisons l’ensemble des épreuves de cyclisme et de marathon dans ce format », signale Stéphane Alessandri.

Par ailleurs, la technologie 4G, jusque-là le plus souvent utilisée comme solution de back-up, est aujourd’hui déployée comme une alternative à la HF traditionnelle sur certaines compétitions, y compris dans les airs, où elle a déjà été utilisée avec succès à bord d’hélicoptères, sous réserve que le rayon d’action de ces derniers se limite aux zones couvertes. « Nous couvrons déjà du ski et les prochains Iron Man seront produits en full 4G avec une réalisation à distance, depuis notre media center de la rue Cauchy à Paris », illustre le responsable.

Pour autant, contrairement à la HF, qui s’opère traditionnellement avec une bande passante garantie, « il est difficile d’assurer une qualité constante tant nous sommes ici tributaires de réseaux sur lesquels nous n’avons pas la main. » 

En la matière, Globecast, à l’occasion fournisseur de services sur réseaux mobiles, met à disposition une station, construite en 2015, qui permet à l’utilisateur d’opérer en « best effort ». Concrètement, « notre station est équipée d’un mât de quelques mètres qui va aller “taper” une antenne située hors de la zone de l’événement et non saturée par le trafic autour de celui-ci », explique Jérémie Mekaelian, directeur des ventes et des projets contribution.

 

Encombrement spectral

Outre le traitement des datas et la mise en production au format UHD HDR grâce au HEVC, dont les capacités permettent de réduire l’usage de la bande passante de manière significative, une autre évolution récente concerne ce qu’on nomme la « relocalisation fréquentielle ». « Nous sommes progressivement obligés de nous orienter vers des bandes de fréquences de plus en plus élevées car nos bandes actuelles sont extrêmement convoitées par bon nombre de nouvelles technologies, majoritairement en provenance du monde des télécoms », décode Bruno Gallais.

Avec le numérique, le besoin en fréquences a été divisé par trois. Et, aujourd’hui, avec le nouveau codec HEVC, une même porteuse peut transporter jusqu’à quatre flux HD, « mais il faut alors accepter de faire des compromis entre le délai, la qualité et la robustesse », prévient Stéphane Alessandri.

Traditionnellement, l’allocation commence à 1,5 GHz pour les mobiles et peut monter jusqu’à 40 GHz pour les liaisons fixes. Sur un match de foot, par exemple, les fréquences s’échelonnent entre 2 et 7 GHz pour les caméras HF, au nombre d’une à quatre, selon l’importance de l’affiche. Au total, pour répondre aux besoins de toutes les parties prenantes (organisateur, chaîne hôte, ayants droit…), cent à cent cinquante fréquences sont généralement nécessaires pour couvrir une finale de Ligue des champions, par exemple. Sur un Grand Prix de Formule 1 où, par ailleurs, jusqu’à 10 GHz, les porteuses sont très nombreuses, « nous travaillons en 7 GHz et la bande est complètement occupée », signale Stéphane Alessandri.

Autre exemple : la couverture du Tour de France réclamerait, selon nos informations, quelque 700 fréquences, dont 150 pour les équipes de France Télévisions, le diffuseur hôte, et à peu près autant (140) pour celles d’Euromedia, le prestataire de la Grande Boucle (90 pour France Télévisions, 50 pour Eurosport). Enfin, « sur les 24 heures du Mans, où nous travaillons directement avec les autorités, la demande porte sur un peu plus de 1 000 fréquences », prolonge le responsable.

D’ailleurs, les sports mécaniques campent bien la difficulté de concilier un nombre croissant d’utilisateurs et un nombre de plus en plus restreint de fréquences disponibles. Outre le bon ajustement des paramètres de transmission, l’une des solutions est d’aller vers des fréquences fonctionnant dans les deux sens pour en libérer d’autres, typiquement lors d’un Grand Prix de Formule 1. « Nous y travaillons activement, mais il y a peu de chance de voir de réelles avancées à court terme », regrette Stéphane Alessandri, avant de conclure : « Les fréquences sont devenues une denrée très rare et l’arrivée de la 5G n’arrange pas les choses. La bande des 2 GHz avait déjà été bien réduite avec l’arrivée de la 4G, celle de la 5G vient de supprimer la bande des 3 GHz. » 

 

À l’heure des sacs à dos

Longtemps typées news, à l’image de la suite TVU Networks, distribuée en France par Magic Hour, qui équipe plus de 2 500 clients dans plus de 85 pays (L’Équipe TV ou encore BFM TV en France), le passage à l’encodage HEVC, qu’il soit matériel (LiveU, Aviwest) ou logiciel (TVU Networks), pour l’agrégation de liens IP a permis d’étendre l’usage des unités de transmission portables (sacs à dos dédiés ou simples boîtiers montés sur la caméra) à la couverture d’événements sportifs en direct, typiquement marathon ou semi-marathon en milieu urbain, et ce pour une fraction du prix des transmissions par satellite ou fibre optique.

Dans son rapport annuel 2018 sur « L’état du direct », l’américain LiveU, qui a ouvert le marché et a ainsi été le premier à fournir des sacs à dos à son compatriote NBC lors des Jeux Olympiques de Pékin en 2008, confirme d’ailleurs l’adoption croissante du protocole HEVC en tant que standard de l’industrie. « Avec 25 % du trafic généré par LiveU, désormais encodé en HEVC, ce chiffre reflète la demande croissante du marché pour de la vidéo de qualité professionnelle », peut-on lire dans le rapport.

Ainsi, la société allemande WRC Promoter utilise trois exemplaires du produit phare de LiveU, le LU600 HEVC, qui peut monter jusqu’à douze connexions (huit modems cellulaires 3G/LTE/LTE-advanced intégrés, un modem externe, un module wi-fi interne et deux ports Ethernet), pour sa couverture en direct des différentes manches du championnat du monde des rallyes.

De son côté, 3Zero2 TV a choisi les produits Aviwest pour sa couverture des matches (plus de 1 500 par an et jusqu’à 20 simultanément) de la Série C italienne (l’équivalent de notre troisième division nationale) en agrégeant ici des liens en bande Ka, et non en utilisant un réseau cellulaire. Toutefois, « certains événements sont difficiles à couvrir avec une technologie qui fonctionne grâce à la disponibilité des réseaux IP, en particulier dans un stade bondé où la “fan experience” (visionnage en direct de séquences du match et autres services via son smartphone) fait que la bande passante cellulaire peut être saturée », admet Erwan Gasc, président et co-fondateur de la société.

 

Les défis de la mobilité

Adapter en temps réel le débit de codage et la résolution vidéo au réseau disponible est d’ailleurs une préoccupation commune à tous les constructeurs. Ainsi, la technologie SafeStreams d’Aviwest, implémentée dans tous les produits de la marque et récompensée par un Natas Emmy Award lors du dernier NAB Show, permet, outre la retransmission de paquets perdus et la correction d’erreurs (FEC 2D et ARQ), l’agrégation de différents liens IP non managés afin de maximiser la bande passante pour la transmission d’un flux HD en direct avec un minimum de latence (sous 500 m/s). SafeStreams va ainsi analyser chaque lien en termes de débit, créer un canal de transmission et ajuster la compression vidéo en temps réel, au fil, par exemple, des zones traversées par une moto émettrice lors d’une course cycliste.

De la même manière, lorsque la bande passante disponible fluctue, le protocole LiveU Reliable Transport (LRT) informe l’encodeur et la technologie s’adapte afin de conserver un flux robuste.

Du côté des TVU également, « le système prend en compte les variations de débit et nous fournit un signal en le dégradant si la connectivité réseau est vraiment faible (mode VBR) », explique Philippe Guiblet, directeur technique du media center d’AMP Visual TV.

Par ailleurs, les solutions hybrides (cellulaire/satellite) conjuguent « le meilleur des deux mondes » et permettent de simplifier les flux de travail en répondant aux besoins de la production. « Inutile pour les diffuseurs de choisir entre l’agrégation de liens cellulaires et le satellite pour garantir un lien stable de haute qualité, tout se fait automatiquement en priorisant le réseau le moins cher disponible », explique Romain Batlle, consultant marketing chez LiveU France.

L’autre défi posé aux constructeurs, typiquement pour le sport en direct, a été d’égaliser les délais entre plusieurs caméras. La synchronisation automatique entre les unités d’agrégation de liens facilite désormais les productions multi-sources. Ainsi, en s’appuyant sur le protocole de transfert breveté LRT, l’une des fonctionnalités de la solution de production à distance de LiveU – laquelle, en fait, se confond avec toute la gamme des LU600 HEVC, y compris le 4K-SDI, dédié au streaming professionnel en 4Kp50/60 et à la prise en charge des applications de réalité virtuelle et à 360 degrés – mesure et affiche précisément le délai de bout en bout.

Grâce à LiveU Precision Timing, « il est possible de synchroniser à l’image près de multiples sources vidéo en direct, sans genlock, sans ajouter de câbles et sans avoir à paramétrer manuellement les délais sur chaque caméra », développe Jean-Christophe Albou, directeur commercial France et Europe du Sud.

 

Un management centralisé

Lors de la Coupe du monde de la Fifa l’été dernier en Russie, plus de 485 unités LiveU furent utilisées par les diffuseurs de plus de 40 pays, qui délivrèrent pour l’occasion plus de 15 000 heures de direct, au cours de plus de 30 000 sessions ayant généré un volume de transmission de plus de 36 To de données.

Ce genre de déploiement, en l’occurrence exceptionnel et le plus souvent limité à quelques émetteurs, fait appel à une plate-forme de gestion centralisée. Qu’elle se nomme Le Manager (Aviwest), LiveU Central ou encore Command Center (TVU), chacun des constructeurs les plus présents dans l’Hexagone revendique la sienne. Celle-ci autorise un contrôle à distance complet ainsi que le monitoring de tout l’écosystème et des contenus par le biais d’un navigateur Internet sur un PC ou encore sur un smartphone ou une tablette, via une application dédiée (LiveU Control et autres).

Dans le cas du Manager, par exemple, l’interface web permet de gérer non seulement l’ensemble des émetteurs Aviwest d’un client – typiquement le Pro380 pour le sport, qui possède huit modems et quatre antennes internes –, mais aussi des systèmes tiers, comme des caméras IP, déployés par ce client ou des ayants droit.

Proposée en mode rack ou dans le cloud, la plate-forme donne accès à diverses fonctionnalités, comme le paramétrage à distance des émetteurs/récepteurs, leur géolocalisation (visible sur une carte), l’acquisition de données statistiques sur la consommation des cartes SIM, le routage des flux entrants vers les chaînes clientes et autres réseaux sociaux, la gestion des métadonnées, qui facilite l’indexation des fichiers vidéo, ou encore la communication par intercom (IFB) avec les personnes sur le terrain.

De la même manière, la plate-forme Command Center permet de monitorer l’ensemble des transmissions en provenance des systèmes TVU. Cependant, pour des réglages plus complets, « nous exploitons à ce jour une interface par serveur de réception », précise Philippe Guiblet. Des systèmes qu’AMP Visual TV utilise pour sa part depuis 2012.

Ceux de la dernière génération, de plus en plus compacts et légers, à l’instar des set-up ENG auxquels ils sont notamment destinés, encodent en H264 en base et H265 en option. Ils peuvent agréger jusqu’à douze flux et, comme d’autres systèmes, présentent l’avantage d’une prise en main à distance. Quant à leur autonomie, celle-ci accuse de réels progrès. « La batterie externe rechargeant la batterie interne, on peut avoir une transmission ininterrompue », confirme le responsable.

Une fois la liaison établie, l’intervention se résume à du monitoring, excepté les cas où le réseau s’écroule et où il faut ajouter de la latence pour permettre au logiciel de récupérer les paquets perdus et de livrer ainsi un signal full HD de haute qualité.

 

En route vers la 5G

De quelque 20 millisecondes en 4G, voire un peu plus (50 à 60 m/s) en fonction de l’endroit, de l’opérateur, de la génération du standard et si on ajoute un agrégateur au dispositif, la latence pourrait descendre jusqu’à 1 milliseconde en 5G, à confirmer cependant dans des conditions réelles d’exploitation. « C’est donc la promesse d’une bande passante élargie et d’une qualité d’image supérieure avec l’augmentation des débits. Mais la 5G ne sera probablement pas un moyen de transmission vidéo exploitable avant cinq ans », estime Jérémie Mekaelian.

Même si la transition pour le sport en l’occurrence n’a pas vraiment commencé, la technologie est prête pour fonctionner sur des réseaux IP sans fil et IP centriques à haut débit. « Pour l’heure, nos produits n’intègrent pas de modems 5G. En revanche, ils peuvent s’interfacer avec ceux qui existent », précise ainsi Erwan Gasc.

De la même manière, « les nôtres sont d’ores et déjà opérationnels sur les réseaux “5G Evolution” (encore appelés LTE Advanced Pro), ainsi que sur les réseaux 5G proprement dits, dans les pays où ceux-ci ont déjà été déployés », indique-t-on chez LiveU. Lequel annonce à terme de nouvelles fonctionnalités et de nouvelles unités avec des batteries aux durées encore plus longues.

« La 5G va décupler la puissance des solutions d’agrégation de liens cellulaires pour le HEVC, ce qui rendra les flux vidéo encore plus fiables pour couvrir des événements sportifs en direct », résume Jean-Christophe Albou. Néanmoins, selon le constructeur, son déploiement devrait s’accompagner d’un certain nombre de limitations, sinon de contraintes, telles l’attribution des bandes de fréquence, la propagation des ondes mm (à savoir, pas de couverture en intérieur, des déploiements haute densité coûteux en extérieur et une mobilité restreinte), une couverture partielle, voire incomplète, des territoires et des problèmes de consommation électrique, sans parler de possibles défis de neutralité du Net dans certains pays et une absence de nouveaux services anticipés sur la 5G.

 

 

RF FACTORIES, DES ÉQUIPES ET DES MOYENS DÉDIÉS

Créé en 1994, le service HF d’AMP Visual TV se compose aujourd’hui de :

• 30 permanents

• 80 liaisons HD

• 50 liaisons UHD

• 60 systèmes on-board “picture-in-picture”

• 5 régies flight-case de 4 à 20 liaisons

• 2 cars-régies

• 12 motos

• 2 scooters électriques

• 2 avions relais pressurisés Beechcraft B200 (en partenariat avec WorldLinx Alliance)

 

De son côté, la Business Unit HF d’Euro Media Group (Broadcast RF pour le Royaume-Uni, EuroLinx pour la Belgique, Euromedia RF pour la France) rassemble :

• + 70 permanents

• + 160 liaisons HD

• 180 liaisons UHD (à partir de 2020)

• 30 liaisons Quantum on-board

• 10 cars de réception

• 28 motos

• 5 avions (dont 4 pressurisés)

• Régies flight-case et scooters à la demande (à noter que toutes les prestations à l’étranger sont réalisées sans véhicule).

 

Article paru pour la première fois dans Mediakwest #32, p.94/98. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 27 novembre 2019 à 17:00

Rencontre autour du lancement de la gamme Lectrosonics D Squared

Philippe Sadoughi, directeur de JBK Marketing et importateur officiel de Lectrosonics depuis décembre dernier. © DR

Il y a quelques mois, à  l’occasion du lancement de la gamme HF numérique D Squared de Lectrosonics, nous avons rencontré Philippe Sadoughi, directeur de JBK Marketing et importateur officiel de la marque depuis bientôt un an. L’occasion de faire le point sur l’offre de ce constructeur américain leader sur son marché, mais encore relativement peu connu dans l’Hexagone.

 

J’ai découvert, pour ma part, les produits Lectrosonics il y a une bonne quinzaine d’années, en travaillant sur une production franco-canadienne qui fournissait son propre matériel. À l’époque, les récepteurs portables étaient plutôt imposants, gourmands en piles et la connectique mini-XLR présente sur les émetteurs me paraissait moins sophistiquée que celle que nous connaissions sur les produits européens. J’avais malgré tout été frappé par la robustesse de la fabrication, la qualité de son, et la portée HF de ses liaisons. La marque a ensuite été importée par Tapages qui a contribué à la populariser, notamment sur les applications de tournage cinéma et TV.

En allant faire un tour sur le site du constructeur américain, j’ai été étonné par l’ampleur du catalogue et la nature des témoignages de clients qui, outre le broadcast et le cinéma, évoluent également en sonorisation, dans le monde du spectacle et de l’institutionnel, des spécialités où EVI Audio vient d’ailleurs épauler JBK.

C’est dans ce contexte qu’intervient le lancement de la gamme D Squared, un système de transmission HF audio entièrement numérique qui comprend le récepteur quatre canaux Dante au format demi-rack DSQD, l’émetteur ceinture DBu et l’émetteur main DHu. Pour quels types d’utilisation et avec quels arguments face à la concurrence ? Le point avec Philippe Sadoughi.

 

 

Mediakwest : Depuis quand JBK Marketing est-il importateur de Lectrosonics en France ?

Philippe Sadoughi : Nous avons finalisé nos accords de représentation pour la France avec Lectrosonics en décembre 2018. Nous assurons l’importation, la distribution et le service après-vente en France pour toute la gamme Lectrosonics.

 

M. : Comment cette nouvelle activité démarre-t-elle ?

P. S. : Très bien. Le travail de fond à effectuer en France reste néanmoins très important car la marque n’est connue que des spécialistes, des connaisseurs et des passionnés du haut de gamme.

 

M. : Un mot sur la position de Lectrosonics aux États-Unis et les spécificités du marché français vs le marché américain ?

P. S. : Aux USA, Lectrosonics a été le premier à s’intéresser au marché professionnel et garde donc une place prépondérante. C’est de loin le standard incontesté dans le broadcast, le cinéma, le théâtre, la comédie musicale et l’installation. La marque est réputée pour fournir une portée satisfaisante, même dans des conditions difficiles et des environnements perturbés, notamment grâce à la précision de ses filtres HF. Par exemple, à Broadway Lectrosonics est le premier choix pour les grandes comédies musicales (King Kong, Le Roi Lion, Frozen) où l’on retrouve notamment beaucoup d’émetteurs miniatures SSM Lectrosonics associés à des récepteurs Venue2. Idem dans l’industrie du cinéma californien, autant pour les liaisons HF diverses que pour les enregistreurs miniatures équipés de time code PDR/SPDR utilisés récemment sur Mission Impossible, sans oublier les systèmes IFB très appréciés pour déployer sur le terrain un monitoring casque stable et de bonne qualité.

D’autre part, les produits sont vraiment conçus pour affronter les rigueurs et les conditions environnementales extrêmes que l’on connaît aux USA. On retrouve donc des boîtiers quasi « tout-métal », usinés dans la masse. Tout est « fait maison ». Il faut noter aussi qu’outre Atlantique, les puissances utilisables peuvent atteindre 100 voire 250 mW moyennant une licence, alors qu’en Europe nous sommes limités à 50 mW.

Par contre, nos environnements HF sont plus denses en Europe, avec davantage de fréquences et d’appareils sur de plus faibles distances, et c’est justement les performances de réjection des liaisons Lectrosonics qui commencent à séduire les utilisateurs en France. Dans certains pays voisins comme le Royaume-Uni, cette réputation est déjà en place depuis un grand nombre d’années. En France, la marque a déjà de fervents adeptes, mais un gros travail de communication reste à faire…

 

M. : Comment cette nouvelle gamme D Squared se singularise-t-elle ?

P. S. : La nouvelle série 100 % digitale D Squared représente chez Lectrosonics la quatrième génération de produits basée sur une architecture numérique. Elle bénéficie donc de l’expérience acquise depuis 2001, année de la présentation de la première liaison numérique par Lectrosonics ; puis la technologie Digital Hybrid. Ces nouveaux systèmes sont compatibles avec la gamme Duet sortie en début d’année et rétro-compatibles avec les liaisons Digital Hybrid. En mode numérique, ils permettent une transmission de 20 Hz à 20 kHz avec une latence ultra réduite (1 ms en numérique).

Le récepteur quatre canaux est particulièrement compact puisqu’il n’occupe qu’une demi-largeur de rack sur 1U. Il est doté de sorties analogiques et Dante. Son système de distribution de signal d’antenne sans perte intégré permet de ne déployer que deux antennes pour les quatre récepteurs, tandis que le chaînage vers un deuxième châssis est prévu. Enfin, la possibilité d’encryptage AES256 CTR permet d’assurer la confidentialité des transmissions.

 

M. : Parmi les freins à la banalisation de la HF numérique auxquels les différents constructeurs se trouvent confrontés, on peut citer : la température de fonctionnement souvent élevée, la portée et l’autonomie souvent plus faible qu’en analogique ou encore la latence. Où se situe D Squared sur ces points ?

P. S. : En mode full digital, la gamme D Squared bénéficie d’une latence très faible (1,4 ms de Analog In à Analog Out + délai du réseau Dante). Après, la forte consommation du numérique est incontournable, mais Lectrosonics a mis au point de nouveaux circuits à très faible consommation et haut rendement, ce qui diminue la déperdition thermique. Ainsi, l’émetteur ceinture DBu et l’émetteur main DHu ont tous deux une autonomie de 3h30 sur pile alcaline et 7 heures sur pile lithium ; et ce, calés sur 50 mW de puissance d’émission.

 

M. : Un mot sur la technologie de diffusion et le codec utilisé ?

P. S. : Il s’agit d’une technologie « maison » dont nous ne divulguons pas pour l’instant les détails.

 

M. : À propos d’éventuels développements futurs de la gamme D Squared, est-ce qu’un récepteur portable est prévu ?

P. S. : Dans la gamme d’IEM Duet System, le récepteur pocket numérique stéréo/deux canaux M2R existe déjà, mais je ne peux pas encore avancer de date précise…

 

M. : L’ergonomie du récepteur, architecturée autour d’un écran couleur de taille respectable, semble avoir été travaillée. Quid de celle des émetteurs qui ont la réputation de demander un temps d’apprentissage ?

P. S. : Évidemment, sur l’émetteur miniature SSM, l’écran est petit et les segments sont grands afin de garder une bonne lisibilité. Vu le type d’utilisation du produit et afin d’éviter tout déréglage accidentel, il faut passer par une combinaison de touches pour entrer dans le menu configuration. Par contre, sur les nouveaux émetteurs numériques, l’écran est plus grand et on entre très simplement dans la configuration via la touche Menu, mais nous conservons des segments de grande taille pour une bonne lisibilité car tout le monde n’a pas gardé des yeux d’ados…

 

M. : Quelles sont les utilisations possibles pour cette nouvelle gamme ?

P. S. : Avec ses caractéristiques (qualité audio, faible latence, compatibilité Dante, format compact, large-bande HF 470-614 et grande portée), elle peut séduire de nombreux utilisateurs, notamment dans des applications de roulante cinéma, plateau TV, concert et installation…

 

 

LECTROSONICS : UN CATALOGUE À DÉCOUVRIR

Lectrosonics démarre son activité en 1971 avec, à l’époque, la gamme de systèmes de sono portable Voice Projector, tandis que les premiers produits HF sortent dès 1975, basés d’abord sur une activité OEM qui évoluera progressivement vers des produits originaux. Étant l’un des premiers à investir le marché professionnel de la transmission audio sans fil aux USA, Lectrosonics reste leader aujourd’hui. Historiquement, on doit à la marque son procédé Digital Hybrid breveté en 2007.

Lectrosonics a su également se distinguer en proposant des émetteurs ceintures originaux comme le petit SSM au format briquet Zippo, ou encore le WM complètement étanche. Quasi inconnue en France, la gamme Aspen se destine à l’installation et comprend entre autres des matrices de distribution numérique, des systèmes de mélanges automatiques pour la conférence ou encore des boîtiers de conversion Dante.

Juste avant la gamme D Squared, Lectrosonics a lancé le Duet IEM System, une nouvelle gamme numérique dédiée au monitoring casque. Elle comprend l’émetteur stéréo DCHT pour caméra qui, dans un format portable, permet de déployer un monitoring deux canaux sur une seule porteuse et accepte un signal AES, micro ou ligne en entrée. On y trouve également l’émetteur fixe M2T qui propose quatre canaux format demi-rack et existe en version Dante, ainsi que le récepteur ceinture M2R.

 

 

DIGITAL HYBRID ET MODÉLISATION

Le procédé Digital Hybrid se singularise par la transmission d’un signal numérique sur une porteuse FM Analogique, supprimant ainsi la nécessité du compandeur (procédé qui prévoit une compression à l’émission, puis une expansion à la réception NDLR). Cette technologie améliore la dynamique, le rapport signal/bruit et bande passante, supprime les artefacts dus au compandeur et constitue encore aujourd’hui la spécificité des gammes fixes (sonorisation, plateau, installation) et portables (ENG, cinéma) du constructeur.

« Toute la gamme Digital Hybrid est néanmoins compatible avec la plupart des liaisons analogiques grâce à une modélisation par DSP des principaux compandeurs du marché. On peut ainsi utiliser soit des émetteurs Lectrosonics sur des récepteurs d’autres marques, soit le contraire ; sachant que seul le mode Digital Hybrid pur garantit une transmission aussi fidèle qu’un câble », ajoute Philippe Sadoughi, qui précise : « C’est d’ailleurs le seul système référencé par Smaart pour les mesures acoustiques sans fil. Cette technologie hybride permet d’associer la faible consommation et la grande portée de la modulation de fréquence (FM) analogique avec la linéarité du signal numérique échantillonné en 24 bits/88 KHz. ».

 

Article paru pour la première fois dans Mediakwest #33, p.24/25. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 28 novembre 2019 à 17:00

Record de luminance pour le DP-V3120, nouveau moniteur pro 4K HDR Canon

Record de luminance pour le DP-V3120, nouveau moniteur pro 4K HDR Canon © DR

Canon Europe étend sa gamme de moniteurs de référence professionnels avec le lancement du DP-V3120, un modèle professionnel HD 4K de 31 pouces (78,7 cm). Avec une qualité d’image exceptionnelle assurée par une haute luminance de 2.000 cd/m² (valeur la plus élevée du marché), un ratio de contraste de 2.000.000:1, une précision et une cohérence exceptionnelles, une gamme de couleurs étendue et de nombreuses fonctions d’assistance en monitoring HDR, le DP-V3120 est le moniteur de référence parfait pour la création de magnifiques contenus HDR professionnels.

 

Luminance plein écran de 2000 cd/m² avec ratio de contraste de 2.000.000:1

Le DP-V3120 délivre une luminance plein écran de 2000 cd/m² parmi les plus élevées de l’industrie, obtenue grâce à un système de rétro-éclairage très performant nouvellement développé par Canon. Ce système repose sur des LED à haute efficience, sur un algorithme de contrôle de ces LED très précis et sur un traitement d’image sophistiqué qui permettent à l’écran de restituer un noir minimum de 0,001 cd/m² et un exceptionnel ratio de contraste de 2.000.000:1 assurant une reproduction très précise des détails dans les ombres et dans les très hautes lumières. Le système de rétro-éclairage incorpore un mécanisme de refroidissement de conception nouvelle qui permet au moniteur de produire cette haute luminosité en continu dans un fonctionnement silencieux, ce qui le rend idéal comme outil d’étalonnage. D’autre part, ce système de rétro-éclairage innovant mis au point par Canon est équipé de capteurs répartis sur l’ensemble de l’écran et d’une technologie de correction automatique ‘intelligente’ qui permet au moniteur de maintenir la parfaite précision de l’image durant toute la durée de son fonctionnement.

 

Très performant en impératifs de production

En plus de sa compatibilité pour les gammas conventionnels 2.2, 2.4, 2.6, et ITU BT.1886 et pour les fonctions de transfert Electro-Optical HDR (EOTF), SMPTE ST.2084 et ITU-R BT.2100 (HLG), le DP-V3120 est également compatible avec les larges espaces couleurs BT.2020 et DCI-P3 pour une reproduction de couleurs fidèle et cohérente, conforme aux exigences de production SDR et HDR.

Le DP-V3120 dépasse les caractéristiquesi de moniteur requises par Dolby Vision, y compris les caractéristiques de General Monitor et de Reproduction d’échelle de gris afin de répondre à la capacité de post-production certifiée de Dolby Vision. Avec cette réalisation, Canon prouve une fois de plus sa capacité de contribution à la production effective de contenus visuels HDR de haute qualité et propose une solution efficace aux besoins variés des flux de production.

 

Fonctionnalité étendue

Afin de répondre à la demande d’excellence et d’efficacité en matière de flux de production HDR 4K, le DP-V3120 propose toute une gamme de fonctions de monitoring HDR afin de visualiser les paramètres de signal HDR tels que le blanc HDR de référence et les niveaux de signal et de luminosité d’image pour une optimisation de signal précise. Équipé d’une interface 12G-SDI, le DP-V3120 peut afficher une image 4K via un simple câble SDI. Avec ses 4 interfaces 12G-SDI, le moniteur peut également gérer 4 entrées de signaux 4K différents pour fournir un affichage d’écran divisé en 4 images ou afficher une seule image 4K par alternance des entrées. De plus, les 4 connecteurs d’interface 12G-SDI permettent la gestion d’une entrée de signal 8K.

Le DP-V3120 est également compatible avec le récent Video Payload ID pour l’identification des caractéristiques du transfert de signal, et une fonction de réglage automatique offre la possibilité de commuter automatiquement entre les réglages de mode image. En complément, le moniteur peut être contrôlé à distance par une connexion réseau permettant l’accès à toutes les commandes de menu, aux réglages et aux liens avec d’autres moniteurs ainsi qu’aux réglages d’affichage et à l’information de signal.

Deux autres lancements ont lieu : celui de l’EOS C500 Mark II, une caméra du système EOS Cinéma de nouvelle génération et un objectif Broadcast, le zoom CJ15ex4.3B, qui seront présentés pour la première fois avec le DP-V3120 sur le stand Canon (Hall 12, Stand D60) à l’IBC 2019 du 13 au 17 septembre. Le moniteur DP-V3120 sera disponible à partir du mois de novembre. 

 

Caractéristiques principales du DP-V3120 :

• Luminance de 2000 cd/m² sur l’intégralité de l’écran

• Reproduction d’un niveau de noir de 0,001 cd/m²

• Compatibilité norme HDR EOTF (SMPTE ST 2084 / ITU-R BT.2100)

• Compatibilité large gamme de couleurs dont DCI-P3, ITU-R BT.2020

• Fonctionnement silencieux

• Importante trousse à outils de monitoring HDR

• Interface 12G-SDI / HDMI 2.0

  • 28 novembre 2019 à 17:00

Le Graphisme TV avec Luxiris...

Mathieu Rodrigues, Hugo Denier et Loïc Le Roux de Luxiris. © DR

Depuis 20 ans, la société de prestation de service audiovisuel haut de gamme Aski-da, créée par Nicolas Gautron, a grandi pour devenir le groupe Aski-da Taldea. Les cœurs de métiers originels d’Aski-da sont l’assistance technique aux utilisateurs et la maintenance des systèmes de production. L’offre du groupe, destinée essentiellement aux chaînes de télévisions, s’est étoffée avec l’acquisition de son partenaire historique, le célèbre centre Lapins Bleus Formation, qui œuvre depuis 15 ans auprès des professionnels de l’audiovisuel et la création. Puis, il y a 6 ans, il a acquis Woody Technologies, qui développe des logiciels dédiés au traitement des médias. Luxiris est le petit dernier du groupe. Son objectif : proposer une offre de service dédiée au graphisme au sens large, avec toujours la même rigueur, depuis l’habillage antenne et les synthés jusqu’à la réalité virtuelle et augmentée.

 

Loïc Le Roux est en charge du développement de cette nouvelle structure. En pleine formation avec ses équipes, il nous a accueillis au sein du Cargo, le bâtiment qui accueille l’ensemble des sociétés du groupe.

 

Mediakwest : Peux-tu nous présenter Luxiris en quelques mots ?

Loïc Le Roux : Notre offre va du conseil avec des prestations de chefs de projets jusqu’à l’intégration graphique et l’aide à l’exploitation, en passant par la formation en partenariat avec Lapins Bleus Formation. Nous aidons les cellules graphiques à appréhender les récents bouleversements et les importants changements techniques. Le marché du graphisme TV vit actuellement une évolution liée à l’immixion des technologies du jeu vidéo, à la pointe pour la qualité des rendus temps réel. Le point de départ de Luxiris, c’est la constatation d’un besoin d’accompagnement pour le marché des télévisions qui n’étaient pas forcément équipées en interne sur ces compétences-là.

 

M. : Pourquoi créer une entité séparée ? Ne risquez-vous pas d’empiéter sur les prestations auxquelles pouvait déjà répondre Aski-da ?

L. L. R. : Avec Luxiris nous répondons à une demande très spécifique de la chaîne de production des télévisions. Les équipes de news sont les premières concernées, avec une activité majoritairement live. Grâce à cette entité dédiée, nous complétons l’offre d’Aski-da centrée sur le service, le support et la gestion de projets. Luxiris ne se positionne pas sur le domaine des agences de création, mais dans la chaîne de mise à l’antenne des éléments graphiques. Nous intervenons sur la transformation de la volonté artistique pour l’intégrer aux outils techniques.

 

M. : Travaillez-vous en partenariat avec les agences de création ?

L. L. R. : Pas forcément. Généralement une agence de création est missionnée par la chaîne pour réaliser un ensemble d’éléments graphiques. Nous intervenons ensuite lors de l’intégration graphique au sein des solutions techniques, ainsi que pour la mise en place des process et des workflows, auxquels suivront des phases d’installation et d’exploitation. Le cœur de notre métier est la réponse à toutes les problématiques liant graphisme et technique, en restant fidèles aux choix artistiques et éditoriaux.

 

M. : Qui est à l’origine de Luxiris ?

L. L. R. : Nicolas Gautron a été le premier à évoquer cette idée, née du besoin de certains clients qui étaient curieux de la réponse que pouvait leur apporter Aski-da. Le besoin principal est véritablement lié à l’arrivée du moteur de jeu vidéo Unreal Engine dans l’audiovisuel. Les possibilités de création graphique 3D temps réel existent déjà, des moteurs étant proposés depuis 10 ou 15 ans par les acteurs historiques du marché ; mais ces solutions sont basées sur des systèmes propriétaires que peu de gens savent exploiter.

Depuis 2 ou 3 ans, de nouveaux intervenants sont arrivés autour de la technologie Unreal, disponible gratuitement. Epic Games, l’entreprise à la base d’Unreal, a connu un très beau succès avec le jeu Fortnite. Grâce à leur conséquent trésor de guerre, ils ont pu développer le moteur Unreal Engine et le rendre disponible. Epic Games gère toujours le moteur et valide les apports de la communauté. Leur modèle économique est celui du jeu vidéo, l’utilisation du moteur est gratuit en dessous d’un certain chiffre d’affaires, une redevance étant reversée à Epic Games à partir de ce seuil. Avec ce modèle, l’utilisation du moteur est gratuite pour les domaines du cinéma et de la télévision ; il suffit alors de l’implémenter sur un « bon ordinateur » avec les cartes vidéo adéquates.

Côté humain, il faut une bonne dose de talent et faire travailler les gens issus de l’univers informatique pour la télévision. Il faut également intégrer la solution dans les systèmes de pilotage existants. Les nouveaux éditeurs qui bouleversent le marché associent une surcouche au moteur Unreal Engine pour gérer la partie télé. On peut citer l’entreprise turque Zero Density qui a commencé en proposant essentiellement la création de décors virtuels. Les grands éditeurs ont développé des outils autour de cette technologie. Pendant un an et demi, Avid a réalisé le portage du moteur Unreal Engine sur sa solution via une plate-forme Linux ; depuis un an, la solution est proposée en production.

 

M. : Peux-tu nous donner quelques exemples de produits commercialisés ?

L. L. R. : Maestro Virtual Set est le nom commercial de l’offre actuelle d’Avid, France Télévision a été pionnier dans ce domaine et l’utilise depuis un an pour son journal télévisé. Plusieurs chaînes sont en phase de test pour qualifier les apports des technologies basées sur ce moteur de rendu. La chaîne Weather Channel, qui propose notamment des programmes expliquant le fonctionnement de phénomènes météorologiques, exploite la solution Frontier du fabricant Ross Video qui intègre le moteur Unreal Engine dans un environnement vidéo. Plusieurs acteurs ont entrepris le portage de cette solution, que ce soit de nouveaux entrants ou des sociétés déjà connues.

 

M. : Les entreprises historiques ont-elles souffert dans « la bataille » ?

L. L. R. : Les acteurs existants mettent en avant leur importante connaissance des solutions technologiques liées à l’habillage antenne : leurs contrôleurs sont déjà connus des professionnels de la télévision qui bénéficient ainsi des apports du moteur Unreal Engine sans changer leurs habitudes - c’est la promesse d’éditeurs tels qu’Avid par rapport aux nouveaux entrants dont Zero Density qui impose le déploiement de systèmes nouveaux (base PC - spécificités fournies pour les configurations machines et les cartes graphiques et vidéo).

 

M. : Loïc, peux-tu nous préciser tes fonctions au sein de Luxiris et ton parcours ?

L. L. R. : Je m’occupe du développement de Luxiris qui bénéficie de l’expérience structurelle, organisationnelle et administrative du groupe Aski-da Taldea. J’ai commencé à l’exploitation des systèmes de diffusion. Pendant une dizaine d’années, j’étais réalisateur de direct pour Public Sénat avant de rejoindre France 24 où je me suis intéressé de près à la partie graphisme ; je suis devenu référent graphique officiel quand j’ai intégré l’entreprise, environ trois ans après le lancement. En tant que coordinateur graphique, j’étais à la frontière entre la technique et l’artistique et je supervisais l’intégration. En fin de carrière à France 24, j’étais ingénieur chef de projet, avant de rejoindre Aski-da, où j’ai pris en charge une mission, chez NextRadioTV pour le compte de Red Bee, sur les systèmes graphiques dans le cadre de leur déménagement.

 

M. : Tu prends donc la tête de l’opérationnel, y a-t-il d’autres personnes dédiées à Luxiris ?

L. L. R. : Nous avons commencé avec un graphiste en interne, deux personnes nous rejoignent très prochainement. De fortes synergies sont mises en place avec les équipes d’Aski-da.

 

M. : La formation est-elle une partie importante de votre offre ?

L. L. R. : Il y a un manque dans ce domaine, même sur les outils traditionnels dédiés à l’habillage graphique. Lorsqu’elles existent, les formations sont souvent dispensées par le distributeur ; elles ne sont pas forcément certifiantes. Avid nous a demandé de les épauler sur leurs formations. Nous prenons également un soin particulier à la formation de nos équipes pour offrir les meilleures prestations.

Les formations étant proposées en partenariat avec Lapins Bleus Formation, nous bénéficions de leur qualité reconnue dans le « sur-mesure » nécessaire à la formation des profils hybrides (informatique, TV, technique, organisation), des profils qui vont être recrutés ou déployés sur les projets Unreal au sein des chaînes.

Plus simples à appréhender par les clients, nous allons proposer dans un premier temps des formations « produits », mais ces derniers étant intégrés dans un environnement de production, il sera bien entendu au cœur de nos formations. Les graphistes au sein des chaînes ne connaissent pas ces nouvelles technologies et les spécialistes Unreal ne maîtrisent pas l’univers de la télévision. C’était le cas de Mathieu, notre premier graphiste à qui nous avons apporté la connaissance « télé », alors que lui nous permettait de monter en compétence sur Unreal.

 

M. : Est-ce que la technologie Unreal change vraiment tout ?

L. L. R. : De très belles choses sont possibles avec d’anciennes technologies et de grands échecs peuvent naître des nouvelles solutions : l’outil seul n’est pas un gage de réussite. Par contre, les utilisateurs d’Unreal constituent une communauté extrêmement importante là où les connaisseurs des solutions propriétaires restent peu nombreux. Une quinzaine de personnes maîtrisent les outils Vizrt sur Paris. De nombreux tutoriels sont également disponibles sur Internet. Des bibliothèques proposent l’accès à des éléments « pré-faits » pour des prix très abordables par rapport au marché du broadcast : des assets (éléments ou environnements 3D) coûtant entre 50 et 100 euros.

La simulation physique qui n’était pas développée sur les solutions TV habituelles est un atout venu du « jeu vidéo » : des animations chronophages telles que le rebond d’un objet sur le sol sont automatiques. La création d’environnement est facilitée, avec un gain de temps conséquent apprécié des chaînes. Pour moi la qualité de l’image finale reste intimement liée aux graphistes ; le gain de ces nouvelles solutions se situe essentiellement dans le temps de développement et la très grande souplesse d’utilisation.

 

M. : Peux-tu nous évoquer les travaux en cours ?

L. L. R. : Nous travaillons sur deux projets pour lesquels nous tairons le nom des clients, nous les aidons à caractériser l’apport de ces outils, et plutôt que de « visiter l’appartement témoin », d’observer la très belle démonstration du constructeur, c’est en intégrant leur habillage existant que nous leur démontrons l’intérêt des nouvelles fonctionnalités. Nous avons travaillé en collaboration avec Avid sur leur démo « réalité virtuelle » au NAB ; c’était « en flux tendu », ils étaient encore en phase de finalisation de la dernière version de Maestro Virtual Set.

Notre travail est visible sur le clip de présentation de la page dédiée à cet outil sur le site d’Avid : une jeune femme fait des présentations dans le décor que nous avons adapté. Ce sont des projets stratégiques pour nos clients, nous avons de nombreux projets en cours que nous devons garder secrets.

 

M. : Quels sont vos atouts ?

L. L. R. : Nous proposons une approche globale de la chaîne de production, certains concurrents vont proposer l’intégration graphique et éventuellement la gestion des datas, mais pas forcément la gestion complète du projet.

 

M. : Visez-vous d’autres marchés que la télévision ?

L. L. R. : Les télévisions représentent le marché que nous connaissons le mieux. Nous savons que des besoins existent dans le domaine de la fiction, notamment pour la prévisualisation. Je pense que nous apprécions ce marché par le biais de la fiction produite pour la télévision.  

 

Merci Loïc de nous avoir présenté cette activité, je te propose de nous revoir dans quelques mois pour que tu nous présentes la concrétisation de certains projets !

 

Article paru pour la première fois dans Mediakwest #33, p.26/28. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 4 décembre 2019 à 17:00

En route vers l’IT avec le cloud, la vidéo sur IP et la norme ST-2110

Les studios de Canal Factory à Boulogne ont été réaménagés à l’automne 2016 avec une infrastructure vidéo sur IP à la norme ST2022-6. © Canal Plus

Le cloud, la vidéo sur IP, et plus récemment les microservices, sont devenus des termes habituels dans les annonces des constructeurs ou éditeurs de logiciels. Ils recouvrent à la fois des évolutions technologiques majeures, mais sont aussi à l’origine de bouleversements dans les pratiques professionnelles. À l’occasion du prochain IBC, nous avons souhaité faire le point sur leur introduction ou leur usage avec divers acteurs engagés dans leur mise en œuvre au long de la production et de la diffusion TV.

 

La production et la diffusion TV ont vécu depuis leur origine, dans les années soixante, de multiples mutations techniques. Certaines, comme le passage du noir et blanc à la couleur ou la montée en résolution, SD puis HD et maintenant UHD, ou la conversion de signaux analogiques vers leurs équivalents numériques, constituaient de simples évolutions, certes complexes, mais ne remettaient pas en cause l’organisation des processus de fabrication des images. Le basculement des équipements dédiés vers des outils informatiques et l’abandon des supports physiques vers une dématérialisation totale des contenus en mode fichiers ont marqué une étape beaucoup plus cruciale dans les évolutions techniques des processus de production et de la diffusion des chaînes.

Nous sommes à l’aube de transformations encore plus radicales avec sans aucun doute des conséquentes majeures avec la génération des câblages en tout IP, le transfert de nombreuses tâches dans le cloud, et des évolutions essentielles dans le développement des logiciels avec l’arrivée des microservices. Tous les constructeurs spécialisés dans le hardware dédié ont déjà engagé cette mutation à des niveaux plus ou moins avancés. De nouvelles dénominations ou sigles ésotériques apparaissent dans leurs communications ou sur leurs stands dans les salons. Nous avons interrogé des acteurs impliqués dans ces innovations pour recueillir leurs avis sur le déploiement et la mise en œuvre de ces nouvelles technologies.

Dès le début de notre entretien, Pierre Maillat, responsable des études et de l’architecture à la direction technique Édition à Canal Plus, reprend les propos tenus par Brad Gilmer, directeur de l’AMWA lors d’une conférence de presse : « Si vous passez du SDI à l’IP juste pour faire une transposition de signal, ça ne sert pas à grand-chose. Il faut en profiter pour faire évoluer les workflows et “re-imaginer” nos métiers. Lors du dernier Avid Connect, c’était également le même leitmotiv à propos de la nouvelle version de Media Composer : “Re-imagine” pour améliorer la flexibilité et l’agilité dans nos process. »

Le point commun de ces évolutions techniques majeures, c’est le réseau IP. En effet, il est à la base de la transformation du câblage traditionnel SDI vers les infrastructures vidéo live sur IP, maintenant standardisées par la norme ST-2110. Mais il est également à la base de tous les services de cloud et du transfert des traitements sur machines dédiées vers des outils banalisés, soit « on premise » (sur site), dans des data centers ou dans le cloud.

La généralisation du réseau IP ouvre également les portes à la remote production. Pierre Maillat préfère employer le terme de « production distribuée ». Pour lui, avec le réseau IP, toutes les infrastructures fonctionnent en mode distribué, que ce soit localement à l’intérieur d’un même site de production, et là sans aucune contrainte de débit ni de latence, ou à distance comme on l’entend généralement. Sur un site local comme Canal Factory, une réaffectation immédiate des ressources permet de les exploiter dans des configurations adaptées à chaque production. Si elle est répartie sur deux sites distants, se pose alors la question du transport des images et des sons.

Lors du dernier Festival de Cannes, une régie de Canal Factory a été utilisée pendant dix jours pour la fabrication des émissions de Canal pour couvrir l’événement et assurer jusqu’à deux directs du canal local TV Festival. Une large part des équipements était installée à Boulogne et exploitée sur place ou depuis Cannes selon les besoins. Les deux sites étaient reliés pour cette occasion par deux fibres optiques Orange à 8 Gigabit/s. La couverture d’autres évènements sportifs internationaux est de plus en plus souvent assurée en mode remote production.

 

Les équipements ST-2110 arrivent à maturité

Romain Molari, directeur du développement du groupe 42 Consulting, constate que « le choix d’une infrastructure câblée en ST-2110 n’est plus un sujet de débat. Les offres des constructeurs sont matures. Pour l’instant en France cela reste timide et, hormis le déploiement de Canal Factory réalisé en 2016, et qui d’ailleurs fonctionne en 2022-6, il n’y a aucune autre grosse infrastructure basée sur de la vidéo non compressée sur IP. »

Par contre, ailleurs en Europe, plusieurs chaînes se sont lancées comme RTL TV à Luxembourg, en collaboration avec BCE, ou la chaîne privée portugaise SIC en partenariat avec Sony. Plusieurs cars régie ont été construits avec des réseaux vidéo sur IP, comme ceux d’Athena TV en Grande-Bretagne ou de TPC en Suisse. Dans le cadre de son déménagement, Radio Canada a également fait le choix d’une infrastructure vidéo sur IP.

Manuel Ferreira, vice-président en charge des ventes des produits orientés production et playout, sur la zone EMEA pour Harmonic, confirme de son côté la percée de la vidéo sur IP puisque sa société a déployé plus de 250 licences de diffusion en SMTPE 2110 sur ses serveurs Spectrum X, avec une prévision sur plus de 500 licences d’ici la fin de l’année.

Romain Molari poursuit : « Le choix d’une infrastructure tout IP n’apporte pas de gain économique s’il s’agit d’équiper une régie classique car la technologie reste encore chère. Les chaînes restent encore frileuses, mais je pense que cela va se décanter en 2020 ou 2021. Deux projets sont en cours actuellement chez Eurosport et Radio France. Il n’y a plus de frein technologique, même s’il est préférable de choisir un système conçu à partir d’équipements choisis chez un même constructeur. »

L’interopérabilité promise par le déploiement de la norme ST-2110 et sa généralisation sur de nombreux matériels est bien réelle. Le POC (Proof Of Concept), mené début juillet par Vidélio et l’IIFA, a démontré que globalement l’interconnexion et les échanges de signaux entre des équipements de diverses provenances fonctionnent. Il subsiste encore des domaines à normaliser, en particulier au niveau du contrôle des équipements. Les travaux de l’AMWA progressent bien et plusieurs chapitres du standard NMOS ont déjà été publiés. Ils doivent trouver leur concrétisation sur les équipements.

Les difficultés relevées lors du POC concernent plutôt la maîtrise de l’intersynchronisation avec le signal PTP, le suivi de documentation technique par les constructeurs et surtout la composition des équipes techniques qui doivent associer les compétences métier du broadcast avec celles de l’IT et d’une très bonne maîtrise des réseaux.

 

Les usages multiples du cloud

Le cloud est un thème récurrent depuis plusieurs années dans les annonces des constructeurs et des éditeurs. Les services de cloud (Amazon Web Services ou AWS, Azure de Microsoft, Google et bien d’autres) sont déjà largement utilisés pour une multitude de services liés à Internet. Concernant le broadcast, toute une série de stratégies est proposée pour offrir une plus grande souplesse pour la production, le traitement, l’archive et la diffusion.

Tous les grands constructeurs proposent une transposition de leurs outils de processing et de diffusion vers des services cloud sous forme d’une offre SaaS (Software as a Service). Manuel Ferreira détaille les avantages de la plate-forme VOS d’Harmonic, une solution SaaS (Software as a Service) déployable soit sur cloud privé, VOS SWCluster, soit sur cloud public, VOS360 Origination.

« Lancer une nouvelle chaîne de télévision nécessite en général un investissement initial conséquent, et donc un risque pour les opérateurs de télévision. Avec notre solution SaaS de diffusion, ce n’est plus un problème. Les diffuseurs peuvent lancer de nouvelles chaînes rapidement, avec un investissement initial minime, et la stopper aussi vite en fonction de l’intérêt du public. C’est un risque faible avec des bénéfices potentiellement élevés. De même le lancement d’une chaîne évènementielle ou d’une chaîne locale est extrêmement simple et demande très peu de temps avec VOS. Une fois les médias transférés sur le cloud, il suffit de composer en ligne dans l’outil VOS la play-list, puis en quelques heures de lancer sa diffusion. Il est possible de mélanger dans une même playlist des fichiers média MXF, des évènements en live. Ces outils sont tout aussi bien destinés à des chaînes premium que pour la création de chaînes temporaires », estime-t-il.

Et Manuel Ferreira de poursuivre : « Autre usage de VOS : mettre en place un système de secours de type PRA (Plan de Reprise d’Activités, ou Disaster Recovery). Au lieu de faire des investissements lourds pour du matériel qui ne tournera pratiquement jamais, il y a un coût limité en mode permanent et le service complet n’est facturé qu’en cas de diffusion réelle. Harmonic offre une réelle flexibilité avec la possibilité de recevoir une facture unique, incluant les coûts du cloud, ou uniquement ceux de la partie SaaS, dans le cas d’un client disposant d’un contrat indépendant plus avantageux avec un fournisseur de cloud. »

 

Le cloud hybride, meilleur compromis ?

Mais pour l’instant les chaînes restent circonspectes face à ces offres pour basculer intégralement dans le cloud et, selon l’adage paysan bien connu, ne souhaitent pas mettre tous leurs programmes dans le même panier (ou sur un service unique). Très souvent elles gardent la majeure partie de leurs activités sur des infrastructures internes qu’elles gèrent en direct ou via des prestataires spécialisés pour les chaînes de moindre envergure, transfèrent une partie de leurs outils ou de leurs travaux vers des data centers externes, et enfin répartissent une partie encore limitée de leurs travaux vers des clouds privés ou publics, essentiellement pour la partie streaming et pour les services de VOD ou d’OTT.

Édouard Prévost, co-fondateur et COO de Carrick-Skills, architecte de workflows médias, précise les termes de cet équilibre : « Si on garde toutes les infrastructures en local, on a moins de flexibilité et il faut en assurer la sécurisation. Avec le cloud, c’est plus souple car on lance à la volée autant de services que nécessaire. Mais effectuer 100 % du travail dans le cloud, c’est encore très cher. Pour moi, l’avenir ce sont les architectures hybrides. »

Autres limitations relevées par Romain Molari, la taille des fichiers et l’intégration d’équipements avec des entrées/sorties spécifiques. « Tant que l’on reste en mode fichiers, ça fonctionne, mais par exemple rajouter une simple mixette devient très lourd. »

Par contre, pour des travaux ou des prestations clairement identifiés, des laboratoires créés récemment ont fait le choix du cloud. Il en est ainsi pour Nomalab, qui fait le trait d’union entre des producteurs ou des ayants droit d’un côté et les chaînes et les diffuseurs de l’autre. Face à la multitude des formats de fichiers, des containers, des codecs et de la répartition des divers éléments constituant le programme (en particulier, sous-titrage et affectation des pistes audio), le laboratoire propose un archivage des contenus avec consultation via un simple navigateur, effectue un contrôle qualité et convertit le master fourni pour le producteur dans le format de PAD réclamé par la chaîne. Nomalab effectue toutes ses prestations sur une infrastructure dans le cloud.

Jean Gaillard, son président, explique : « Nous n’avons pas de machines sur place ni d’espace de stockage en interne. Cela élimine toutes les contraintes au niveau matériel. Nous effectuons toutes nos prestations sur une architecture 100 % distribuée et 100 % dans le cloud. Tous les traitements sont indépendants et nous pouvons lancer plusieurs centaines de travaux en parallèle. Tout doit être “scalable” (extensible et élastique). À titre d’exemple, l’intégralité d’un catalogue de 600 titres, cédé pour une exploitation en VOD a pu être traité, conformé et relivré en quelques jours. Un autre cas avec une série entière de plusieurs centaines d’épisodes, validée pour acquisition et livrée prête à être diffusée ou publiée en quelques heures. »

D’autres facteurs peuvent expliquer cette frilosité des chaînes. Les gains économiques sont rarement au rendez-vous et ce sont même plutôt des surcoûts non chiffrés au départ qui apparaissent au bas de la facture.

Jérôme Viéron, directeur technique de Quortex estime pour sa part que : « quand les chaînes TV ou les diffuseurs ont voulu utiliser des services de cloud, ils ont transféré directement leurs logiciels et workflows sur des machines virtuelles distantes sans profiter des avantages spécifiques apportés par le cloud. Du coup, les économies sont rarement là. »

Dans une interview qu’il nous a accordée (parue dans le magazine Mediakwest #33), il détaille toutes les innovations sur lesquelles sa société est en train de bâtir une offre innovante dans le domaine du streaming et de la diffusion de la TV par Internet.

 

Des outils de développement adaptés au cloud

La situation pourrait évoluer avec l’introduction de nouvelles fonctionnalités du cloud et de nouveaux outils pour le développement des logiciels, comme les microservices et les protocoles « stateless », le mode « serverless » et les machines préemptives chez les fournisseurs de services de cloud ou encore l’évolution des machines virtuelles vers un fonctionnement en containers avec Docker ou enfin l’orchestrateur Kubernetes. Ce ne sont pas réellement des nouveautés et sont déjà au cœur de multiples services Internet ou intégrés dans de nombreux systèmes de gestion. Tous ces outils de développement ont été conçus pour créer des applications dites « cloud native » beaucoup plus efficaces pour fonctionner dans des environnements de type cloud. Néanmoins, elles peuvent fonctionner sur des machines virtuelles sur site pour les chaînes qui n’ont pas encore sauté le pas vers le cloud.

Ces nouveaux modes de développement commencent à instiller le monde du broadcast et ces terminologies apparaissent dans la communication des constructeurs. Ainsi, Imagine Communications s’engage résolument dans cette voie avec Zenium.

Comme l’explique Darren Gallipeau, responsable produit : « Zenium n’est pas réellement un produit. C’est un framework, une collection de composants et de technologies qui permettent de construire des workflows de traitement, centrés sur la gestion de fichiers, le streaming, l’affichage multiviewer ou un serveur de diffusion. Il nous sert actuellement à créer des nouveaux produits. Avec sa structure modulaire, il peut fonctionner sur des machines virtuelles, sur site ou dans le cloud. Son architecture ouverte permet aussi au client de l’enrichir grâce à un SDK et de définir des outils sur mesure. »

Malgré ces annonces enthousiastes, des acteurs du monde du broadcast tempèrent cette excitation. Édouard Prévost, constate que « le développement d’applications basées sur les microservices concerne en priorité le domaine de la gestion. Pour le secteur du broadcast, les fonctions concernées sont donc celles liées à la manipulation de métadonnées, par exemple le MAM ou le “traffic system”. Par contre lorsqu’il s’agit de manipuler les médias eux-mêmes, pour du transcodage ou du processing, l’élément le plus limitatif, c’est d’abord le hardware. »

« Chez Carrick-Skills, nous avons repris la logique du microservice, mais nous déclinons cela sous forme de microworkflows, ce qui nous permet de contourner ces limites matérielles et donc gagner en efficacité. Le microservice nous simplifie le déploiement, mais ce n’est pas là que se trouve le gain pour le client en termes de retour sur investissement. », explique-t-il.

Tous ces nouveaux outils, microservices, docker et Kubernetes offrent plus de souplesse. Comme le développement est plus rapide, le développeur a tendance à faire évoluer son code sans cesse, mais la mise à jour des outils eux-mêmes peut l’obliger à reprendre certaines parties du code et a contrario ralentir le processus global et être contre-productif. Il y a également la difficulté à bien dimensionner la taille des microservices. S’il est trop gros, on retombe dans la complexité des applicatifs traditionnels, et s’il est trop petit on se retrouve face à une foule difficile à maîtriser. Comme le dit un ingénieur de Google, la bonne taille d’un microservice correspond à une équipe de développement qu’on peut nourrir avec deux pizzas.

Pour Romain Molari, « il ne faut pas céder aux effets de mode et mettre en place des microservices pour dire qu’on en fait. Si un logiciel classique tourne correctement sur une machine locale, et qu’il fait le travail, il vaut mieux le laisser en place. »

Il évoque également le risque de coûts mal maîtrisés. « Monter un serveur AWS ça demande trois clics. Du coup on monte un serveur pour faire un test ou une démo avec une appellation pas très explicite. Et puis on oublie de le fermer. Quand on vérifie la facture en fin de mois on découvre des lignes dont personne ne se souvient. Il faut donc prévoir une logistique pour maîtriser ce type de surcoût. »

 

Une préoccupation majeure : la sécurité

Une autre thématique qui émerge dans les préoccupations des chaînes concerne toutes les questions liées à la sécurité et à la sûreté. Ce domaine concerne à la fois la protection physique des installations déjà largement prise en compte par le passé, mais surtout les mesures indispensables pour se prémunir des cyber-attaques. À partir du moment où les chaînes exploitent des services du cloud, elles répartissent leurs installations sur des sites distants ou collaborent avec des prestataires via des réseaux, elles ouvrent des portes d’accès numériques qui pourraient être mises à profit par des pirates cherchant à récupérer des contenus, mais aussi à prendre la main sur le déroulement des programmes. Ces questions sont maintenant clairement évoquées dans les appels d’offres.

Pascal Souclier, directeur de l’institut de formation IIFA, note depuis quelques mois une réelle demande autour de ces questions. Pour lui, « la réponse ne doit pas se limiter uniquement à des outils techniques ou à des procédures qui, lorsqu’elles deviennent trop lourdes, sont contre-productives. Elles doivent prendre aussi en compte les facteurs humains et comportementaux qui restent des éléments essentiels pour maintenir la vigilance. » La SMPTE s’est emparée de ces questions et a créé un groupe de travail autour de la sécurité dans les architectures réseaux pour l’audiovisuel.

D’autres évolutions techniques, comme l’IA, la réalité augmentée ou la 5G, commencent également à occuper les réflexions des directions techniques des chaînes et des industriels.

Pierre Maillat constate : « Le basculement dans l’IT en général nous ouvre un tas d’opportunités pour réinventer la manière de travailler et de s’adapter aux contraintes économiques. Il faut être malin et imaginatif pour lancer des nouvelles propositions originales afin de séduire les spectateurs. En un mot, il faut s’adapter en permanence. »

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.39/42. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 2 décembre 2019 à 17:00

NDI entre dans sa version 4…

© DR

Aujourd’hui norme IP dominante pour l’industrie des médias utilisant les réseaux Ethernet standard et des environnements mobiles, NDI est apparu il y a quatre ans. On retrouve ce protocole dans des milliards d’appareils.

 

La nouvelle mise à jour repousse les limites de sa flexibilité, en autorisant notamment le transfert d’un signal vidéo 4K à partir d’un appareil mobile iOS ou tout autre système compatible NDI via une simple connexion wi-fi.

Les principales nouveautés de NDI version 4 :

• Prise en charge du canal alpha et data path 16 bits.

• Prise en prise en charge de l’UHD et au-delà.

• Prise en charge de plus de 64 canaux audio, à toutes les fréquences d’échantillonnage.

• Prise en charge de métadonnées extensibles.

• Codecs audio et vidéo intégrés pour une utilisation dans des environnements sans fil et en remote. 

  • 4 décembre 2019 à 17:00

Le HDR prend vie sur Arte...

Arte rend le HDR possible… © DR

Un an après le test technique grandeur nature en UHD/HDR réalisé en septembre 2018, ARTE confirme les conclusions de ses tests en lançant une nouvelle chaîne expérimentale « ARTE HDR », produite à partir du signal HD, pour une période d’un an. Cette nouvelle phase d'expérimentation sera réalisée en partenariat avec Philips, Technicolor, ATEME et COBALT.

 

Les trois semaines d’essais de 2018 ont permis d’optimiser les meilleurs paramètres techniques de format et d’encodage avec un signal transmis au spécificités suivantes :

   - 1080 p

   - 50fps (images secondes)

   - SL-HDR2 (HDR10 + métadonnées dynamiques)

   - Encodage HEVC 10 bits à 8 Mb/s

 

Cette chaîne sera disponible uniquement sur les téléviseurs ou téléphones mobiles compatibles HDR.

Partenaires de la première heure, Molotov.TV et Free lancent cette nouvelle chaîne pour leurs utilisateurs à partir du 9 décembre 2019. (Molotov : chaîne 28 sur tous les appareils connectés et Free : canal 102 sur les Box One et Delta).

La mise en place de cette chaîne démontre une nouvelle fois que les solutions de distributions SL-HDR de Technicolor permettent aux éditeurs d’offrir une qualité optimale sur un maximum d’écrans HDR.

Cette expérimentation menée par ARTE, pionnière sur le numérique sous toutes ses formes, consiste à valider différentes options de production et de distribution qui pourront évoluer au fil du temps en fonction des retours des usagers.

          

  • 10 décembre 2019 à 17:09

Le sport sur mesure !

Lors d’une retransmission de football, HBS, l’opérateur hôte de la Coupe du monde de la Fifa, étudie la possibilité de livrer un flux pour chaque joueur, en complément du flux linéaire principal. © HBS

Les grand-messes cathodiques du sport, qui fédèrent des millions de fidèles devant leur écran, ont encore de beaux jours devant elles, mais la personnalisation en marche et la recommandation, encore balbutiante, pourraient permettre à chacun de faire son programme et de trouver rapidement le contenu de son choix.

 

« Aujourd’hui, une solution pour tous ne fonctionne plus », affirme d’emblée Franck Choquard, responsable des contenus et services au sein d’Eurovision Sport. Quant à Patrick Jeant, « le même contenu pour tout le monde ne pourra pas survivre longtemps », abonde l’ancien directeur de l’innovation et de la postproduction à Eurosport, aujourd’hui consultant spécialisé en Techart, RA, VR, 360 et Game Engine.

Si, traditionnellement, les retransmissions sportives sont une expérience linéaire « one to many », « la personnalisation nécessite de casser les codes ; livrer en “one to one” demande non seulement de repenser le contenu, mais également de revoir l’utilisation des canaux et flux de distribution », prévient-on chez Host Broadcast Services (HBS). « À ce stade, l’absence de business model stable et démontré est l’élément majeur freinant l’innovation dans ce domaine. »

Toujours est-il que l’opérateur hôte de la Coupe du monde de la Fifa se prépare à livrer de plus en plus de flux personnalisés avec des graphiques interactifs disponibles en direct, par exemple, sans pour autant perdre de vue qu’ « une expérience linéaire “lean-back” sans interaction sera toujours nécessaire. »

 

Côté télé

Les chaînes aussi se préparent à entrer dans ce nouveau monde. La transformation mise en train par Eurosport (Eurosport Technologies Transformation, ETT) en est un exemple. La contrainte était l’accès des différentes versions et services du diffuseur paneuropéen aux contenus sources. Mais ce verrou technologique devrait sauter en 2020 à l’occasion des Jeux Olympiques de Tokyo.

Dans un autre registre, Eurovision Media Services (EMS), la branche commerciale de l’Union européenne de radio-télévision (UER), a développé une solution permettant à ses partenaires de personnaliser les graphiques à distance, de manière à les rendre culturellement acceptables par tous les publics auxquels ils sont destinés.

« Aujourd’hui, l’adaptation du contenu, soit dans le cloud (publication digitale à ce stade), soit dans le pays de réception, est une nécessité au vu des contraintes techniques, économiques et logistiques qui pèsent sur nous », justifie Franck Choquard. « Notre système remote graphics est clairement dans cet esprit. »

Ce système BtoB ou BtoC, suivant le nombre de ses utilisateurs, consiste à transporter dans la même bande passante le signal de l’événement et celui issu d’un codeur sur site qui déclenche à distance l’affichage des éléments (compositions d’équipes…) préalablement stockés dans la machine graphique réceptrice. Comme si l’applicatif tournant dans le car régie faisait office de poste maître et la machine graphique dans le pays ou la région de réception, de poste esclave. Ainsi, le nom d’un athlète peut s’afficher en kanji ou en caractères cyrilliques et des marques locales peuvent s’associer à des événements dont elles étaient jusqu’ici exclues.

La technologie, qui se veut transparente, peut s’utiliser sur fibre, satellite ou d’autres supports, comme Internet. Après une batterie de tests réalisés au cours de ces trois dernières années et centrés sur le biathlon, le ski et le football, elle serait, selon nos informations, en passe d’être déployée lors des matches d’une ligue nationale, qui pourrait être la Bundesliga. Par ailleurs, « nous allons continuer à développer cette approche sur le biathlon et d’autres sports où le besoin d’adaptation dans certains territoires devient de plus en plus pressant », enchaîne Franck Choquard.

Toutefois, s’il est désormais possible de modifier le signal, la mise en œuvre de ce genre de solution devra tenir compte des intérêts de sponsoring créés parfois de longue date, des contrats de droits en place et des impératifs de production, typiquement sur la Formule 1. Du côté de la FOM (Formula One Management), en effet, « la règle est d’avoir le point non pas tant sur la voiture que sur la pub », révèle de manière anonyme l’une des parties prenantes.

 

Le sport s’y met aussi

De nos jours, « on fait du broadcast avec de l’unicast. Chaque fois que quelqu’un se connecte, c’est un flux qui lui est propre. Du coup, on peut en profiter pour personnaliser la distribution, du moins à l’échelle d’une communauté », expose Pierre Maillat, responsable des études et de l’architecture à la Direction Technique Edition (DTE) du groupe Canal +. Une analyse que ne renieraient pas les instances du football et du tennis en France, tout comme, à l’international, la ligue polonaise de football, l’USGA (golf) aux États-Unis, la ligue Pro14 de rugby ou encore l’Union des associations européennes de football (UEFA). Toutes, en effet, sont sur le point de lancer, si ce n’est déjà fait, des services OTT qui doivent leur permettre d’adresser des communautés de fans et de mieux connaître en retour leurs attentes. Et les clubs s’y mettent aussi, comme le champion d’Angleterre en titre, Manchester City, avec le lancement de Man City for TV en juillet.

Après la mise en service en juin d’UEFA.tv par l’instance dirigeante du football européen, qui a fait appel aux équipes de NeuLion, repris par IMG, pour toute la partie ingénierie et implémentation, le projet de la Ligue de football professionnel (LFP) en France est l’un des plus avancés. Lequel verra le jour dans le courant de la présente saison.

« Nous aurons une base indexée et en fonction des habitudes de consommation de nos fans, nous leur pousserons le contenu qui les intéresse », explique Mathieu Ficot, en charge des activités media et du développement à l’international. La plate-forme ne proposera a priori que des produits de consommation non linéaires, tels que des archives, des résumés de matches, des teasers, des tournages propres (images « inside » et autres). Mais « dans des territoires comme la Pologne, l’Inde ou la Corée du Sud où la Ligue 1 se vend mal ou n’est pas vendue du tout, on ne s’interdira pas de diffuser certains matches en direct. »

De plus, aux termes d’un partenariat en passe d’être signé, Intel va mettre à la disposition de la LFP sa solution TrueView, qui permet une plus grande immersion dans l’action en replay grâce à une modélisation 3D et un maillage de 38 caméras robotisées autour du terrain. « Au départ, cette solution sera déployée sur les matches du PSG à domicile, avant d’être étendue à ceux de Lyon et de Marseille à partir de 2020 », annonce Mathieu Ficot.  

 

À chacun son contenu ?

Précisément, « les différences avec le programme normal pourraient dans un premier temps concerner les replay, avec des angles de vue autres que ceux de la réalisation traditionnelle », propose Xavier De Vynck, senior vice-président, en charge des grands événements chez EVS.

Et aussi la création de highlights, dont l’automatisation, avant même de reposer sur des méthodes de deep learning, doit beaucoup aux développements menés, entre autres, par Tedial aujourd’hui et, ce que l’on sait moins, Thomson hier, comme en témoigne Pierre Maillat.

« Dans son laboratoire de recherche, à Rennes, le fabricant nous avait présenté un système de highlights automatiques d’une rare intelligence, reposant sur l’analyse de l’évolution de la quantité de mouvements image par image. En croisant dans un algorithme cette information avec les règles du sport considéré, en l’occurrence le tennis, les ingénieurs de Thomson étaient parvenus à fabriquer un résumé à chaud d’une belle tenue, avec très peu de faux positifs. »

Mais d’autres vont encore plus loin. « D’ici quelques années, le fan sera le réalisateur du match qu’il est en train de regarder », annonçait ainsi Guy-Laurent Epstein (UEFA) en septembre dernier.

D’ailleurs, du côté de HBS, la possibilité de livrer, lors du prochain Mondial, un flux pour chaque joueur, en complément du flux linéaire principal, est à l’étude. Ainsi, un outil à base d’IA comme le système de contrôle ACS (Autonomous Camera System) d’EVS, qui permet de piloter des caméras robotisées PTZ (Pan Tilt Zoom) dans un stade, pourrait être utilisé pour modifier ou compléter le programme de base en affichant à tout moment en p-i-p l’image du joueur de son choix.

En la matière, certains sports se prêtent beaucoup mieux que d’autres à ce genre d’expérience. S’il est difficile de l’envisager sur la boxe, par exemple, dont l’action tient dans un seul plan ou presque, l’athlétisme, en revanche, avec des épreuves simultanées se déroulant aux quatre coins du stade et filmées par une débauche de matériel (pas moins de trente caméras quadrillaient ainsi le stade Louis-II, à Monaco, lors du dernier meeting Herculis), offre de réelles opportunités.

« La valeur d’un produit sportif décroît très rapidement avec le temps, mais par nature la narration de certains sports (golf, ski…) s’accommode mieux d’un très léger différé que d’autres (football, formule 1...). Du coup, ils sont mieux adaptés aux expériences interactives “near-live” », fait-on remarquer chez HBS.

En dehors du terrain également, d’autres expériences de personnalisation sont en train de voir le jour (séances d’entraînement, séquences « behind the scene »…). « Dans un futur proche, les spectateurs bénéficieront systématiquement de ces contenus hors terrain sur toutes les plates-formes et médias qu’ils utilisent », annonce l’opérateur.

Cependant, comme le confiait un jour à l’auteur de ces lignes Alain Staron, alors directeur des nouveaux services de feu TPS, « la télé est faite pour raconter des histoires et tout le monde ne s’improvise pas conteur ».

D’autant que « plus le contenu est lié au direct, moins celui qui regarde est actif », note Xavier De Vynck. Aussi, plutôt que de suivre une compétition sous l’angle de son équipe préférée ou avec les yeux de son athlète favori, une autre école, parmi les acteurs du broadcast, milite pour des effets de personnalisation temps réel à l’intérieur du programme normal, comme la mise en surbrillance d’un coureur ou d’un joueur ou encore d’un certain schéma tactique, grâce à la réalité augmentée. Laquelle, avec l’IA et ses promesses (lire Mediakwest #28), sera sans nul doute l’un des pivots de la personnalisation en marche, car elle s’adapte à chaque utilisation, sans contrainte d’équipement, de lunettes et de pointeur, et donne la possibilité de raconter des histoires encore plus visuelles.

« Le seul inconvénient est le manque de standard actuel. Il est aujourd’hui très compliqué de développer de la RA, alors que cela devrait être un outil parmi tant d’autres », tempère Patrick Jeant. Quant à la VR, « le prix et la complexité des devices est un vrai problème, non encore résolu. Mais le potentiel est tout aussi important. » La preuve, notamment, avec LiveLike (lire Mediakwest #26), qui intègre les pratiques des réseaux sociaux dans le flux de l’événement.

 

À l’heure du broadcast orienté objet

Au-delà du modèle de production traditionnel, qui est de fournir un programme complet aux téléspectateurs, certains acteurs du sport broadcast planchent sur la mise à disposition de toutes sortes d’objets, des vidéos, des audios, des statistiques ou encore des solutions d’analyse, type Viz Libero de Vizrt, ou de réalité augmentée, que chacun serait libre de choisir en amont du programme et d’afficher suivant sa préférence. « Décomposer l’expérience du téléspectateur en objets afin qu’il puisse s’approprier pleinement le contenu, c’est une piste sur laquelle travaille en ce moment la BBC », confie Xavier De Vynck.  

Le département R&D de la « Beeb » poursuit ainsi sur la lancée de 2-Immerse, un projet collaboratif de trois ans, financé par des fonds européens jusqu’à son terme en novembre 2018, et dont les autres parties prenantes étaient ChyronHego, BT, Cisco, IRT, Illuminations et CWI.

Axé sur différents modules dont le théâtre et le sport (en l’occurrence, foot et moto GP), ce projet avait pour objectif final de développer de nouvelles expériences personnalisées de télévision permettant au public, suivant ses préférences, d’enrichir via une plate-forme open source le programme normal d’un certain nombre d’objets, tel le circuit avec la position de toutes les motos, et de les afficher en p-i-p ou sur un périphérique.

Toutefois, « l’alpha et l’oméga de toute personnalisation c’est le fan, non la technologie », rappelle Carlo De Marchis, chef de produit et responsable marketing chez Deltatre. D’où une nécessaire interrogation sur le choix des objets à lui proposer.

S’il est permis de douter avec Franck Choquard de la pertinence de certains dispositifs « qui polluent l’image plus qu’ils informent », d’autres, en revanche, représentent une vraie valeur ajoutée, comme les solutions de Vizrt, dont les partenaires se nomment Shutoku, Neam, Motion Analysis ou encore RedSpy.

Ainsi, « depuis plus de dix ans, nous développons nos propres algorithmes de camera tracking, dont la qualité nous permet d’incruster facilement sous forme de réalité augmentée des graphiques, créés par Viz Engine, notre moteur maison. Que ce soit Viz Libero (système d’analyse, utilisé notamment par les opérateurs de la NBA), Viz Arena (système d’insertion de réalité augmentée en temps réel) ou Viz Eclipse (système d’affichage de publicités virtuelles), tous nos produits profitent de ces algorithmes puissants, mais simples d’utilisation », vante Remo Ziegler, vice-président en charge des produits sport.

De même, le « Cube » d’Eurosport, une cave virtuelle faite de quatre murs led et équipée de deux caméras trackées, dans laquelle étaient plongés des consultants ou des athlètes fraîchement médaillés pour raconter leur histoire ou celle des Jeux, a-t-il fait la preuve de son indéniable efficacité lors des JO de Pyeongchang, au point d’avoir été récompensé par deux Awards (IBC et CIO).

Dans ce contexte, sans doute faudra-t-il que la réalisation s’éloigne des codes et du rythme d’un programme traditionnel afin d’intégrer ces objets. Sans doute, aussi, faudra-t-il que la distribution se rapproche beaucoup plus de la production, que l’une et l’autre deviennent plus intimes, à défaut de pouvoir les réunir dans une même infrastructure.

« Dans le cadre d’une production centralisée, il est possible de produire de multiples signaux simultanés à des coûts acceptables en tirant profit du fait que les multiples moyens de production et les opérateurs sont au même endroit, et de les distribuer depuis la plate-forme centrale. C’est le concept même du Source Timed Switching, où seuls les multiviewers et les contenus produits sont envoyés au point central », expose Nicolas Déal, CTO chez Orange Sport & Media.

Sans doute, enfin, dans l’hypothèse où le compositing final serait réalisé en aval et non plus en amont, faudra-t-il amener les objets, voire les stocker quelque part. A cet égard, « les set-up boxes constituent une énorme opportunité. Elles permettent de personnaliser le contenu sans faire exploser la bande passante en déportant une partie de l’intelligence et de la composition du produit fini chez le téléspectateur », souligne Olivier Barnich, engineering manager chez EVS.

Connaître les modes de consommation et les préférences du consommateur s’annonce au final comme un enjeu majeur. Pour ce faire, la nature bidirectionnelle de l’Ethernet introduit un changement fondamental en permettant à l’utilisateur d’aller chercher des contenus spécifiques (pull au lieu de push).

Avec le passage à l’IP, « il s’agit, non plus d’envoyer des formats tout faits à des spectateurs muets, mais de prendre en compte les données de chacun pour connaître les audiences instantanées par contenu, les changements de canal ou de contenu et les consommations de contenus spécifiques (ralentis, statistiques…). Tous ces feed-backs pourront être utilisés pour préparer des versions personnalisées multiples et les envoyer à des cibles déterminées qui, en retour, renforceront cet effort de personnalisation en un cycle vertueux », développe Nicolas Déal.

Pour l’heure, cependant, une personnalisation fine semble hors d’atteinte et il est probable que, dans un premier temps du moins, celle-ci se résume à quelques profils types.

 

La « reco », une expérience à inventer

A l’instar de services SVOD comme Netflix et Hulu, ESPN +, lancé en avril 2018 par la filiale de Walt Disney, s’est enrichi dernièrement de nouvelles fonctionnalités permettant à ses abonnés de regarder des contenus personnalisés grâce à un moteur de recommandation.

Du côté de l’UER/Eurovision également, « nous travaillons avec quelques partenaires à la mise en œuvre de ce type de solution, mais il est encore trop tôt pour en parler. Si tout se passe selon nos plans, nous aurons des cas concrets cet hiver », annonce Franck Choquard.

En France comme ailleurs, cependant, le marché de la recommandation appliquée au sport tarde à s’ouvrir, en dépit du savoir-faire de sociétés comme Spideo et CogniK.

Forte d’une équipe de vingt-sept collaborateurs permanents, la première, qui a débuté son activité en 2011, fournit ainsi des solutions de recommandation à des groupes qui proposent du sport, tels que Canal +, Bouygues Telecom et Altice. En outre, selon nos informations, la société parisienne discuterait actuellement avec Sporttotal.tv, un pure player OTT spécialiste du football amateur, qui en France vient de signer un accord avec la Ligue du Grand-Est.

Spideo commercialise deux types de produits. Le premier, qui se définit comme un produit d’entreprise, permet à celle-ci d’opérer elle-même pour le compte d’un client de la dimension de RMC Sport, par exemple. Le second, baptisé Rumo, en voie de finalisation depuis avril, se présente comme une boîte à outils « self-service » destinée à de plus petits opérateurs, typiquement Sporttotal, où chacun viendra piocher pour créer ses propres fonctionnalités de recommandation. Ainsi, celle de tagging automatique, invisible pour le client, qui permettra de disséquer les contenus sportifs en analysant les enjeux tels que « but », « hors-jeu », « émotion », etc., ne sera rendue active que pour Rumo.

« Nous avons mis en place des partenariats avec des entreprises qui font de la reconnaissance vidéo afin d’atteindre un niveau de granularité supérieur sur les contenus sportifs en opérant ce qu’on appelle de la recommandation “scene-level” », développe Sarah Rashidian, responsable des relations internationales. « Celle-ci permettrait de recommander des passages d’un programme sportif avec d’autres, plutôt que le programme dans son ensemble. Ce module fera partie des modules optionnels disponibles dans notre boîte à outils. »

De son côté, CogniK, dont le siège est à Ecully (Rhône), compte pour le sport quatre clients en France et à l’international. Depuis 2015, la société a ainsi réalisé un module de recommandation pour le guide de programmes de l’un d’eux aux États-Unis et finalise pour le compte d’un groupe media un « proof of concept » pour des contenus sportifs courts.

 

Un genre à part

Pour autant, « je ne suis pas sûr que la recommandation soit nécessaire pour le sport dans la mesure où il y a une notion de rendez-vous : on veut regarder tel match parce qu’il est en direct », prévient Pierre Maillat, avant de préciser : « Le sport a un côté événementiel qui n’existe ni pour le cinéma ni pour le documentaire, qui sont des genres plus intemporels qu’on peut consommer quand on veut. »

Aujourd’hui, convient Thibault D’Orso, « la recommandation dans le domaine du sport est quasi inexistante. On est plutôt dans une logique d’accès à des favoris et de promotion d’événements. » Et le directeur des opérations et co-fondateur de Spideo d’ajouter : « Le sport suscite une interaction avec les contenus qui est assez analogue à celle des jeux vidéo. Les habitudes de consommation sont beaucoup plus actives et analytiques pour le sport que pour d’autres contenus. Par exemple, les utilisateurs aiment entrer dans le détail des statistiques. Les notions de clipping et de résumé sont ici très répandues. Cela signifie que contrairement à des films ou de la fiction, on peut consommer du sport dans des situations intersticielles ou sur des devices mobiles. »

D’emblée, le sport affiche donc sa spécificité. « Sa structure est particulière parce qu’il y a des notions de regroupement (équipe, coupe, tournoi…) que l’on ne retrouve pas pour les autres types de contenus », admet de son côté Stéphane Reynaud. « Ensuite, les différents sports, équipes, joueurs, tournois, etc. sont autant d’entités que l’on va retrouver le plus souvent dans des news, mais aussi des documentaires et, plus rarement, des films ou des séries. »

Pour autant, « le sport présente des points communs avec les news, qui, comme lui, reposent sur le live, et les films pour la partie “teaser” et contenus “périphériques” (interviews, extraits, etc.). » Ainsi, comme pour les news, la durée de vie d’un événement sportif est éphémère, rendant du même coup l’automatisation de la recommandation plus compliquée.

« Les spécificités sont surtout liées à une taxonomie unique (catégories et sous-catégories) des entités nommées relativement isolées du genre (équipes et marques en particulier) et à une géolocalisation, à la fois du contenu (équipe, sportif et/ou événement) et des utilisateurs, au moment où ils accèdent à celui-ci », prolonge le CEO de CogniK.

En l’occurrence, « la géolocalisation est intimement liée à la question du device », complète Thibault D’Orso. « En fait, ce qui est décisif dans un système de recommandation, c’est de savoir segmenter les usages en fonction des types de terminaux parce qu’on ne consomme pas les mêmes choses suivant qu’on utilise son téléphone ou qu’on est devant sa télé. »

Au final, « la spécificité du sport rend la collecte de préférences implicites plus importante, mais c’est la seule incidence majeure sur les différents moteurs de recommandation », conclut Stéphane Reynaud. Lesquels sont basés sur les profils individuels, les segments (groupes d’utilisateurs définis suivant des critères démographiques et/ou comportementaux), le contenu (seul ou avec intervention des profils), la recommandation sociale (via Facebook notamment) et, enfin, les préférences éditoriales.

En revanche, il n’y a pas de particularité liée au sport pour les temps d’implémentation. En fonction du volume et de la variété des contenus, la mise en œuvre d’un moteur de recommandation peut demander de trois semaines à six mois pour les projets les plus longs. Chez CogniK, par exemple, le délai moyen est de six à douze semaines.

 

Deux types de métadonnées

Le plus commun de ces moteurs, connu sous le nom de filtrage collaboratif, fait appel à des métadonnées de type statistique. Cette approche s’exerce en général dans des contextes où la métadonnée est très pauvre. Pour compenser, l’opérateur se concentre sur l’analyse des usages, et seulement des usages, en essayant de prédire le futur d’un utilisateur au regard du passé des utilisateurs qui lui ressemblent. Avec l’inconvénient, au final, de recommander des contenus déjà très populaires.

Quelle place reste-t-il alors pour la diversité et la sérendipité ? Afin que la recommandation ne puisse enfermer les utilisateurs dans des « chambres d’écho », « nous avons créé un module appelé “surprise” où il suffit d’appuyer sur un bouton et cela génère automatiquement des listes thématiques pour l’utilisateur », explique Sarah Rashidian. « Ce module peut être réglé pour être 100 % aléatoire ou bien, par exemple, 50 % aléatoire et 50 % en lien avec le profil de l’utilisateur. »

Au lieu de procéder à des déductions et de lui recommander ce que les autres ont déjà consommé, l’approche sémantique, elle, consiste à interroger les goûts et les préférences de l’utilisateur dans un dialogue personnel, mais aussi à caractériser et enrichir les contenus de façon très précise. La raison ? « Il y a une extrême méfiance quant à l’utilisation des données personnelles. Du coup, nous avons intérêt à beaucoup mieux connaître les contenus afin d’être ensuite très économes dans notre quête d’informations sur les usages des utilisateurs », éclaire Thibault D’Orso.

Les données collectées peuvent être de type comportemental ou déclaratif. Celles de session (lancement, connexion, déconnexion, time-out…) et de navigation (recherche, browsing par catégorie et mot-clé…), par exemple, qui sont collectées sur la plate-forme en temps réel, relèvent du premier type ; une action de notation ou une mise en favoris, du second. Mais il n’est pas rare que certains utilisateurs nourrissent des playlists avec des contenus qui ne correspondent pas à la réalité de leurs usages…  

 

Extrait de l’article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.62/67. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 11 décembre 2019 à 18:55

Qualité et réactivité au cœur du media management de 6play grâce à Nomalab

Qualité et réactivité au cœur du media management de 6play grâce à Nomalab © DR

6play, l’entité non-linéaire OTT du groupe M6, connaît un succès fulgurant qui l’a incité à augmenter la quantité et la diversité de ses contenus de plusieurs milliers d’heures.

 

6play doit aujourd’hui plus que jamais ingérer des quantités massives de contenus (des séries de plusieurs centaines d’épisodes devant être publiées en une seule fois), avec des ayants droit et distributeurs du monde entier à une qualité constante respectant les spécifications des livrables du Groupe M6 au coût le plus bas...

Nomalab est une plate-forme web « contenu centrique » opérée sur une architecture distribuée dans le cloud. Les process sont automatisés au maximum (le contenu est, par exemple, automatiquement analysé – pré-QC – et lisible sur la plate-forme à l’image près pour la validation). Nomalab s’affranchit de tout équipement ou logiciel conventionnel pré-existant.

Hautement disponible et authentiquement élastique et extensible, elle peut traiter tous les épisodes d’une série en parallèle, dans le laps de temps nécessaire à un seul épisode. Pour un titre de 45 mn, l’ensemble du processus du master au livrable prend ainsi environ une heure.

 

La semaine prochaine, Jean Gaillard, CEO de Nomalab, nous présente la stratégie de son entreprise dans une interview Web TV exclusive livrée sur le SATIS...

  • 12 décembre 2019 à 16:46

La production des télévisions locales belges à leur apogée

Bilan du CSA Belgique : les télévisions locales à leur apogée © DR

Le Conseil supérieur de l’audiovisuel belge vient de publier un bilan 2018 relatif aux télévisions locales plutôt radieux. En effet, les 12 télévisions locales de la Fédération Wallonie-Bruxelles produisent toujours plus de contenus propres et ont fourni des de nombreux directs,  notamment pour la couverture des élections communales de 2018. Il existe néanmoins quelques manquements en matière d’information et d’éducation permanente...

 

Production propre : les télévisions locales atteignent un seuil historique

Examinée à l’échelle du secteur, la durée des programmes « en première diffusion » est en augmentation significative par rapport à 2017, soit de plus de 18%. C’est la deuxième année consécutive que la croissance est aussi importante.

En outre, alors que 2016 et 2017 marquaient le retour à une certaine stabilité, la « production propre des télévisions locales repart fortement à la hausse en 2018 (+11%) pour atteindre la durée historique de 4.551 heures contre 4.105 en 2017.

Cette augmentation significative s’explique notamment par la couverture des élections communales et provinciales du 14 octobre 2018, pour laquelle les télévisions locales ont fourni des efforts importants et diffusé au total plus de 382 heures de programmes électoraux. Le focus concernant les élections représenté, pour plusieurs télévisions locales, une opportunité d’investir dans des infrastructures permettant une plus importante capacité d’accueil des intervenants et a permis enfin d’établir des synergies ponctuelles avec la RTBF.

 

Accessibilité : le nouveau règlement est sur les rails

Le Règlement accessibilité de 2018 fixe de nouvelles obligations pour les télévisions locales qui auront 5 ans pour progressivement remplir les nouveaux objectifs d’accessibilité des programmes. Si les nouvelles obligations ne seront contrôlées qu’à partir du prochain exercice, on observe une prise de conscience plus importante de cet enjeu en 2018, Canal C, Télésambre et TV Lux ont notamment pris des initiatives afin d’augmenter le volume de diffusion de programmes rendus accessibles.

 

Information et éducation permanente : le bémol du contrôle

Le CSA constate des manquements de certains éditeurs relatifs d’une part à la mission d’éducation permanente et d’autre part à celle d’information.

Les conventions précisent les obligations relatives à la mission d’information qui sont de deux types. Le premier point concerne le nombre minimum et la durée des journaux télévisés qui doivent être produits e diffusés par l’éditeur (par exemple 6 JT de 15 min.) ainsi que le nombre de semaines sur laquelle port l’obligation (par ex. 42 semaines). La convention indique que l’un de ces JT peut comprendre pour partie des rediffusions. Le deuxième point stipule que l’éditeur produit et diffuse au minimum deux programmes hebdomadaires d’information pouvant aborder l’actualité politique, culturelle, économique, sociale et sportive de sa zone de couverture et précise le nombre de semaines sur laquelle porte l’obligation (par ex. 38 ou 43 semaines). Deux télévisions locales ne parviennent pas à atteindre le nombre d’éditions de programmes hebdomadaires d’information. Un grief a été notifié à Canal C pour non-respect de cette obligation.

Concernant la mission d’éducation permanente, l’éditeur doit produire et diffuser au minimum un programme mensuel relevant de l’éducation permanente telle que définie par la convention. La matérialisation des objectifs en matière d’éducation permanente varie fortement d’un éditeur à l’autre. Alors qu’il s’agit d’un axe développé et solide chez certains éditeurs, d’autres ne rencontrent pas l’obligation. Au regard des projets qui, selon les éditeurs, sont soit diffusés en 2019, soit en cours de réalisation, le CSA a décidé de suspendre les notifications de grief à la concrétisation effective des projet dans un délai raisonnable. Le CSA belge souligne qu'il portera une attention particulière  sur cette obligation lors du contrôle sur l’exercice 2019...

 

Retrouvez le Bilan télévisions locales 2018 : synthèse transversale

 

  • 12 décembre 2019 à 17:00

Sony & Verizon révolutionnent la retransmission sportive en direct grâce à la 5G

Système de caméras en pleine action au stade NRG / Caméra d'épaule PXW-Z450 avec prototype d'émetteur et périphérique Xperia © Nathalie Klimberg

Sony Imaging Products & Solutions Inc., Sony Mobile Communications Inc. et Verizon ont fourni leurs services et matériels à NBC Sports pour démontrer comment la 5G pouvait changer la façon dont les retransmissions de sport en direct peuvent être produites. À l'occasion du match de football américain qui opposait les Texans de Houston aux Patriots de la Nouvelle-Angleterre au stade NRG le 1er décembre dernier, un caméraman de NBC Sports a capturé les images de l'événement à l'aide de la caméra d'épaule PXW-Z450 de Sony. Ces images video ont été diffusées sur le réseau à très large bande 5G de Verizon, à l'aide d'un prototype d'émetteur Sony et d'un périphérique Xperia à ondes millimétriques 5G, vers une salle de production située dans le stade.

 

Le test a montré que les caméras connectées à la 5G pouvaient être une option fiable et avantageuse pour les futures retransmissions en direct d'événements sportifs. Associée au savoir-faire de Sony en matière d'appareil mobile, de vidéo et d'encodage, la très large bande 5G de Verizon, avec sa faible latence et sa bande passante élevée, a permis de transmettre, quasiment en temps réel, des vidéos haute qualité à faible latence aux producteurs. L'expérience a laissé une plus grande marge de manœuvre aux équipes de production, susceptibles de s'installer à distance, n'importe où, quel que soit le lieu du match. De plus, grâce à la connectivité sans fil quasi instantanée de la 5G, les caméras peuvent être détachées, ce qui permet plus de créativité dans les positions et les angles de vue utilisés au cours du match et réduit le délai d'installation ainsi que les coûts nécessaires à l'intégration du système.

 

« Le réseau 5G de Verizon est conçu pour révolutionner plusieurs secteurs. Nous sommes ravis de montrer qu'il peut transformer la façon dont les événements sportifs sont enregistrés et retransmis en direct, a commenté Nicki Palmer, Directeur du développement de produits chez Verizon. La bande passante élevée et la faible latence de la 5G permettent de diffuser des vidéos haute définition quasiment en temps réel et de capturer les images sur le terrain sans aucun fil. »

« Nous sommes très heureux d'avoir mené à bien cette opération 5G avec Verizon, a déclaré Mikio Kita, Directeur général senior chez Media Solution Business Division, Sony Professional Products & Solutions Group. Sony est le seul à pouvoir offrir une solution complète pour la création de contenu professionnel et la communication mobile. Grâce à cette première expérience commune et concluante dédiée aux retransmissions sportives en direct, de nombreuses autres applications de la 5G vont voir le jour. »

« C'était passionnant de suivre la naissance du produit 5G de Sony », précise David Mazza, Directeur technique du groupe NBC Sports. « La qualité d'image est excellente. Nous sommes impatients de pouvoir utiliser une caméra sans fil aussi facilement dans le cadre du déploiement national de la 5G. »

 

Sony et Verizon entendent poursuivre leurs efforts pour mettre au point d'autres solutions et workflows de production plus simples et plus flexibles grâce à la 5G pour les retransmissions sportives en direct.

  • 18 décembre 2019 à 17:00

Les outils du live... Régie Fly, cars régies ou remote production ?

Une régie Fly architecturée autour d’un mélangeur Blackmagic Atem Studio HD pour les live streaming et les productions télé limitées à six caméras. © DR

Les directs, qu’ils concernent le sport ou le spectacle vivant, n’ont jamais cessé d’évoluer en même temps que la technologie. Grâce à l’IP et à de nouveaux matériels, mais aussi à cause de budgets revus à la baisse, les producteurs et prestataires s’adaptent et proposent toute une panoplie de solutions.

 

Coupe du monde de rugby, Coupe d’Europe de foot, mais aussi Jeux olympiques de Tokyo, voilà quelques grandes affiches sportives qui s’annoncent dans les mois à venir. En plus de ces compétitions majeures et planétaires, il existe de très nombreux évènements sportifs (ou culturels) moins médiatiques qui se déroulent chaque semaine. Ces derniers bénéficient également de couvertures télé (ou de streaming) dans des proportions moins importantes et avec des budgets plus contraints.

Aux côtés des géants que sont AMP Visual TV et Euromedia, que nous avons longuement interrogés pour constituer cet article, il existe des sociétés de tailles plus modestes pour lesquelles le marché de ces live est au cœur de leur activité. Nous en avons sollicité quelques-unes afin d’étudier les moyens qu’elles utilisent aujourd’hui.

 

Un nouveau marché émergent

Longtemps dédié aux seconds couteaux et aux plus petits acteurs de la production et de la prestation audiovisuelle, le marché des sports et des évènements un peu confidentiels intéresse aujourd’hui les mastodontes. Il y a plusieurs raisons à cela. Tout d’abord les budgets des grands évènements ont souvent été revus à la baisse au cours de ces cinq dernières années. Il faut donc aller chercher des prestations complémentaires afin de maintenir un certain niveau de chiffre d’affaires, et donc aller finalement sur un secteur auparavant jugé trop peu lucratif. À cela, s’ajoutent deux autres facteurs déterminants : la nouvelle panoplie technique permet dorénavant de faire de la qualité à moindre coût, et surtout, dans ce secteur la demande a explosé.

En effet, avec la création de nombreuses chaînes sportives, il a fallu remplir les grilles de programmes avec des compétitions dont les droits sont bien souvent cédés gracieusement par les fédérations (contrairement au football ou au tennis pour lesquels ces montants sont devenus exorbitants). De plus, plus aucune compétition d’intérêt ne peut se passer d’un direct, au moins sur Internet. D’une part pour répondre aux demandes des passionnés, mais aussi afin de contenter les sponsors et autres partenaires qui ont besoin d’une visibilité accrue.

Si une qualité moyenne pouvait répondre en partie à ces besoins il y a encore peu de temps, la volonté est dorénavant d’obtenir des captations qui ressemblent à ce qui se fait de mieux dans le sport afin d’attirer de nouveaux spectateurs pour la discipline. Bref, comme on le pressentait depuis quelques temps (avec l’arrivée du très haut débit), la conjoncture est favorable pour que le marché du live se développe de manière relativement conséquente.

 

Ne m’appelez plus low cost

La régie Fly est particulièrement exploitée sur ce secteur. « Nous travaillons avec deux types de régies pour ces opérations. Une articulée autour d’un mélangeur Blackmagic Atem Studio Pro pour les productions se limitant à six caméras, et une seconde architecturée autour d’un mélangeur Panasonic avec une mosaïque d’images pour des réalisations plus conséquentes. C’est avec cette dernière que nous assurons régulièrement la réalisation du signal international de compétitions. Pour être compatible avec les budgets de nos clients et assurer une qualité broadcast de nos productions, il faut faire preuve d’inventivité. Régulièrement, nous mixons les moyens techniques et humains de VNProd avec ceux de Master Films. Les deux sociétés ont appris à collaborer étroitement ensemble sous la bannière Sportside », explique Cyril Delorme de VNProd, société de production spécialisée dans le sport.

En fonction des environnements, les régies sont installées dans une salle du stade ou encore implantées dans des véhicules de tailles adaptées. Manganelli, dont le siège se situe à proximité de Lille, connaît aussi très bien ce secteur.

« Il y a six ans, nous avons créé un car intermédiaire à ce qui existait sur le marché. Avec un poids de 19 tonnes, il venait déjà répondre à une demande intermédiaire qui se situait entre les régies mobiles et les cars imposants des autres prestataires. Notre offre de régies mobiles a elle aussi véritablement évolué ces derniers mois pour prendre de nouvelles formes. Elles bénéficient d’outils qui permettent de gérer à moindres coûts les ralentis ou encore les habillages, qui sont des éléments essentiels dans le domaine du sport », détaille Jean-François Petit, en charge de Manganelli Events.

Chez AMP Visual TV ou encore Euromedia, ce sont des marques ou des départements qui ont été créés spécifiquement pour ce marché « émergent ». On parle alors de production simplifiée. Pour Gilles Sallé, fondateur et PDG d’AMP Visual TV, la définition de prod simplifiée est claire : « Avec notre marque Ixi Live, nous proposons toute une panoplie d’outils modernes spécifiquement pensés pour répondre aux besoins des organisateurs et diffuseurs. Il n’y a pas vraiment de limitation de caméras, même si au-delà de huit sources on commence à être dans une logique technique un peu plus lourde. L’objectif est plutôt de clarifier le nombre de services proposés avec des opérateurs poly-compétents ».

La gamme Ixi Live repose sur des véhicules légers pourvus de régies Vibox, une machine qui peut gérer de huit à seize sources (caméras et ralentis) avec un, deux ou trois écrans tactiles. Ces unités disposent également de solutions de transmissions satellites ou IP installées sur le toit. Pour répondre à des besoins internationaux (toujours dans des budgets rationalisés) des régies Fly baptisées IATA (allusion à la norme de transport aérien) ont été conçues afin de voyager plus aisément avec des dimensions réduites qui limitent autant que possible le coût du fret.

Chez Euromedia aussi, on a appréhendé l’évolution de ce marché. « La multiplication des diffuseurs et la consommation croissante du sport à travers les plates-formes digitales incitent les fédérations et les ligues à produire plus de contenus en direct. Ces nouvelles productions, doivent s’adapter à une économie différente des divisions premiums. Les équipes d’Euromedia France avec leur directeur technique Gaël Tanguy ont développé des véhicules spécifiques », confirme François-Charles Bideaux codirecteur d’Euromedia Group.

Construits également autour de la solution de production Vibox, ces véhicules sont adaptés à des configurations allant jusqu’à six caméras. Là encore, ces petits cars sont communément exploités par une équipe restreinte de quatre personnes.

 

Des cars-régie encore indispensables, mais évolutifs

Pour François-Charles Bideaux toujours, le car régie de grande envergure a encore tout son sens, cette fois pour les compétitions internationales majeures : « Nous avons développé pour les productions over sea des régies Fly particulièrement adaptées pour se déplacer aisément partout dans le monde. Elles bénéficient de tout le nécessaire pour produire un signal et des services de qualité. Mais le car a encore un rôle essentiel à jouer sur de nombreux évènements, comme le football, le rugby et bien d’autres disciplines. À la prochaine coupe d’Europe de foot le groupe exploitera des camions dans six des douze sites de la compétition. Avec des productions de vingt à trente caméras et des signaux UHD à faire transiter dans des formats non compressés, la réponse est forcément dans une configuration premium », poursuit-il.

La flotte du groupe continue son évolution. Au cours de l’année écoulée, quatre nouvelles unités 4K ont émergé, avec des exploitations, notamment en Italie sur le Calcio ou en France pour le Top 14. Deux autres cars sont en cours d’élaboration (ou d’évolution) pour la Coupe d’Europe de Foot. Mais pour ces cars, comme pour ceux d’AMP Visual TV, la conception est pensée pour être bien plus flexible que par le passé. L’IP est omniprésente, et surtout la partie data center est devenue modulable, évolutive et mobile afin de pouvoir être exploitée indépendamment du car.

Gilles Sallé complète : « Chez AMP Visual TV, nous avons une flotte de cars qui va se maintenir autour d’une trentaine d’unités. Six ont évolué vers l’UHD, ou ont été conçus pour ce format. Ils prennent également en considération les nouvelles exigences de multiservices du broadcast. Les camions accompagnateurs, qui transportent les caméras notamment, ont eux aussi été adaptés pour pouvoir être utilisés intelligemment et pouvoir servir de zones déportées sur sites pour de la remote production. »

 

Remote production, où en sommes-nous ?

Les régies déportées, voilà qui n’est plus tout à fait nouveau ; on se souvient déjà des plateaux de France Télévisions tournés en direct de Londres durant les JO de 2012, mais réalisés de Paris. Depuis, la remote production n’a jamais cessé d’évoluer, même si elle demeure malgré tout un mode de travail encore émergent. Pour l’avenir, qu’il soit à court ou à moyen terme, ce mode opératoire est de toute façon assuré.

« Pour que la remote production ait un sens économique, il faut d’abord qu’elle puisse être mutualisée avec la réalisation de plusieurs retransmissions dans la même journée. Il est aussi indispensable qu’elle propose tout un ensemble de services dédiés aux datas et aux contenus, pour les diffuseurs traditionnels, les plates-formes numériques et les organisateurs eux-mêmes », avance le PDG d’AMP Visual TV.

Pour augmenter le niveau d’exploitation, le media center, spécifiquement conçu par la société dans le 15e arrondissement de Paris, est relié en fibre noire avec la quasi totalité des plateaux de sa filiale Studios de France. Pour le sport, ASO, qui gère la production des Ironman européens, fait appel à ses services pour assurer les directs Facebook de courses filmés sur site (par une équipe de cadreurs VNProd) avec des caméras ENG Panasonic connectées en 4G avec des systèmes TVU.

En France, si l’on compare à d’autres pays voisins, la remote est moins avancée. Pour Gilles Sallé cela s’explique principalement par le fait que le besoin est moindre car des agences locales équipées de cars sont réparties un peu partout sur le territoire. De plus, le réseau des intermittents est lui aussi plutôt bien réparti en régions. La nécessité de passer en remote production se ferait donc moins ressentir qu’ailleurs en Europe.

« Avec notre media center, nous habillons déjà les directs de très nombreux matchs de foot africains ; c’est aussi le type de service que nous proposons. Nous travaillons également de plus en plus en home production, comme par exemple sur le Festival de Cannes ou les César, où notre équipe de prise de vue se rend sur site, mais où les signaux sont envoyés directement dans la régie de production de Canal+ à Boulogne », poursuit le natif des Sables d’Olonne.

Au sein d’Euromedia Groupe, on exploite aussi la remote production régulièrement, et cela depuis un certain temps, au niveau européen. « Pour une émission régulière de direct tournée à Amsterdam, nous effectuons la réalisation depuis notre media center situé à quelques dizaines de kilomètres de là, dans une ville voisine. L’exigence environnementale est respectée, avec moins CO2 émis en transport et une facilité de travail dans un centre historique peu adapté aux poids lourds. Ce sont aussi des atouts intéressants en faveur de la remote », résume François-Charles Bideaux.

Pour le moment, la remote production demeure l’apanage des grands prestataires tant l’investissement est conséquent. Là encore, l’évolution technique et les coûts liés au matériel évolueront avec le temps. À terme, des structures plus modestes pourront peut-être elles aussi construire et gérer leurs propres media centers. Ces derniers disposeront certainement de moins de services ajoutés que ceux proposés par les « grands », mais ces « petits » acteurs créeront alors une sorte de remote production simplifiée. N’oublions pas que ce sont eux qui ont initié les véhicules légers et polyvalents pour la captation et le direct à budgets maîtrisés. Nous n’en sommes certes pas encore là, mais sait-on jamais, cela pourrait peut-être arriver plus vite que l’on ne l’imagine.  

 

Quelques exemples de sports produits en simplifiés

Le handball, sport très important pour beIN Sports, est mis en image avec des véhicules légers d’Euromedia comme le F188. La pro D2 de rugby, jusqu’alors diffusée sur Eurosport (il y a eu un nouvel appel d’offres), est filmée par les Ixi Live d’AMP Visual TV. Les compétitions de tir à l’arc ainsi que les rencontres internationales et le championnat Pro de tennis de table qui se déroulent en France (diffusés sur la chaîne Qatarie) sont produits avec les moyens éditoriaux et techniques cumulés de VNProd et Master Films. Manganelli, avec son car intermédiaire de 19 tonnes, signe le direct de l’Enduro du Touquet pour plusieurs repreneurs, dont France 3 Régions et L’Équipe.

Les exemples sont encore nombreux, ils prouvent qu’avec les moyens techniques actuels il est largement possible de fournir un signal de qualité pour la télévision et le streaming à des coûts moindres. Outre le matériel, c’est bien le savoir-faire d’équipes expérimentées, accompagnées par des « techniciens poly-compétents » (pour reprendre l’expression de Gilles Sallé), qui sont la clé de la réussite de ces productions.

« Même si les solutions techniques se simplifient et deviennent moins lourdes, pas question de s’improviser prestataire ou producteur audiovisuel. Le métier aura toujours besoin de personnels formés et aguerris aux spécificités de la profession. Et ce qui est vrai pour la technique l’est aussi pour l’éditorial », prévient Jean-François Petit de Manganelli.

 

Article paru pour la première fois dans Mediakwest #33, p.16/18. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 18 décembre 2019 à 17:00

Nomalab, le labo dématérialisé qui monte ! (Web TV Jean Gaillard)

Nomalab, la société 3-en-1 ! (Web TV Jean Gaillard) © DR

La montée en puissance de Nomalab, la Plateforme numérique française qui propose des prestations de labo dématérialisées, n'a pas échappée à l'écosystème audiovisuel hexagonal... Nomalab s'est en effet fait une place dans le pipeline des groupes M6, Lagardère et chez TF1 Studio, elle a aussi récemment pris charge le mastering de la série Take it easy Mike, la dernière animation 3D produite par TeamTO et diffusée par France Télévisions...

 

Invité sur le plateau Web TV Satis, Jean Gaillard, son président, nous présente les avantages d'une offre de services dématérialisée et basée sur le cloud , il revient aussi sur l'actualité florissante de sa société ainsi que ses projets…

« Nous sommes un labo et une plateforme. Labo car nos services s’étendent de la masterisation, la conservation, la vérification, la livraison et tout ce que l’on appelle le servicing pour la distribution. Nous sommes également une plateforme, c’est là où nous sommes différents, c’est à dire que tous les utilisateurs de nos services interagissent avec tout ce que nous faisons dans un navigateur web, ce qui offre un deuxième avantage de voir en temps réel les contenus échangés. Dans les workflows classiques, nous sommes aveugles, nous ne voyons pas ce que nous livrons et ce que nous recevons.

Notre infrastructure est totalement dans le cloud, ce qui a l'avantage de supprimer toute limite de puissance. Nous sommes capables de traiter de très grands volumes très rapidement et en toute sécurité. Nos services s’adressent à tous les acteurs de la chaîne de valeurs, c’est à dire des diffuseurs pour tous leurs besoins autour de l’approvisionnement, aux producteurs pour tout ce qui concerne la livraison des programmes et des productions nouvelles et jusqu’aux distributeurs et catalogues pour tout ce qui concerne le servicing des œuvres qui sont en stock. »

 

Pour découvrir les dernières actualités de Nomalab et ses projets de déploiements, visionnez l’intégralité de la vidéo !

 

 

Pour en savoir plus sur Nomalab, découvrez nos articles précédents...

Qualité et réactivité au cœur du media management de 6play grâce à Nomalab...Nomalab...

Préservation et services dans le cloud : TF1 Studio choisit Nomalab

  • 18 décembre 2019 à 17:00

Dossier : Microservices, Docker, Kubernetes, comprendre les nouveaux outils de l’IT

Dans une application monolithique, tous les éléments (interface, outils, accès aux données…) sont regroupés dans une entité indissociable, alors qu’avec une architecture de type microservices, chaque fonction est traitée par un module indépendant.© Oracle

Les microservices, les conteneurs avec Docker et l’orchestrateur Kubernetes sont des outils apparus récemment dans les technologies IT. Ils ont tous été conçus avec l’objectif d’offrir une élasticité et une agilité inconnues jusqu’à présent avec des outils informatiques plus traditionnels, en particulier lorsqu’ils se trouvent en lien avec les services de cloud. Plusieurs industriels du broadcast commencent à s’y intéresser. Visite guidée de ces nouveaux paradigmes.

 

Avec la montée en puissance des ordinateurs et des serveurs, avec le souhait des utilisateurs de voir leur logiciel préféré remplir de plus en plus de fonctions, les logiciels prennent de l’embonpoint et deviennent souvent des monstres difficiles à dompter. La plupart d’entre eux conservent une architecture fermée ou monolithique.

Pour assurer leur travail de manière optimale, accéder aux fonctions de base de l’OS (saisie, affichage, gestion de stockage…) et éviter de tout réécrire à chaque évolution technique, le développement de ces applications est basé sur la programmation objet. L’organisation interne du programme est découpée en modules de base qui communiquent entre eux, s’échangent les données et les états nécessaires à leur fonctionnement. Mais tout ce fonctionnement reste interne au logiciel et lui confère cette architecture monolithique.

L’enrichissement des fonctions du logiciel rend son développement encore plus lourd en augmentant le nombre de modules et, en conséquence, les échanges de données internes. Lors d’une mise à jour, il faut vérifier et valider ces échanges internes et externes vers l’OS et les drivers des divers périphériques.

Tout le monde a pesté un jour ou l’autre suite à une mise à jour de son logiciel préféré, en constatant qu’il n’est plus ou pas reconnu par l’un des périphériques ou qu’une fonction indispensable un peu complexe fait planter l’ordinateur. L’éditeur se dépêche de publier une mise à jour de la mise à jour qui, si tout se passe bien, résoudra ces dysfonctionnements et quand ça va mal en rajoute une nouvelle série. Un vrai casse-tête pour les développeurs. Cela augmente les temps de développement et exige une lourde période de tests avant la publication d’une mise à jour majeure, ce qui exige alors de recharger l’application dans son intégralité.

 

De l’application monolithique aux microservices

Le concept de microservice se situe dans cette lignée de la programmation objet avec l’objectif de faciliter le développement des logiciels et leur mise à jour. Les premières annonces autour de ce concept sont apparues en 2011. Il modifie largement l’architecture des applications et le travail de développement en découpant le logiciel en petits modules, mais chacun d’eux totalement indépendant et en charge d’une tâche élémentaire simple. Il n’y a plus de dépendance ni d’interaction entre eux comme dans un logiciel habituel monolithique et cela se concrétise par un protocole de dialogue sans état ou « stateless », également exploité dans la communication des navigateurs web dans les requêtes HTTP.

Une requête est envoyée par le logiciel au microservice avec tous les paramètres nécessaires. Celui-ci exécute la tâche demandée en allant chercher les ressources dont il a besoin. Une fois celle-ci exécutée, il envoie un acquittement et disparaît. Les requêtes sont adressées via des API. Comme chaque microservice est indépendant, l’applicatif peut en lancer autant que nécessaire sans devoir augmenter ses propres ressources. Cela offre des capacités d’extension à l’applicatif sans devoir le redimensionner et offre ainsi une grande scalabilité, bien sûr si l’infrastructure et les processeurs sont capables de l’encaisser.

Si un microservice ne peut pas exécuter la tâche qui lui est assignée (ressources indisponibles ou trop limitées, plantage…) l’applicatif peut en lancer un autre immédiatement sur une autre machine. Ce mode d’organisation s’adapte ainsi parfaitement aux architectures distribuées, très habituelles dans le cloud.

Comme chaque microservice est indépendant, il devient beaucoup plus simple d’effectuer une mise à jour du logiciel puisqu’il suffit de remplacer le ou les microservices dont les fonctions ont évolué. Les temps de développement sont également réduits car il n’y a plus à effectuer les vérifications liées à la validation des dépendances entre les modules internes d’une application monolithique. Ce mode de structuration permet d’intégrer facilement des microservices développés par d’autres équipes ou de reprendre des modules développés dans d’autres cadres.

Ce principe, que beaucoup comparent au Lego, modifie fortement les modes développement des logiciels en offrant à la fois, de l’agilité, de la souplesse et surtout une réactivité importante. Les plus gros services disponibles sur le web l’ont bien compris et des services comme Netflix ou Uber ont basé leur développement sur les microservices.

Dans le domaine du broadcast, Imagine Communications enrichit ses équipements avec des modules de microservices pour les piloter de l’extérieur et propose Zenium, un framework de développement basé sur les microservices. Il lui permet de développer divers workflows de production et de diffusion.

 

Les conteneurs, une alternative aux machines virtuelles (VM)

Un logiciel est toujours développé en liaison avec un système d’exploitation (Windows, Unix, Mac OS ou autre) qui sert à l’exploiter sur une machine avec un hardware spécifique. Il existe une grande diversité d’architectures hardware en fonction du type de processeur, de sa puissance et des interfaces servant au raccordement des périphériques. Ces éléments définissent la liste des systèmes d’exploitation (ou OS pour Operating System) pouvant tourner dessus et donc, in fine, les logiciels utilisables.

Il existe tellement de combinaisons possibles que parfois il est impossible de faire tourner un logiciel sur une machine donnée. Pour éviter une trop grande disparité du parc machines, des outils de virtualisation ont été mis au point. Leur principe est de faire tourner un OS invité (celui compatible avec le logiciel à utiliser) sur une machine hôte tournant sous un autre OS, lui compatible avec le hardware disponible.

À petite échelle, cette solution est utilisée pour faire tourner un système d’exploitation exotique, ou l’ancienne version d’un logiciel ancien incompatible avec un système d’exploitation trop récent. Les outils de virtualisation servent également à tester des logiciels avec des versions d’OS différentes sans multiplier les machines de tests. Enfin pour une DSI, cela évite une trop grande dispersion du parc machines entre une multitude de modèles d’ordinateurs.

Enfin, pour les services de cloud, la virtualisation permet d’offrir une large palette d’outils et d’OS à partir d’un parc très standardisé. Pour ces derniers, c’est aussi le moyen de faire tourner simultanément plusieurs OS ou services sur une même machine. Dans ce cas, un outil spécialisé dénommé hyperviseur va venir s’intercaler entre l’OS de la machine physique et les diverses machines virtuelles, pour assurer le bon fonctionnement de l’ensemble et répartir la charge entre les diverses machines virtuelles.

Lorsque plusieurs machines virtuelles tournent en parallèle, l’une des difficultés consiste à établir et à maintenir les liens entre les interfaces de chaque machine virtuelle (port série, USB, Ethernet, etc.) et les ports physiques de la machine hôte qui doivent être partagés entre plusieurs machines virtuelles. L’un des intérêts des machines virtuelles est aussi de les déplacer rapidement d’un serveur à l’autre en fonction des besoins du client ou de la charge des services. Dans ce cas, le maintien des liens peut devenir un vrai casse-tête et compliquer leur exploitation.

Un autre inconvénient lié à la juxtaposition de plusieurs machines virtuelles sur un même serveur consiste en la multiplication des OS présents dans chaque machine virtuelle. Chacun va s’attribuer une zone mémoire et multiplier des fonctions qui ne seront pas systématiquement exploitées. Cela conduit donc à un gaspillage des ressources. Le principe du conteneur consiste à réorganiser les éléments selon une autre architecture. Le conteneur s’appuie sur un seul OS partagé entre tous les conteneurs installés sur le serveur. Il ne renferme que l’application, les fichiers binaires et les bibliothèques associées. Le rôle de l’hyperviseur des machines virtuelles est rempli alors par le moteur de conteneurisation qui s’installe au-dessus de l’OS hôte. Il va gérer et établir les échanges entre les différents conteneurs installés et l’OS unique du serveur.

En éliminant la multiplication des OS virtuels, on gagne en efficacité et le conteneur est plus léger, ce qui permet d’installer et de faire tourner plus de conteneurs que de machines virtuelles sur un serveur. Le conteneur est également mieux protégé de toutes les interactions externes et constitue un bloc indépendant facilement transférable d’un serveur à l’autre.

L’outil de conteneurisation le plus connu est un système appelé Docker. Ses premiers développements datent de 2010-2011 et il a été réellement lancé en 2013 en tant qu’outil open source. Il est repris par de nombreux acteurs : Microsoft, Amazon, Google et IBM, entre autres.

Comme dans de nombreux débats technologiques, chaque solution présente des avantages et des inconvénients. En faveur des conteneurs, on peut citer leur légèreté, leur rapidité de lancement, leurs meilleures performances, car ils tournent directement sur l’OS de la machine et non pas à travers un OS émulé comme dans le cas des machines virtuelles. En particulier, ils sont très efficaces pour fonctionner avec des applicatifs basés sur des microservices et facilement transférables d’un serveur à l’autre.

Par contre, ils sont plus limités en termes de choix d’OS et de nombreuses applications traditionnelles ne peuvent pas être transférées dans un conteneur. Le niveau de sécurité serait moins élevé que celui offert par des machines virtuelles.

 

Optimiser les services de cloud avec Kubernetes

Une première approche des services de cloud pourrait laisser penser que les outils et les moyens proposés aux clients seraient une simple transposition des équipements installés chez soi sur site (ou On Premise) avec leurs unités centrales, des espaces de stockage un système d’exploitation et des applicatifs adaptés aux tâches à effectuer. Les machines virtuelles reprennent aussi ce concept.

Dans cette logique, la mise en place d’un service dans le cloud exigeait une première étape de dimensionnement d’un espace de stockage pour les données et les serveurs, la mise en place du ou des serveurs avec les machines virtuelles, l’installation des logiciels et la configuration de l’ensemble pour obtenir le service souhaité, le tout exécuté à distance. Cela demandait de multiples compétences du côté des clients et consommait beaucoup de temps.

Tous les grands acteurs du cloud se sont engagés dans un long travail de réorganisation de leur service en créant des nouveaux outils et architectures destinés à simplifier ces procédures et à optimiser la charge de leur machine.

Une première démarche a consisté à proposer des services « serverless ». Le nom pourrait laisser supposer qu’il n’y a plus de serveurs dans le cloud, ce qui est bien entendu faux. Il s’agit d’un paradigme dans lequel le fournisseur de services gère dynamiquement les ressources allouées au client et non plus à l’avance par l’utilisateur. La facturation est liée à l’usage réel et non à ses capacités prédimensionnées et souvent sous-employées. Ce mode « serverless » a permis de simplifier fortement les procédures de lancement de services dans le cloud et ainsi d’en démocratiser l’usage.

L’autre grande nouveauté est l’arrivée de la plate-forme Kubernetes (créée par Google et ensuite mise à disposition en mode libre). La fonction principale de Kubernetes est celle d’un orchestrateur de gestionnaire de conteneurs permettant d’automatiser le déploiement, la montée en charge et la mise en œuvre de conteneurs d’application sur des clusters de serveurs.

L’organisation des composants de Kubernetes est de type pyramidal avec des « nodes » et des « pods ». Un pod, l’unité de base de l’ordonnancement Kubernetes, regroupe un ou plusieurs conteneurs localisés sur une machine et dont ils partagent les ressources. Ces pods sont regroupés dans des nodes, correspondant à une machine unique. Le fonctionnement des nodes est piloté via des « kubelet » qui contrôlent le démarrage, l’état et l’arrêt des conteneurs.

Au niveau central, Kubernetes comprend un serveur d’API qui fait office d’interface interne et externe, un ordonnanceur qui gère l’utilisation des ressources sur chaque node et un gestionnaire de contrôle qui dialogue avec le serveur d’API pour créer, mettre à jour et effacer les ressources qu’ils gèrent. Les composants qui constituent Kubernetes sont conçus pour être combinés et extensibles et donc permettre de supporter une grande variété de charge de travail.

Toute la machinerie interne des services de cloud tend à disparaître à la vue du client final de manière à ce que ce dernier se consacre pleinement à la nature réelle de ses activités et à son cœur de son métier. Même s’ils sont conçus dans la perspective d’un usage dans le cloud, les microservices, les conteneurs avec Docker et l’orchestrateur Kubernetes peuvent également être déployés à bon escient sur du cloud privé, dans des data centers ou même sur des infrastructures internes sur site. Ils concernent tous les domaines d’activité IT et ne sont pas spécifiques à l’audiovisuel. Mais vu la complexité des process de diffusion d’une chaîne de TV et la lourdeur des traitements, il est évident que le secteur du broadcast est intéressé au premier chef.

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.54/56. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 18 décembre 2019 à 17:00

Orange sur les routes du Tour de France

Sur le Tour, Orange mobilise trois camions (deux sur la ligne d’arrivée, un en salle de presse) faisant chacun office de nodal, un camion visioconférence et un camion cuisine. © DR

Quelques semaines après la victoire finale du colombien Egan Bernal sur les Champs-Élysées, un comité technique s’est réuni en octobre pour définir les architectures qui seront mises en œuvre par l’opérateur national pour l’édition 2020 de la Grande Boucle. Henri Terreaux, directeur chez Orange Events, revient sur le dispositif de cette année et éclaire sur celui de l’an prochain.

 

Mediakwest : Pour l’acheminement des données de toutes sortes (photos, vidéos, audios, textes, statistiques…), quels sont actuellement les besoins sur le Tour de France ?

Henri Terreaux : L’atypisme du Tour de France tient à deux paramètres : itinérance et complexité des sites d’arrivée, peu adaptés à recevoir les infrastructures du troisième évènement sportif mondial, comme ce fut le cas cette année pour le Tourmalet, Prat d’Albis, Valloire et Val-Thorens. Les besoins des différentes parties prenantes (télés, radios, agences photographiques ou encore ASO, l’organisateur du Tour, pour les points chrono, le classement, le web…) nécessitent trois liens 1 Gb/s qui alimentent trois ISAM (multiplexeurs d’accès – DSLAM – d’Alcatel-Lucent) full Giga Ethernet. Deux liens desservent la ligne d’arrivée et un autre, les connexions des 400 journalistes de la presse écrite et des organisateurs en salle de presse.

Il faut distinguer deux dessertes : la desserte des sites « départ », « arrivée » et « salle de presse », qui achemine les données d’un routeur de collecte vers la ville étape, et la desserte interne de chaque zone depuis les différents DSLAM. Depuis deux ans, sur les étapes complexes et à multi-zones, nous transportons et sécurisons également les flux des caméras de télévision grâce, notamment, à l’installation de câbles gainés de kevlar, utilisés en particulier entre les cols du Galibier et du Lautaret ; d’où une responsabilité accrue lors des directs.

 

M. : Quelles infrastructures réseaux mettez-vous en place pour répondre à ces besoins ?

H. T. : Le Tour de France amorce depuis cette année une évolution majeure car il démultiplie les arrivées multi-zones et celles sur des sites nouveaux. Les infrastructures réseaux sont simplifiées dans les villes « au pied des montagnes », comme Pau ou Gap, sur les étapes incontournables (Alpe-d’Huez, Planche des Belles Filles…) ou sur les étapes citadines (Montpellier, Saint-Etienne…) car les ressources réseaux sont déjà disponibles. L’exercice, en revanche, est plus complexe lors d’une arrivée au sommet d’un col, que ce soit le Galibier, l’Izoard ou le Tourmalet, car nous devons soit installer des fibres temporaires, soit utiliser une technologie FH (faisceaux hertziens).

Pour prendre l’exemple du Prat d’Albis en 2019, nous avons acheminé 11 kilomètres de fibre depuis Foix jusqu’au sommet. Dans le cadre du RIP (Réseau d’Intérêt Public) Ariège, le génie civil et le fibrage serviront à la desserte des villages et à l’opticalisation d’un relais 3G/4G qui était desservi précédemment en FH. À Chalon-sur- Saône, nous avons fibré le Parc des Expositions et, à Epernay, le lycée qui abritait la salle de presse. Les infrastructures que nous installons pour le Tour profitent également à la collectivité de par l’amélioration des réseaux fibre et GSM dans les régions que nous traversons.

 

M. : Et pour la desserte interne ?

H. T. : Ici, le principe est que les liens 1 Gb/s alimentent trois camions faisant chacun office de nodal et dans lesquels sont embarqués des DSLAM, des PABX, qui permettent de délivrer les services voix (téléphonie, Numéris), des routeurs, des valises wi-fi, des équipements de vidéosurveillance, d’autres de visioconférence pour suivre en temps réel les commentaires des coureurs à l’arrivée, du li-fi en démonstration, etc. Nos camions transportent ainsi vingt tonnes de matériel.

En desserte interne, le déploiement sur une ligne d’arrivée et une salle de presse représente de 12 à 18 kilomètres de câbles et fibre optique tirés chaque jour, en moyenne, par nos équipes (ndlr : sur un total de quelque 60 kilomètres de conducteurs divers), 30 routeurs, 70 switchs, 20 points d’accès et des systèmes atypiques de traduction simultanée utilisant la technologie Sennheiser MobileConnect, étant rare de trouver de tels systèmes d’accessibilité sur wi-fi.

 

M. : À court ou moyen terme, comment ce dispositif va-t-il évoluer pour satisfaire une demande croissante de données en tous genres ?

H. T. : Les usages explosent et nous atteignons des débits crêtes qui effleurent notre marge de sécurité. Vu l’évolution des cœurs de réseau, une migration vers des technologies 10 Gb/s via des DSLAM 10 Gb/s et de l’Olt GPON semble inéluctable à court terme. Le passage de trois liens à 1 Gb/s à trois liens à 10 Gb/s va modifier considérablement les architectures réseaux et engendrer immanquablement une problématique sur la transmission par faisceaux hertziens.

 

M. : Parmi ces évolutions, un upgrade mobile 5G est-il envisagé ?

H. T. : Ma vision est que le futur réseau 5G sera complémentaire des réseaux fibre existants pour des usages différents. La vision client, particulièrement les télés et agences photographiques, est d’avoir la certitude de transmettre en upload sur du débit garanti. L’évolution technique des différents constructeurs de terminaux permettra, je l’espère, un développement prochain de la 5G. En fonction du tracé du Tour 2020, nous aurons peut-être l’opportunité de pouvoir réaliser une démonstration 5G.

 

M. : En quoi, selon vous, le déploiement de la 5G pourrait-il transformer l’offre de services d’Orange sur le Tour de France ?

H. T. : Il faudra attendre la V2 de la 5G pour offrir ce débit garanti attendu par les médias. Grâce à la 5G, on peut envisager, par exemple, une nouvelle régulation des véhicules de la caravane publicitaire et une évolution sur les analyses en temps réel du merchandising des boutiques. Quant au grand public, il me paraît évident que l’évolution technique en termes de vitesse et de capacité lui permettra de vivre l’épreuve en immersion avec les coureurs.

 

M. : Quelle est la capacité des fibres que vous utilisez actuellement ?

H. T. : Les contraintes de terrain et la performance des matériels nous ont conduits à utiliser la technologie fibre Neutrik, essentiellement des 12 FoP, pour ses performances dans les environnements contraints et sa résistance aux agressions externes, comme le piétinement des spectateurs et des suiveurs ou le passage de véhicules lourds sur les câbles, grâce à un système constructeur de blocage de sécurité sur les connectiques.

Pour rappel, les deux points névralgiques d’un câble sont la structure de sa gaine, qui doit s’adapter aux contraintes mécaniques ou climatiques, et la fiabilité des deux extrémités et des connectiques (blocage, déverrouillage, qualité de l’interconnexion limitant les pertes en dB). Cette année, en intersite point à point, nous avons posé une 72 FoP sur quatre kilomètres pour relier les deux zones techniques sur les étapes de Val-Thorens et d’Épernay.

 

M. : Faut-il s’attendre à la mise en place de nouvelles architectures avec des capacités accrues dès l’an prochain ?

H. T. : Un comité « ingénierie technique » se réunira au mois d’octobre pour définir, en fonction du cahier des charges d’ASO, du parcours, des évolutions techniques réseaux et terminaux du Groupe Orange, les évolutions et architectures à mettre en œuvre pour l’édition 2020. Néanmoins, les raccordements réalisés en 10 Gb/s sur une étape test des Tours 2018 et 2019 nous permettent d’entamer une migration vers cette technologie dès l’an prochain. Notre problématique est celle de la réplication des architectures réseaux, quel que soit le lieu de l’étape. Les tests de switching sur les étapes de montagne ont toutefois démontré que le réseau s’était dimensionné en conséquence et que les délais dans le système d’information pour basculer d’un routeur 10 Gb/s vers celui de l’étape suivante ne constituaient pas un frein ou une source de dysfonctionnement.

 

M. : Pour ce qui est de l’acheminement des données, quelle est la plus grosse contrainte sur le Tour ?

H. T. : La plus grosse contrainte sur le Tour reste les étapes à l’étranger et les étapes de montagne. À l’étranger, car nous ne maîtrisons pas toute la chaîne d’analyse et de supervision. Et en montagne, car nous sommes en position de fragilité, tant pour ce qui est du réseau que des usages : à titre d’exemple, cette année, nous avons dû absorber 350 000 connexions en moins d’une heure sur l’une des BTS (relais GSM temporaire 3G/4G) située dans la montée du Tourmalet.

 

M. : Les données produites par les médias sur l’ensemble du Tour représentent quels volumes ?

H. T. : Côté GSM et fibre, plus de 110 To ont été échangés cette année. Et côté GSM voix + SMS, nous avons atteint l’équivalent de 500 000 Erlangs.

 

M. : Par ailleurs, le Tour représente combien de connexions au total ?

H. T. : Nous dépassons les 100 000 connexions quotidiennes sur les différentes zones du Tour où 4500 suiveurs travaillent au jour le jour. Pour rappel, le site du Tour de France (letour.fr) a totalisé plus de 41 millions de visites pour 17 millions de visiteurs uniques, 126 millions de pages vues et 73 millions de vidéos vues, dont 3,5 millions lors de la dix-neuvième étape, marquée par l’abandon du français Thibaut Pinot.

 

M. : Comparativement à d’autres événements récents, comme l’Euro 2016 ou le Mondial de football féminin, également organisés en France, ces chiffres font-ils de la Grande Boucle l’événement sportif le plus connecté ?

H. T. : À l’évidence, sur un stade gratuit de 180 kilomètres, soit la longueur moyenne d’une étape, le Tour de France enregistre une audience et un taux de connexion largement supérieurs. La présence de 99 chaînes de télévision sur l’événement, diffusé dans 190 pays, de 70 radios, de 91 agences photographiques et de 2 000 journalistes accrédités engendre une volumétrie de données également supérieure.  

 

Article paru pour la première fois dans Mediakwest #34, p.106/110. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 23 décembre 2019 à 21:35

Montée en puissance de la production vidéo chez Yahoo! France

Alexandre Delperier, responsable éditorial des contenus vidéo de Yahoo! France. © DR

Verizon Media s’est doté cette année d’un nouveau plateau de production installé dans les confortables locaux de son siège social boulevard Haussmann, à Paris ; sa vocation principale : produire des contenus vidéo pour Yahoo!.

 

Racheté il y a deux ans par le numéro 1 mondial de la téléphonie Verizon, Yahoo! place la barre haut en matière d’offre de contenus. Son portail d’actualités et de divertissements produisant de plus en plus de vidéos, l’équipe française s’est, cette année, dotée d’un plateau TV. Présentation du plateau de tournage et de la régie…

 

Être autonome et produire des contenus différenciants…

« Les thématiques que nous abordons sont variées : nous traitons de politique, d’actualités sportives, environnementales… Et ce plateau de 70 m2 nous sert aujourd’hui à produire des programmes réguliers », explique Alexandre Delperier entré chez Yahoo! il y a cinq ans en tant que directeur des sports et désormais senior director responsable des contenus de Yahoo! France.

« Nous produisons une émission de football tous les lundis entre midi et treize heures qui fait entre 150 000 et 200 000 vues et, sur les gros événements de football, tels que la couverture de Manchester/Paris-Saint-Germain, nos émissions peuvent générer jusqu’à 900 000 vues. Sur la dernière Coupe du monde, nous avons produit au total 150 heures de direct et décliné plus de 350 formats vidéo », poursuit Alexandre Delperier

Avec le nouveau studio, la production de contenus vidéo de Yahoo! en France sera multipliée par 7. Une évolution importante pour le groupe, qui compte accroître l’engagement de sa communauté en concentrant ses efforts sur le format préféré des internautes : la vidéo.

« Je suis à la tête d’une équipe de près de 15 personnes qui s’enrichira d’une dizaine de collaborateurs d’ici la rentrée avec des profils de journalistes, des community managers, des professionnels de la vidéo. Auparavant, nous achetions du contenu réalisé en marque blanche par des sociétés de production ou des médias, ou on louait des studios.

Sur ce nouveau plateau, j’ai voulu créer un lieu de vie. Nous traitons de thématiques très différentes : politique, sport, environnement… Et nous suscitons des témoignages forts, les invités doivent donc se sentir à l’aise. Une partie est aménagée dans un esprit cuisine américaine. Les fenêtres peuvent proposer un univers nuit ou jour et l’espace du fond, qui accueille des canapés, est doté d’un panneau interchangeable qui peut afficher une image de terrain de football, de basket, la cour de l’Élysée, une photo de planète… », détaille Alexandre Delperier.

 

Visite du plateau et de la régie avec le réalisateur…

« Ce plateau est équipé de six caméras : quatre PTZ Panasonic 4K AW-UE70, deux caméras Sony FS7 en fixe, une FS7 susceptible de partir sur le terrain et également une POV HD. Compacte et discrètement intégrée sur un pilier du plateau, elle permet aux animateurs de s’adresser à l’internaute en “one to one”. Nous avons par ailleurs opté pour des éclairages Led Kino Flo », mentionne Alexandre Aristides, le réalisateur plateau de Verizon Media qui nous fait aussi visiter la régie installée juste à côté du plateau…

« La régie intègre un Blackmagic Design Atem 2 M/E Broadcast Panel qui nous suffit amplement aujourd’hui. Le routage se fait une via une grille de commutation Smart Videohub 20 x 20 de Blackmagic. L’acquisition et la lecture des flux vidéo s’opèrent via un UltraStudio Mini Recorder Blackmagic, un boîtier d’encodage Helo Aja génère les flux de direct H.264 en streaming et un Apple Mini contrôle toute la régie.

Nous sécurisons les enregistrements avec six enregistreurs Blackmagic Design HyperDeck Studio Mini qui sauvegardent nos flux vidéo sur cartes SD. Des convertisseurs Blackmagic renvoient les flux multiscreen sur les écrans de moniteurs. Nous avons aussi un Blackmagic Atem 4 M/E 4K qui, avec ses vingt entrées et seize incrustateurs chromatiques, nous sera très utile lorsque des graphistes rejoindront l’équipe... ».

 

Article paru pour la première fois dans Mediakwest #33, p.72. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 18 décembre 2019 à 17:00

Stockage : les tendances 2020...

Sur un stand qui ne désemplissait pas, Edistshare rassemblait ses technologies d’archivage, de MAM - avec sa solution Flow, de serveurs d’ingest et de playout ainsi que de contrôle qualité. © Lionel Ollier

On pensait avoir été très loin concernant le stockage mais il ne s'agit peut être que d'un début !...  Sandisk a fin 2019 largement repoussé les limites de ses cartes mémoire, dans le même temps Cloudian a accompli un pas de géant en matière de stockage objets. Pour le système de stockage partagé HUB v.7.2 de Facilis Technology, l’IBC 2019 fut la première sortie européenne. Autres nouveautés présentées à suivre de près cette année : les outils MAM d’Editshare dont Flow 2020 qui s’appuie sur des éléments d’IA, la solution de stockage de données non structurées Ring8 de Scality, la dernière version du logiciel MAM de gestion des médias Axle ai 2019 et les très nombreuses solutions de compression vidéo, de têtes de réseaux IPTV multi-écran, de cloud DVR et de CDN d’Anevia, actuellement en plein développement à l’international... En route pour un tour d'horizon de toutes ces nouveautés...

 

SANDISK - G-TECHNOLOGY

La nouvelle Carte CFexpress type B Sandisk, qui existe en 64 GB-512 GB, peut enregistrer des vidéo Raw 4K+ avec une vitesse de lecture pouvant atteindre 1 700 Mo/s et d’écriture jusqu’à 1 400 Mo/s ; la carte MicroSD Extreme Pro de 1 TB permet un enregistrement de flux 4K UHD avec un débit de lecture de 170 Mo/s, elle permettra le transfert de 30 minutes de vidéo UHD en 3 minutes et elle enregistrera à 90 Mo/s. Conçue pour les conditions extrêmes, elle viendra se loger dans une GoPro ou, conforme à la norme A2, elle pourra être exploitée dans un smartphone ; une Carte SD de 1 TB est également disponible avec les mêmes performances de lecture et d’enregistrement.

Le stand Sandisk exposait aussi son dernier SSD Portable, le Sandisk Extreme Pro qui se décline de 250 GB à 2 TB. Ce disque, idéal pour les professionnels qui souhaitent transférer rapidement des fichiers volumineux et les manipuler en temps réel directement depuis le lecteur flash, est très solide puisqu’il a été normalisé IP 55. La famille G-Drive Mobile Pro SSD s’enrichit aussi d’un disque pour utilisation en conditions extrêmes avec une vitesse de transfert de 2800 MB/s via port Thunderbolt 3 (un terabyte de fichiers vidéo peut être transferé en moins de sept minutes).

Une ligne de stockage Raid pour les workflows de production gourmands… Du côté stockage avancé, Sandisk propose, avec sa marque G-Technology, deux produits plutôt ingénieux : le nouveau G-Speed Shuttle SSD, une tour Raid robuste pouvant offrir jusqu’à 32 TB de mémoire SSD. Ses vitesses de transfert, jusqu’à à 2 800 Mo/s2 via un bus Thunderbolt permettent d’éditer des séquences multicaméras en temps réel, restituer des effets multicouches et exporter 4K, 8K et VR avec des options de redondance possibles via son hardware Raid intégré. Autre stockage RAID, le G-Speed Shuttle XL embarquera pour sa part des disques G-DRIVE ev RaW avec une capacité de stockage jusqu’à 12 TB (il peut être installé en chaîne pour atteindre 700 TB de stockage…).

 

 

CLOUDIAN

Cloudian s’est vu décerner un BaM award pour sa solution de stockage objets HyperStore. Cette plate-forme conçue pour des besoins en capacité allant de plusieurs pétaoctets à un exaoctet offre une densité de stockage plus de deux fois supérieure à celle des solutions de stockage d’entreprise alternatives… HyperStore Xtreme combine le logiciel de stockage d’objets entièrement compatible S3 de Cloudian avec les tout derniers systèmes de stockage haute densité de Seagate pour une évolutivité sans limite, un accès aux données en temps réel et une économie pour les clouds privés à grande échelle.

Les caractéristiques

- Plus de 1,5 PB dans un boîtier d’une hauteur de 4 U.

- Jusqu’à 18 PB de stockage dans un seul rack de centre de données, permettant ainsi d’économiser de l’espace disque.

- Une économie allant jusqu’à 70 % par rapport au stockage SaS.

- Rentabilité accrue à mesure que la solution évolue (à la différence des systèmes de stockage traditionnels, qui deviennent plus coûteux par unité de stockage à mesure que la capacité augmente).

- La capacité d’évoluer jusqu’à une capacité exabyte et de s’étendre sur plusieurs emplacements ; un pool unique pour l’ensemble du stockage.

- Un stockage d’objets S3 (le plus compatible et interopérable de l’industrie).

 

 

FACILIS

Première sortie européenne pour le système de stockage partagé HUB v.7.2 de Facilis Technology, une évolution de son dispositif de fichier partagé (Shared File System) qui accroît les capacités de virtualisation et de connectivité dans un environnement de workflows collaboratifs. Un aperçu de la version HUB v.8.0 permettait de découvrir de nouvelles capacités de gestion des volumes et de sécurisation : parité dynamique multi-disques, équilibrage des charges entre les stockages SSD et HDD, attachement Fibre Channel/Ethernet, mirroring des périphériques…

HUB Shared Storage est basé sur le HUB Server de Facilis – une plate-forme de stockage partagé en réseau et un serveur dédié aux workflows média – dans un châssis compact, avec des options SSD, HDD, hybrides et des fonctionnalités d’archivage intégrées en mode cloud et LTO. HUB se distingue des réseaux de stockage partagé classiques en permettant à la fois la connectivité Fibre Channel et Ethernet en mode bloc. Les utilisateurs peuvent se connecter par l’une ou l’autre méthode avec les mêmes permissions, comptes utilisateurs et interfaces de travail.

Fastracker est le logiciel de suivi et gestion des assets associé aux serveurs de stockage HUB et TerraBlock. Il est accessible par association directe avec Adobe Premiere Pro CC et un navigateur web. Disponible en fin d’année, FastTracker v.3.5 permettra d’automatiser le déplacement de fichiers pour leur stockage en mode objet dans le cloud ou sur LTO, par simple glisser-déposer. Il facilitera l’indexation des médias, leur recherche, leur accessibilité… à travers la génération automatique de proxys en arrière-plan. Gratuite, la version 3.5 sera disponible pour tous les comptes-clients référencés. Parmi les autres nouveautés, citons Facilis Object Cloud qui virtualise, sur les postes de travail clients, l’accessibilité au stockage objet dans le cloud, sur LTO et disques durs dans une même structure d’organisation de fichiers, le tout géré par l’application Facilis Fastracker.

 

 

EDITSHARE

Editshare, spécialiste des solutions de stockage et de partage de médias, présentait ses outils MAM dont Flow 2020 qui s’appuie sur des éléments d’intelligence artificielle (IA) pour la transcription audio et la reconnaissance vidéo, en connexion avec les systèmes NRCS du marché. Son API ascendante offre une couche de contrôle média étendue avec des outils de production intégrés pour gérer, monter et automatiser rapidement les workflows. L’architecture Flow 2020 repose sur un modèle par abonnement qui offre aux entreprises un accès direct au cloud et une prise en charge par les principaux acteurs du marché, Amazon S3, Backblaze, Google, Microsoft Azure et Wasabi…

Flow 2020 se compose de plusieurs éléments, notamment Flow AI, module alimenté par l’IA offrant des services de reconnaissance vidéo et de transcription audio. Avec Flow AI, les utilisateurs peuvent automatiser l’indexation d’objets/personnes connus, tels qu’une célébrité ou des objets du quotidien, mais aussi convertir des fichiers audio en transcription texte. Les vidéos et audios enrichis sont accessibles rapidement pour leur utilisation en production. Le module Flow News offre une intégration MOS pour les environnements de news, et facilite les échanges entre les départements production, rédaction NRCS, et la diffusion. L’interface API de Flow facilite l’interopérabilité des workflows et des marques. À noter l’intégration de Flow avec le système de stockage BlackPearl de Spectra Logic.

Le système de fichiers et console de gestion EFS 2020 permet d’alimenter plus rapidement les nœuds de stockage et le réseau en vue de créer des workflows collaboratifs complets. Il facile le travail des créatifs en éliminant les étapes trop complexes, tout en dotant les administrateurs et techniciens d’un ensemble d’outils de gestion et de contrôle. Conçu pour suivre l’ensemble des mouvements des fichiers sur le serveur, EFS 2020 File Auditing permet d’éditer un rapport d’activité complet avec un historique détaillé de « qui a fait quoi et quand ? »

Editshare présentait HelmutFX, IO, CO (Cosmo) et HK (Housekeeper), des solutions conçues pour améliorer la gestion de projets à chaque étape de leur fabrication : administration, gestion du back-office, contrôle des capacités de traitement pour la postproduction avec Premiere Pro Enterprise (Adobe). La solution logicielle HelmutFX relie Premiere Pro aux environnements de stockage de l’entreprise, simplifiant ainsi la production des workflows. En ajoutant une couche de contrôle et d’automatisation, HelmutFX gère un large éventail de tâches administratives et organisationnelles (ingest, archivage, sauvegarde, MAM, PAM, etc.) libérant ainsi du temps pour des tâches plus créatives.

QScan 3.5 est la dernière version logicielle de contrôle qualité automatisé (AQC) chez Editshare permettant aux techniciens vidéo, monteurs, étalonneurs… d’accéder aux contrôles de qualité de tous les éléments d’un fichier, à chaque étape du projet, de la structure de l’image aux packages IMF, niveaux audio, en passant par la vérification Dolby Vision HDR. Elle se connecte nativement aux solutions de stockage partagé EditShare EFS et facilite la tâche des utilisateurs grâce à l’automatisation des tests des fichiers à chaque étape de leur transformation.

La VBox d’EditShare est une solution compacte « Channel-in-a-Box » d’automation de diffusion conçue pour les centres de diffusion, les telcos et opérateurs satellite. VBox prend en charge un grand nombre de codecs pour la diffusion IP et de formats HD et UHD et dispose de capacité de gestion des playlists, d’habillage graphique et de transferts à distance.

 

 

SCALITY

Spécialiste des fichiers distribués et du stockage objets, Scality a développé des solutions pour l’orchestration des données dans des environnements de cloud hybride et multi-cloud, grâce à ses technologies Ring et Zenko. Scality présentait Ring8 (software-defined storage), solution de stockage de données non structurées. Le nouvel outil eXtended Data Management (XDM) permet d’intégrer l’orchestration des données cloud à la solution Ring, en plus de ses principales fonctions comprenant de nombreuses mesures de sécurité (nouveau contrôle d’accès, prise en charge des systèmes de chiffrement de données…), l’optimisation de l’architecture multi-locataires pour les fournisseurs de services et la prise en charge des applications cloud natives et patrimoniales.

Les solutions Scality sont utilisées dans le traitement et la distribution des chaînes de télévision, la gestion des données pour les aéroports et stades de sports, les données médicales, etc. Dix ans après sa création, Scality revendique plus de 500 millions de personnes utilisant Ring et Zenko pour stocker et gérer des centaines de péta-octets de données.

 

 

ANEVIA

Anevia, éditeur français de logiciels pour la distribution en OTT et IPTV de la télévision et de la vidéo en direct, en différé et à la demande (VOD), a réussi à devenir en 15 ans une référence dans les plates-formes de diffusion vidéo et à rayonner en France et à l’international avec des bureaux aux États-Unis, à Dubaï et à Singapour. Anevia a levé près de 7 millions d’euros lors de son introduction en bourse en juin 2014 qui lui ont permis de se développer à l’international et d’accroître ses investissements technologiques. Son offre comprend un portefeuille complet de solutions de compression vidéo, de têtes de réseaux IPTV multi-écran, de cloud DVR et de CDN.

À l’IBC, Anevia présentait ses solutions :

- Dynamic Ad Insertion (DAI) qui enrichit les capacités (ad-enabling et ad-preparation) de sa plate-forme de diffusion, des composants ad-stitching et ad-routing. La plate-forme de diffusion de bout en bout d’Anevia – qui inclut la compression, le packaging, le cloud DVR et une solution CDN virtualisée – offre à présent une solution complète pré-intégrée de publicité ciblée (programmatic advertising) qui réduit considérablement les tests en amont des opérateurs et rend son déploiement plus simple et rapide.

- NEA-CDN 5.0 est une solution CDN basée sur une architecture conteneur Docker orchestrée à travers le système de gestion de conteneurs Kubernetes. Elle permet aux opérateurs OTT de faire face aux pics d’audience en ajoutant des serveurs à leur infrastructure CDN. Cela leur offre une flexibilité pour le dimensionnement – en seulement quelques minutes – de leur infrastructure en fonction du trafic grâce aux ressources virtualisées au-dessus d’une infrastructure cloud privée ou publique.

- Genova Live est une solution sur base logicielle pour l’encodage live. Elle permet d’encoder les flux vidéo et audio en H.264 (AVC) et HEVC pour une diffusion IPTV et multi-débit OTT en SD, HD et 4K/UHD HDR. Selon l’architecture déployée, Genova Live peut être accompagnée d’un packager OTT afin de pousser les contenus sur un CDN. L’autre solution d’encodage d’Anevia, Genova File encoder, permet l’encodage de contenu non diffusé en direct (par exemple, la vidéo à la demande ou les contenus publicitaires). Elle permet de réduire le coût des équipements des opérateurs tout en assurant une intégration fluide des publicités dans les contenus lorsqu’elle est accompagnée par le Genova Live. D’après Anevia, en tirant avantage de la puissance des GPU, Genova File peut entraîner une réduction de coût de 90 % par rapport à une solution d’encodage classique à base de processeur CPU.

- Le packager NEA-DVR est une solution d’enregistrement cloud qui comprend un système de stockage hyper-convergent spécifique à la vidéo, baptisé EDS, qui vise à optimiser les ressources en intégrant le streaming et le stockage sur les mêmes serveurs ; ce qui doit, selon Anevia, diviser par deux le nombre de baies informatiques.

- Flamingo, tête de réseau pour la diffusion de chaînes télé et vidéos en IPTV. Purement logicielle, elle permet la diffusion en direct et en différé, ainsi que le replay et la catch-up, nPVR et VOD, de contenu TV et radio capté de n’importe quelle source (satellite, câble, terrestre, HDMI, IP ou web). La diffusion se fait en multi-écran à travers une connexion IP, coaxiale ou sans fil.

 

 

AXLE

Axle ai 2019 est la dernière version du logiciel MAM de gestion des médias destinée aussi bien aux petites librairies de stockage qu’aux grandes architectures de plus d’un million d’assets. En utilisant Axle ai 2019 sur les volumes de stockage ou les dossiers à traiter, le logiciel crée automatiquement des proxys peu gourmands en bande passante disponible depuis n’importe quel navigateur web. Grâce à son interface logicielle de sélection, l’utilisateur peut facilement rechercher, commenter, marquer, approuver et annoter les médias depuis n’importe quel emplacement. La configuration du dispositif de production dans l’entreprise reste identique et les fichiers n’ont pas besoin d’être déplacés sur le réseau. Le stockage peut être de type SAN, NAS ou tout simplement un Raid local, dans un environnement Mac, Windows ou Linux. Axle ai n’aura besoin que de pouvoir lire le file system. L’interface d’Axle fonctionnant dans un navigateur web, elle s’ouvrira avec n’importe quel équipement Mac, PC et appareils mobiles (iOS ou Android).

Axle ai Speech permet une transcription automatisée rapide et peu coûteuse (moins de 2 dollars par heure, annonce Axle) des actifs présents dans une médiathèque. Tout l’audio des vidéos peut ainsi être retranscrit en quelques clics. Le texte est accessible via l’interface Axle et facilite la recherche d’éléments s’y rapportant. L’utilisateur peut corriger les erreurs de transcription directement dans l’interface et exporter le fichier texte contenant l’intégralité des données de time-code pour une utilisation dans d’autres logiciels. Les moteurs de transcription sont disponibles pour de nombreuses langues et dialectes.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 8 janvier 2020 à 17:00

Succès foudroyant pour Adobe Rush

Succès foudroyant pour Adobe Rush

Adobe Rush, la solution de montage pour les plates-formes mobiles développée par Adobe, connaît un succès foudroyant avec plus de 10 000 chargements quotidiens. Destinée originellement pour les réseaux sociaux, Adobe Rush est puissante et intelligente. Elle vient s’intégrer parfaitement dans l’écosystème Adobe, car elle se synchronise avec les autres logiciels de la suite Creative Cloud. Ainsi un montage commencé sur Rush peut être finalisé sur Premiere Pro.

 

Il est possible de créer un contenu en trois minutes grâce aux technologies de Machine Learning d’Adobe (Sensei). Même si vous n’avez que quelques connaissances, Rush permet de créer des contenus de qualité, notamment par exemple en utilisant des templates créés par des professionnels. « Ce qui est créé sur Rush s’ouvre automatiquement sur Premiere Pro et il est possible de disposer de plusieurs pistes audio pour finaliser un montage. Nous apprenons beaucoup de Rush et quand nous voyons les progrès des smartphones, nous savons que nous sommes dans la bonne direction », souligne Steve Forde - General Manager, Emerging Products, Digital Video and Audio.

Rush, couplé à Adobe Stock, permet de décupler la créativité ; et 40 % des utilisateurs de Rush sont des professionnels. Toutes les semaines, l’application est mise à jour, que ce soit des correctifs ou l’ajout de nouvelles fonctionnalités comme du Time Rewarping sur la vidéo ou du Speed Ramping sur l’audio. Adobe Rush accepte de nombreux formats de fichiers vidéo et de codec. Sur un ordinateur, Adobe Rush est même compatible 8K !

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 8 janvier 2020 à 17:00

Encodage : les tendances 2020

Le Monarch Edge de Matrox est un encodeur 4K/multi-HD à faible latence (50 ms). © Nathalie Klimberg

Vitec tisse sa toile sur le territoire des solutions IPTV et de la latence ultra faible. À suivre également en 2020 : l’encodeur Matrox Monarch Edge présenté pour la première fois à l’IBC 2019, l’intégration de Zixi avec la solution Titan d’Ateme, la nouvelle compatibilité d’Avid Media Composer avec le codec d’Apple ProRes Raw, la plate-forme de streaming StreamShark, les systèmes Titan Playout du spécialiste français de la compression vidéo Ateme et Elemental MediaLive d’AWS.

 

MATROX

Récompensé sur le NAB en tant que meilleur produit de l’année dans la catégorie « Remote Production », le Monarch Edge est un encodeur 4K/multi-HD à faible latence (50 ms). Dévolu aux applications de webcasting et de production remote (REMI, pour Remote Integration), cet encodeur H.264 est capable de transporter de la vidéo en 10 bits 4:2:2 pour de la diffusion de directs multicanal à des résolutions allant jusqu’à 3 840 x 2 160 à 60 i/s. Utilisé comme encodeur de contribution Web 4K « classique » ou en déporté, il pourra prendre en charge les principaux protocoles de transport permettant de diffuser des vidéos sur des réseaux GigE (Mpeg-2 TS, RTP/RTSP, SRT, RTMP).

 

 

VITEC

Avec la nouvelle lame d’encodage MGES 7000 4K/UHD/HD HEVC et H.264 IPTV Vitec offre la plus haute densité proposée sur le marché. Cette lame propose un encodage matériel en temps réel de la vidéo 4K/UHD, haute définition et définition standard, mais aussi des fonctionnalités avancées telles que le canal secondaire, la résolution intégrée et la mise à l’échelle du débit d’images, le cryptage AES 256/128 bits et un mode à faible latence… Un châssis 10 U pourra accueillir jusqu’à treize lames pouvant traiter jusqu’à 104 canaux primaires et 104 canaux secondaires. Les flux traités peuvent être SDI, HDMI et la lame supportera bientôt la norme SMPTE 2110. Cet encodeur lame multicanal sera idéal pour les applications de diffusion d’événements sportifs en temps réel, la distribution cryptée et toutes les applications IPTV.

Lors du salon IBC2019, Vitec présentait aussi les MGW Ace Encoder et MGW Ace Decoder qui transmettent des vidéos glass to glass avec une latence d’environ 16 ms. Ces solutions de contribution HEVC de Vitec qui reposent sur un codec propriétaire GEN2 +, présenté comme le plus performant de sa catégorie pour la vidéo HEVC, conviennent tout particulièrement à la contribution multisites ou à la remote production.

Bonne nouvelle, à l’instar du MGW Ace decoder, le MGW Ace Encoder (encodeur HEVC 4:2:2 10 bits/H.265) est maintenant disponible dans une nouvelle version carte open gear encodeur 4K qui permettra une intégration plus facile dans les studios de production et les installations de diffusion. Dix cartes open gear pourront être être placées dans un châssis 1 RU.

Vitec exposait aussi son nouvel encodeur multicanal dédié à la contribution 4K HDR à faible bande passante, le MGW Diamond présenté dans une démonstration de contribution multisites… Il sera idéal pour de la production remote ou toute application de direct multiflux, l’environnement de codage/décodage Vitec offrant une synchronisation parfaite de plusieurs flux IP indépendants pour la diffusion.

 

 

ZIXI

Zixi a annoncé un élargissement de son partenariat avec Ateme – et le lancement d’une nouvelle intégration de Zixi avec la solution Titan d’Ateme. Solution complète de distribution offrant des fonctions d’encodage, de transcodage, de multiplexage, de multiplexage statistique, de packaging et de serveur d’origine, Titan est une application logicielle pour la compression et la transmission de contenus vidéo de haute qualité et de haute densité, conçue pour la contribution, la distribution et la redistribution d’images en SD, HD et Ultra HD. Basé sur Stream, le moteur de compression d’Ateme de cinquième génération, qui offre une qualité vidéo maximale pour un débit de données minimal grâce au calcul en parallèle accéléré, Titan est une solution logicielle entièrement virtualisée qui ne dépend d’aucun matériel spécifique. Répondant à une demande des plus grands acteurs du broadcast à l’échelle mondiale, l’intégration de la plate-forme Ziki dans Titan permet une transmission de contenus vidéo en direct sur tous les réseaux IP, avec une qualité, une sécurité et un coût optimaux.

 

 

AVID

Avid a annoncé que Media Composer sera nativement compatible avec le codec d’Apple ProRes Raw, et pourra lire et encoder au format ProRes sur Windows. Apple fournira de plus des décodeurs 64 bits pour les codecs DNxHR et DNxHD, dans le package « Pro Video Formats » offert en téléchargement gratuit pour tous les utilisateurs. Grâce à ces intégrations, les créateurs de contenus et les studios de postproduction pourront créer nativement des contenus de haute qualité au format ProRes, indépendamment de leur système d’exploitation, gagnant ainsi du temps dans le processus de création.

ProRes est un codec de montage à haute performance produisant des images multiflux de haute qualité pour un montage professionnel en temps réel de faible complexité. Le codec, qui sera disponible pour les utilisateurs de Media Composer sous Windows, prend en charge des tailles d’images diverses dont les formats SD, HD, 2K, 4K, et plus encore, avec une préservation extraordinaire de la qualité d’image tout en nécessitant moins d’espace de stockage.

De plus, la version 2019 de Media Composer pour Mac OS et Windows, entièrement revue, prendra également en charge le format ProRes Raw de manière native. ProRes Raw applique la compression ProRes aux données brutes du capteur de la caméra, offrant ainsi la flexibilité de la vidéo Raw et la performance de ProRes pour le montage d’images en haute résolution.

Enfin, la disponibilité des décodeurs DNxHD et DNxHR d’Avid sur Mac OS représente un avantage significatif pour les créateurs de contenus qui utilisent les produits Apple et Avid, et elle garantira la longévité des contenus DNx encodés dans des fichiers MXF et QuickTime.

 

 

AWS

Les clients utilisant AWS Elemental MediaLive peuvent encoder leur contenu de diffusion à l’aide de HEVC en définition standard (SD), en haute définition (HD) et en Ultra HD (UHD) en HDR pour des expériences de visionnage plus riches, puis en utilisant le multiplexage statistique pour déplacer le play-out dans le cloud. Les clients peuvent également utiliser le multiplexage statistique pour préserver la qualité tout en fournissant davantage de canaux que les systèmes de distribution traditionnels, réduisant ainsi les coûts de transmission vidéo.

Les groupes de médias, tels que les diffuseurs nationaux, créent des contenus en direct et les partagent simultanément avec leurs partenaires de distribution. Cette contribution se fait traditionnellement par satellite. Ces systèmes nécessitent une ingénierie poussée pour fonctionner de manière fiable, et une fois déployés, ils restent dédiés aux dites chaînes partenaires.

Avec AWS Elemental MediaLive, les clients peuvent créer l’équivalent d’une distribution par satellite en quelques minutes dans le cloud et contourner les retards introduits par les codeurs matériels sur site. La fiabilité et la redondance font partie intégrante du service et ne nécessitent aucun travail supplémentaire de la part du client pour atteindre les objectifs de fiabilité. L’accès continu à plusieurs zones de disponibilité AWS au sein d’une région permet aux clients de structurer et d’exécuter facilement des configurations hautement disponibles sur plusieurs sites. Avec la fonctionnalité AWS Elemental MediaLive Statmux, les clients pourront exploiter la flexibilité et l’élasticité d’AWS, créer ou supprimer rapidement des chaînes et les modifier en fonction de l’évolution des besoins de l’audience et de l’entreprise.

Bien que lié au départ avec la 4K Ultra HD, HEVC améliore également les expériences de visionnage HD et SD. Par exemple, les propriétaires de contenu qui ont migré vers HEVC constatent des avantages pour l’encodage de contenu 720p avec HEVC. En outre, les fournisseurs de vidéos cherchant à réduire simultanément la bande passante et à améliorer la qualité utilisent HEVC, non seulement pour la HD, mais aussi pour certaines résolutions SD.

Auparavant, pour organiser des événements premium live, les clients devaient acheter du matériel. Désormais, avec le modèle d’encodage « pay as you go » avec MediaLive, les clients peuvent diffuser des événements en direct et des diffusions linéaires de qualité qui tirent parti de HEVC sans ajouter de dépenses en capital. Les clients peuvent également utiliser les nouvelles fonctionnalités HEVC ABR pour réaliser des économies substantielles, grâce aux économies de débit de 30 à 50 % apportées par HEVC .

 

 

STREAMSHARK

Utilisable par un opérateur sans connaissances techniques poussées, la plate-forme de streaming StreamShark est destinée aux entreprises ayant des besoins de diffusion vidéo en direct lors d’événementiels : conférence, assemblée générale, lancement de produit, défilé de mode… Streamshark permet de diffuser des événements ouverts à tous ou réservés à un public sélectionné, dans le cadre par exemple d’un événement intra-entreprise. « Nos clients ont une grande confiance en notre plateforme, explique Aakanksha Chhikara, Business Development, Streamshark. L’ensemble des étapes de production est redondé afin de permettre une diffusion live sécurisée de bout en bout et d’une qualité exceptionnelle. » De nouvelles capacités de contrôle et de configuration d’encodeurs à distance sont intégrées à Streamshark via l’interface de la plate-forme, depuis le lieu de l’événement, pour une diffusion en simulcast sur Internet et sur les réseaux sociaux. La technologie Streamshark est accessible via les services AWS Elemental Live dans le cloud et à travers l’encodage matériel Epiphan (Pearl). Une fois téléchargé sur la plate-forme, le flux vidéo peut être rediffusé simultanément vers plusieurs destinations de streaming (Facebook, YouTube, Periscope, Twitch, Steam, etc.), y compris en live 360° VR, mais également vers un serveur FTP dédié ou sur toute plate-forme qui accepte les entrées RTMP. Le démarrage ou l’arrêt de tous les flux sur l’ensemble des plates-formes s’effectue en même temps. La plate-forme donne accès à des outils de gestion de Chat en direct, d’encryptage et de protection DRM, d’accès restrictifs aux lives (SSO), d’analyse de données des connexions, etc.

 

 

ATEME

Ateme, le spécialiste français de la compression vidéo, présentait le système Titan Playout de programmation et de diffusion dynamique des chaînes en continu et à la demande. Titan Playout offre une série de fonctionnalités basées sur l’IT, reposant sur une architecture microservices qui permet de créer des flux évolutifs en termes de diffusion et de gestion de ressources, sur site ou dans le cloud. Associé à la solution Titan Live de compression vidéo, Titan Playout forme un dispositif de bout en bout pour les chaînes linéaires et OTT, mais également dans le cadre de chaînes temporaires, de régionalisation de programmes ou de plan de reprise d’activité (disaster recovery). Titan Playout est capable de s’intégrer facilement à tout écosystème technique grâce à ses interfaces, et réduit d’autant les délais de mise à l’antenne et les coûts d’exploitation. En parallèle, Ateme présentait ses avancées en matière d’amélioration de la qualité vidéo et de réduction de latence. Il faisait le point sur les évolutions de sa famille modulaire Titan permettant de migrer vers des workflows IP grâce aux standards SMPTE ST 2022-5/6 et ST 2110. Ateme intervenait dans le Future Zone de l’IBC dans l’encodage de flux 8K avec Titan et présentait ses avancées en termes de codecs VVC et AV2. Après des mois d’essais avec les solutions Kyrion et Titan, Ateme montrait comment BISS-CA, la norme ouverte, libre de redevance, interopérable et sécurisée d’accès conditionnel de l’UER, permet aux diffuseurs de sécuriser leurs contenus pour faire face au streaming illégal.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 12 janvier 2020 à 16:00

Century Link renforce son déploiement en Europe

François Collobert, directeur commercial Emea Century Link © Nathalie Klimberg

Avec un déploiement de 700 000 kilomètres de fibre et 120 PoP dans le monde, Century Link représente le deuxième opérateur réseau américain. La société, qui propose des services CDN capacité de pointe dépassant 120 Tbit/s, a depuis deux ans investi 700 millions de dollars pour renforcer la capacité de ses nœuds CDN ; elle a aussi étoffé ses ressources humaines en Europe, avec l’ambition de renforcer sa présence auprès de clients tels que les fournisseurs, broadcasters, opérateurs OTT…

 

« Notre proposition économique s’appuie sur la flexibilité et l’adaptation aux modèles économiques de nos clients, cela peut prendre parfois la forme d’un « flat fee » par exemple, c’est-à-dire sur un prix négocié d’avance, quelle que soit l’audience, il n’y a donc pas de mauvaise surprise au moment du règlement de la facture, ce qui séduit. Pour preuve, nous comptons déjà parmi nos clients neuf des dix plus grandes sociétés médias au monde en 2019 », souligne François Collobert, récemment nommé directeur commercial Emea.

Sur IBC, CenturyLink a annoncé l’acquisition de la société française Streamroot, leader de technologies de diffusion dans des zones à bande passante limitée. Cette acquisition va permettre à CenturyLink de conforter sa place en tant de leader dans les univers du CDN et du Edge Computing.

« Streamroot propose une approche axée sur les données pour améliorer l’expérience utilisateur, en particulier pendant les heures de pointe du trafic Internet. Les clients de Streamroot ont une approche multi-CDN qui se démarque de la concurrence. Cette technologie et cette approche de diffusion hybride nous aidera à offrir des expériences de visionnage de haute qualité, en particulier sur les zones difficiles à desservir », précise François Collobert.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 12 janvier 2020 à 16:00

NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction

NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction. © DR

NCam propose une solution de suivi de mouvement sans marqueur pour des applications de réalité augmentée et de préviz. Baptisée Camera Bar MK2, elle met en œuvre un périphérique de tracking d’une vingtaine de centimètres, qui ne pèse que 200 g (au lieu de 1,2 kg pour le modèle précédent) et qui se fixe facilement sur n’importe quelle caméra (sur pied, grue, stabilisateur, rig, à l’épaule, caméra sur câble…).

 

Plus petit, léger et robuste que la version précédente, le système s’appuie sur la technologie Intel RealSense adaptée par NCam aux besoins du broadcast (news, sport…) et de la fiction télé et cinéma (previz temps réel).

Pour une utilisation optimale, l’optique de la caméra nécessitera d’être calibrée (mapping) avec les informations réelles de longueur de focale, de distorsions… pour permettre une synchronisation parfaite des éléments CG avec l’image filmée. Le logiciel NCam fonctionne sur une station de travail standard Z2 Mini et Z4 HP.

La partie tracking envoie au logiciel de manière très précise 300 fois par seconde la position et l’orientation de la caméra. Toutes ces informations sont transférées à un moteur de rendu (Vizrt, Brainstorm, Unreal Engine…) pour le traitement des éléments CG en synchronisation avec les plans live.

La Camera Bar a notamment été utilisée sur steadicam et sans fil lors du dernier Superbowl d’Atlanta mais aussi sur le long-métrage Solo a Star Wars Story.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 14 janvier 2020 à 18:15

La modernisation des plateaux de tournage au programme du CNC

Dominique Boutonnat, Président du CNC présente un « plan studios » d’1 million d’euros © DR
Ce jeudi, en ouverture d’une conférence sur l’état des lieux des plateaux de tournage en France dans le cadre de Paris Image Location Expo, Dominique Boutonnat, Président du Centre national du cinéma et de l’image animée (CNC), a dévoilé un ambitieux « plan studios » destiné à impulser davantage d’attractivité à la filière des plateaux de tournage. Ce plan s’appuie sur 4 socles : un appel à projets, une politique régionale, une stratégie de promotion internationale et une politique de formation...
 
 
"La France est reconnue dans le monde entier pour l’excellence de ses industries techniques la qualité de ses talents et pour ses savoir-faire. L’attractivité internationale de cette filière est un enjeu majeur de la politique publique menée par le CNC et les plateaux de tournages en sont un élément central. Néanmoins dans un rapport remis au CNC et à Film France par Serge Siritzky pointe un sous-dimensionnement des équipements français par rapport à ceux des autres pays européens : moins de surface totale pas de grands plateaux et une prise en compte insuffisante des nouveaux enjeux numériques. De plus ces plateaux disposent rarement de  « backlots », des terrains adjacents où fabriquer et stocker de très grands décors. Nous avons décidé de réagir avec un « plan studios » doté d’une enveloppe de 1M€... Le plateau du XXIème siècle doit être numérique et durable et le CNC accompagnera cette mutation » a annoncé le Président du Centre national du cinéma et de l’image animée (CNC). 

 

Le « plan studios » s’articule autour de 4 axes :

Une aide à la modernisation, numérique et durable, sous la forme d’un appel à projet doté d’1M€ au sein du soutien financier aux industries techniques. Une attention particulière sera portée aux enjeux numériques, d’une part, et aux projets éco-responsables, d’autre part. La Commission Supérieure Technique de l’image (CST), en lien avec Ecoprod, formulera des recommandations au CNC pour faire évoluer les pratiques dans le secteur.

Un accompagnement et un soutien aux structures à travers les conventions Etat-Région : le CNC proposera aux régions porteuses de projets de plateaux de tournages à rayonnement international d’intégrer cet enjeu dans les conventions de coopération.

La promotion de l’attractivité française à l’international, en partenariat avec Film France : le président du CNC se rendra en Californie, au mois de mars prochain, pour rencontrer les dirigeants des plateformes et majors américaines et envisager, à terme, la création d’un représentation permanente à Los Angeles pour valoriser au plus près des décideurs les savoir-faire français et les dispositifs d’incitation.

Une attention particulière à la formation : la pratique du tournage en studio fait appel à de nouvelles compétences liées notamment au développement des effets visuels. Les établissements accompagnés par le CNC, notamment La fémis, devront intégrer ces enjeux dans leurs pédagogies afin de former les nouvelles générations à tous les types de tournages.

Au-delà de la portée directe de ces mesures, le lancement de ce plan a l’ambition decatalyser un mouvement collectif impliquant les professionnels, les collectivités et les partenaires du financement.

  • 22 janvier 2020 à 17:00

KVM : les tendances 2020

Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. © Nathalie Klimberg

Le nec plus ultra des KVM est aujourd’hui l’AdderLink Infinity 4000, mais on trouve désormais chez Matrox un nouveau mode agrégateur pour les KVM IP Extio 3 disponible en deux modèles.

 

ADDER

Adder Technology, spécialiste mondial de la connectivité et des KVM sur IP, lance la première matrice KVM sur IP, Dual-Head 4K, haute performance au monde, ceci via une seule fibre optique, une caractéristique séduisante pour l’industrie des médias habituée à travailler sur des doubles écrans… Totalement compatibles avec la gamme Adder Infinity, les Alif4000 peuvent être intégrés dans un réseau existant sans temps d’arrêt et surtout sans opérations coûteuses de dépose et remplacement de l’existant. Compatibles avec des réseaux mixtes 1 gigabit et 10 GB/s ils offrent la possibilité d’évoluer vers un contenu 4K avec flexibilité avec également une prise en charge audio analogique bidirectionnelle.

Sur le stand Adder de l’IBC, l’Alif4000 était présenté en démonstration avec une station Flame Autodesk pour démontrer toute sa pertinence dans les environnements de postproduction, très exigeants en termes précision de pixels et de colorimétrie d’images (les KVM Infinity proposent un échantillonnage 24 bits)… On retrouve les produits KVM sur IP d’Adder Technology, déjà bien implantés en France, chez plusieurs chaînes de télévision, TF1, M6, Canal Plus… Et la société compte bien continuer à développer sa présence sur le territoire…

 

 

MATROX

Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. Cet environnement de commutation matriciel KVM évolutif est économique puisqu’il utilise des commutateurs de réseaux standard. Conçus pour des applications hautes performances, les KVM IP de la série Matrox Extio 3 offrent des performances 4Kp60 4:4:4 ou quadruples 1080p60 4:4:4 sur un réseau Ethernet Gigabit standard (fibre optique ou cuivre). Le nouveau mode agrégateur permet de surveiller et contrôler simultanément plusieurs systèmes à partir d’un espace de travail multi-écrans distant avec un seul clavier et une seule souris, l’application de configuration et de gestion est très intuitive…

Cette nouvelle génération de KVM est disponible en deux modèles… Extio 3 N3208, pour une prise en charge du double signal 1 920 x 1 200 à 60 Hz et Extio 3 N3408 qui prend en charge jusqu’à quatre signaux 1 920 x 1 080 à 60 Hz, deux 2 560 x 1 600 à 60 Hz ou un seul signal 4K UHD 3 840 x 2 160 à 60 Hz.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 19 janvier 2020 à 17:49
❌