Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 6 décembre 2019Mediakwest - Broadcast

NDI entre dans sa version 4…

© DR

Aujourd’hui norme IP dominante pour l’industrie des médias utilisant les réseaux Ethernet standard et des environnements mobiles, NDI est apparu il y a quatre ans. On retrouve ce protocole dans des milliards d’appareils.

 

La nouvelle mise à jour repousse les limites de sa flexibilité, en autorisant notamment le transfert d’un signal vidéo 4K à partir d’un appareil mobile iOS ou tout autre système compatible NDI via une simple connexion wi-fi.

Les principales nouveautés de NDI version 4 :

• Prise en charge du canal alpha et data path 16 bits.

• Prise en prise en charge de l’UHD et au-delà.

• Prise en charge de plus de 64 canaux audio, à toutes les fréquences d’échantillonnage.

• Prise en charge de métadonnées extensibles.

• Codecs audio et vidéo intégrés pour une utilisation dans des environnements sans fil et en remote. 

  • 4 décembre 2019 à 17:00
À partir d’avant-hierMediakwest - Broadcast

En route vers l’IT avec le cloud, la vidéo sur IP et la norme ST-2110

Les studios de Canal Factory à Boulogne ont été réaménagés à l’automne 2016 avec une infrastructure vidéo sur IP à la norme ST2022-6. © Canal Plus

Le cloud, la vidéo sur IP, et plus récemment les microservices, sont devenus des termes habituels dans les annonces des constructeurs ou éditeurs de logiciels. Ils recouvrent à la fois des évolutions technologiques majeures, mais sont aussi à l’origine de bouleversements dans les pratiques professionnelles. À l’occasion du prochain IBC, nous avons souhaité faire le point sur leur introduction ou leur usage avec divers acteurs engagés dans leur mise en œuvre au long de la production et de la diffusion TV.

 

La production et la diffusion TV ont vécu depuis leur origine, dans les années soixante, de multiples mutations techniques. Certaines, comme le passage du noir et blanc à la couleur ou la montée en résolution, SD puis HD et maintenant UHD, ou la conversion de signaux analogiques vers leurs équivalents numériques, constituaient de simples évolutions, certes complexes, mais ne remettaient pas en cause l’organisation des processus de fabrication des images. Le basculement des équipements dédiés vers des outils informatiques et l’abandon des supports physiques vers une dématérialisation totale des contenus en mode fichiers ont marqué une étape beaucoup plus cruciale dans les évolutions techniques des processus de production et de la diffusion des chaînes.

Nous sommes à l’aube de transformations encore plus radicales avec sans aucun doute des conséquentes majeures avec la génération des câblages en tout IP, le transfert de nombreuses tâches dans le cloud, et des évolutions essentielles dans le développement des logiciels avec l’arrivée des microservices. Tous les constructeurs spécialisés dans le hardware dédié ont déjà engagé cette mutation à des niveaux plus ou moins avancés. De nouvelles dénominations ou sigles ésotériques apparaissent dans leurs communications ou sur leurs stands dans les salons. Nous avons interrogé des acteurs impliqués dans ces innovations pour recueillir leurs avis sur le déploiement et la mise en œuvre de ces nouvelles technologies.

Dès le début de notre entretien, Pierre Maillat, responsable des études et de l’architecture à la direction technique Édition à Canal Plus, reprend les propos tenus par Brad Gilmer, directeur de l’AMWA lors d’une conférence de presse : « Si vous passez du SDI à l’IP juste pour faire une transposition de signal, ça ne sert pas à grand-chose. Il faut en profiter pour faire évoluer les workflows et “re-imaginer” nos métiers. Lors du dernier Avid Connect, c’était également le même leitmotiv à propos de la nouvelle version de Media Composer : “Re-imagine” pour améliorer la flexibilité et l’agilité dans nos process. »

Le point commun de ces évolutions techniques majeures, c’est le réseau IP. En effet, il est à la base de la transformation du câblage traditionnel SDI vers les infrastructures vidéo live sur IP, maintenant standardisées par la norme ST-2110. Mais il est également à la base de tous les services de cloud et du transfert des traitements sur machines dédiées vers des outils banalisés, soit « on premise » (sur site), dans des data centers ou dans le cloud.

La généralisation du réseau IP ouvre également les portes à la remote production. Pierre Maillat préfère employer le terme de « production distribuée ». Pour lui, avec le réseau IP, toutes les infrastructures fonctionnent en mode distribué, que ce soit localement à l’intérieur d’un même site de production, et là sans aucune contrainte de débit ni de latence, ou à distance comme on l’entend généralement. Sur un site local comme Canal Factory, une réaffectation immédiate des ressources permet de les exploiter dans des configurations adaptées à chaque production. Si elle est répartie sur deux sites distants, se pose alors la question du transport des images et des sons.

Lors du dernier Festival de Cannes, une régie de Canal Factory a été utilisée pendant dix jours pour la fabrication des émissions de Canal pour couvrir l’événement et assurer jusqu’à deux directs du canal local TV Festival. Une large part des équipements était installée à Boulogne et exploitée sur place ou depuis Cannes selon les besoins. Les deux sites étaient reliés pour cette occasion par deux fibres optiques Orange à 8 Gigabit/s. La couverture d’autres évènements sportifs internationaux est de plus en plus souvent assurée en mode remote production.

 

Les équipements ST-2110 arrivent à maturité

Romain Molari, directeur du développement du groupe 42 Consulting, constate que « le choix d’une infrastructure câblée en ST-2110 n’est plus un sujet de débat. Les offres des constructeurs sont matures. Pour l’instant en France cela reste timide et, hormis le déploiement de Canal Factory réalisé en 2016, et qui d’ailleurs fonctionne en 2022-6, il n’y a aucune autre grosse infrastructure basée sur de la vidéo non compressée sur IP. »

Par contre, ailleurs en Europe, plusieurs chaînes se sont lancées comme RTL TV à Luxembourg, en collaboration avec BCE, ou la chaîne privée portugaise SIC en partenariat avec Sony. Plusieurs cars régie ont été construits avec des réseaux vidéo sur IP, comme ceux d’Athena TV en Grande-Bretagne ou de TPC en Suisse. Dans le cadre de son déménagement, Radio Canada a également fait le choix d’une infrastructure vidéo sur IP.

Manuel Ferreira, vice-président en charge des ventes des produits orientés production et playout, sur la zone EMEA pour Harmonic, confirme de son côté la percée de la vidéo sur IP puisque sa société a déployé plus de 250 licences de diffusion en SMTPE 2110 sur ses serveurs Spectrum X, avec une prévision sur plus de 500 licences d’ici la fin de l’année.

Romain Molari poursuit : « Le choix d’une infrastructure tout IP n’apporte pas de gain économique s’il s’agit d’équiper une régie classique car la technologie reste encore chère. Les chaînes restent encore frileuses, mais je pense que cela va se décanter en 2020 ou 2021. Deux projets sont en cours actuellement chez Eurosport et Radio France. Il n’y a plus de frein technologique, même s’il est préférable de choisir un système conçu à partir d’équipements choisis chez un même constructeur. »

L’interopérabilité promise par le déploiement de la norme ST-2110 et sa généralisation sur de nombreux matériels est bien réelle. Le POC (Proof Of Concept), mené début juillet par Vidélio et l’IIFA, a démontré que globalement l’interconnexion et les échanges de signaux entre des équipements de diverses provenances fonctionnent. Il subsiste encore des domaines à normaliser, en particulier au niveau du contrôle des équipements. Les travaux de l’AMWA progressent bien et plusieurs chapitres du standard NMOS ont déjà été publiés. Ils doivent trouver leur concrétisation sur les équipements.

Les difficultés relevées lors du POC concernent plutôt la maîtrise de l’intersynchronisation avec le signal PTP, le suivi de documentation technique par les constructeurs et surtout la composition des équipes techniques qui doivent associer les compétences métier du broadcast avec celles de l’IT et d’une très bonne maîtrise des réseaux.

 

Les usages multiples du cloud

Le cloud est un thème récurrent depuis plusieurs années dans les annonces des constructeurs et des éditeurs. Les services de cloud (Amazon Web Services ou AWS, Azure de Microsoft, Google et bien d’autres) sont déjà largement utilisés pour une multitude de services liés à Internet. Concernant le broadcast, toute une série de stratégies est proposée pour offrir une plus grande souplesse pour la production, le traitement, l’archive et la diffusion.

Tous les grands constructeurs proposent une transposition de leurs outils de processing et de diffusion vers des services cloud sous forme d’une offre SaaS (Software as a Service). Manuel Ferreira détaille les avantages de la plate-forme VOS d’Harmonic, une solution SaaS (Software as a Service) déployable soit sur cloud privé, VOS SWCluster, soit sur cloud public, VOS360 Origination.

« Lancer une nouvelle chaîne de télévision nécessite en général un investissement initial conséquent, et donc un risque pour les opérateurs de télévision. Avec notre solution SaaS de diffusion, ce n’est plus un problème. Les diffuseurs peuvent lancer de nouvelles chaînes rapidement, avec un investissement initial minime, et la stopper aussi vite en fonction de l’intérêt du public. C’est un risque faible avec des bénéfices potentiellement élevés. De même le lancement d’une chaîne évènementielle ou d’une chaîne locale est extrêmement simple et demande très peu de temps avec VOS. Une fois les médias transférés sur le cloud, il suffit de composer en ligne dans l’outil VOS la play-list, puis en quelques heures de lancer sa diffusion. Il est possible de mélanger dans une même playlist des fichiers média MXF, des évènements en live. Ces outils sont tout aussi bien destinés à des chaînes premium que pour la création de chaînes temporaires », estime-t-il.

Et Manuel Ferreira de poursuivre : « Autre usage de VOS : mettre en place un système de secours de type PRA (Plan de Reprise d’Activités, ou Disaster Recovery). Au lieu de faire des investissements lourds pour du matériel qui ne tournera pratiquement jamais, il y a un coût limité en mode permanent et le service complet n’est facturé qu’en cas de diffusion réelle. Harmonic offre une réelle flexibilité avec la possibilité de recevoir une facture unique, incluant les coûts du cloud, ou uniquement ceux de la partie SaaS, dans le cas d’un client disposant d’un contrat indépendant plus avantageux avec un fournisseur de cloud. »

 

Le cloud hybride, meilleur compromis ?

Mais pour l’instant les chaînes restent circonspectes face à ces offres pour basculer intégralement dans le cloud et, selon l’adage paysan bien connu, ne souhaitent pas mettre tous leurs programmes dans le même panier (ou sur un service unique). Très souvent elles gardent la majeure partie de leurs activités sur des infrastructures internes qu’elles gèrent en direct ou via des prestataires spécialisés pour les chaînes de moindre envergure, transfèrent une partie de leurs outils ou de leurs travaux vers des data centers externes, et enfin répartissent une partie encore limitée de leurs travaux vers des clouds privés ou publics, essentiellement pour la partie streaming et pour les services de VOD ou d’OTT.

Édouard Prévost, co-fondateur et COO de Carrick-Skills, architecte de workflows médias, précise les termes de cet équilibre : « Si on garde toutes les infrastructures en local, on a moins de flexibilité et il faut en assurer la sécurisation. Avec le cloud, c’est plus souple car on lance à la volée autant de services que nécessaire. Mais effectuer 100 % du travail dans le cloud, c’est encore très cher. Pour moi, l’avenir ce sont les architectures hybrides. »

Autres limitations relevées par Romain Molari, la taille des fichiers et l’intégration d’équipements avec des entrées/sorties spécifiques. « Tant que l’on reste en mode fichiers, ça fonctionne, mais par exemple rajouter une simple mixette devient très lourd. »

Par contre, pour des travaux ou des prestations clairement identifiés, des laboratoires créés récemment ont fait le choix du cloud. Il en est ainsi pour Nomalab, qui fait le trait d’union entre des producteurs ou des ayants droit d’un côté et les chaînes et les diffuseurs de l’autre. Face à la multitude des formats de fichiers, des containers, des codecs et de la répartition des divers éléments constituant le programme (en particulier, sous-titrage et affectation des pistes audio), le laboratoire propose un archivage des contenus avec consultation via un simple navigateur, effectue un contrôle qualité et convertit le master fourni pour le producteur dans le format de PAD réclamé par la chaîne. Nomalab effectue toutes ses prestations sur une infrastructure dans le cloud.

Jean Gaillard, son président, explique : « Nous n’avons pas de machines sur place ni d’espace de stockage en interne. Cela élimine toutes les contraintes au niveau matériel. Nous effectuons toutes nos prestations sur une architecture 100 % distribuée et 100 % dans le cloud. Tous les traitements sont indépendants et nous pouvons lancer plusieurs centaines de travaux en parallèle. Tout doit être “scalable” (extensible et élastique). À titre d’exemple, l’intégralité d’un catalogue de 600 titres, cédé pour une exploitation en VOD a pu être traité, conformé et relivré en quelques jours. Un autre cas avec une série entière de plusieurs centaines d’épisodes, validée pour acquisition et livrée prête à être diffusée ou publiée en quelques heures. »

D’autres facteurs peuvent expliquer cette frilosité des chaînes. Les gains économiques sont rarement au rendez-vous et ce sont même plutôt des surcoûts non chiffrés au départ qui apparaissent au bas de la facture.

Jérôme Viéron, directeur technique de Quortex estime pour sa part que : « quand les chaînes TV ou les diffuseurs ont voulu utiliser des services de cloud, ils ont transféré directement leurs logiciels et workflows sur des machines virtuelles distantes sans profiter des avantages spécifiques apportés par le cloud. Du coup, les économies sont rarement là. »

Dans une interview qu’il nous a accordée (parue dans le magazine Mediakwest #33), il détaille toutes les innovations sur lesquelles sa société est en train de bâtir une offre innovante dans le domaine du streaming et de la diffusion de la TV par Internet.

 

Des outils de développement adaptés au cloud

La situation pourrait évoluer avec l’introduction de nouvelles fonctionnalités du cloud et de nouveaux outils pour le développement des logiciels, comme les microservices et les protocoles « stateless », le mode « serverless » et les machines préemptives chez les fournisseurs de services de cloud ou encore l’évolution des machines virtuelles vers un fonctionnement en containers avec Docker ou enfin l’orchestrateur Kubernetes. Ce ne sont pas réellement des nouveautés et sont déjà au cœur de multiples services Internet ou intégrés dans de nombreux systèmes de gestion. Tous ces outils de développement ont été conçus pour créer des applications dites « cloud native » beaucoup plus efficaces pour fonctionner dans des environnements de type cloud. Néanmoins, elles peuvent fonctionner sur des machines virtuelles sur site pour les chaînes qui n’ont pas encore sauté le pas vers le cloud.

Ces nouveaux modes de développement commencent à instiller le monde du broadcast et ces terminologies apparaissent dans la communication des constructeurs. Ainsi, Imagine Communications s’engage résolument dans cette voie avec Zenium.

Comme l’explique Darren Gallipeau, responsable produit : « Zenium n’est pas réellement un produit. C’est un framework, une collection de composants et de technologies qui permettent de construire des workflows de traitement, centrés sur la gestion de fichiers, le streaming, l’affichage multiviewer ou un serveur de diffusion. Il nous sert actuellement à créer des nouveaux produits. Avec sa structure modulaire, il peut fonctionner sur des machines virtuelles, sur site ou dans le cloud. Son architecture ouverte permet aussi au client de l’enrichir grâce à un SDK et de définir des outils sur mesure. »

Malgré ces annonces enthousiastes, des acteurs du monde du broadcast tempèrent cette excitation. Édouard Prévost, constate que « le développement d’applications basées sur les microservices concerne en priorité le domaine de la gestion. Pour le secteur du broadcast, les fonctions concernées sont donc celles liées à la manipulation de métadonnées, par exemple le MAM ou le “traffic system”. Par contre lorsqu’il s’agit de manipuler les médias eux-mêmes, pour du transcodage ou du processing, l’élément le plus limitatif, c’est d’abord le hardware. »

« Chez Carrick-Skills, nous avons repris la logique du microservice, mais nous déclinons cela sous forme de microworkflows, ce qui nous permet de contourner ces limites matérielles et donc gagner en efficacité. Le microservice nous simplifie le déploiement, mais ce n’est pas là que se trouve le gain pour le client en termes de retour sur investissement. », explique-t-il.

Tous ces nouveaux outils, microservices, docker et Kubernetes offrent plus de souplesse. Comme le développement est plus rapide, le développeur a tendance à faire évoluer son code sans cesse, mais la mise à jour des outils eux-mêmes peut l’obliger à reprendre certaines parties du code et a contrario ralentir le processus global et être contre-productif. Il y a également la difficulté à bien dimensionner la taille des microservices. S’il est trop gros, on retombe dans la complexité des applicatifs traditionnels, et s’il est trop petit on se retrouve face à une foule difficile à maîtriser. Comme le dit un ingénieur de Google, la bonne taille d’un microservice correspond à une équipe de développement qu’on peut nourrir avec deux pizzas.

Pour Romain Molari, « il ne faut pas céder aux effets de mode et mettre en place des microservices pour dire qu’on en fait. Si un logiciel classique tourne correctement sur une machine locale, et qu’il fait le travail, il vaut mieux le laisser en place. »

Il évoque également le risque de coûts mal maîtrisés. « Monter un serveur AWS ça demande trois clics. Du coup on monte un serveur pour faire un test ou une démo avec une appellation pas très explicite. Et puis on oublie de le fermer. Quand on vérifie la facture en fin de mois on découvre des lignes dont personne ne se souvient. Il faut donc prévoir une logistique pour maîtriser ce type de surcoût. »

 

Une préoccupation majeure : la sécurité

Une autre thématique qui émerge dans les préoccupations des chaînes concerne toutes les questions liées à la sécurité et à la sûreté. Ce domaine concerne à la fois la protection physique des installations déjà largement prise en compte par le passé, mais surtout les mesures indispensables pour se prémunir des cyber-attaques. À partir du moment où les chaînes exploitent des services du cloud, elles répartissent leurs installations sur des sites distants ou collaborent avec des prestataires via des réseaux, elles ouvrent des portes d’accès numériques qui pourraient être mises à profit par des pirates cherchant à récupérer des contenus, mais aussi à prendre la main sur le déroulement des programmes. Ces questions sont maintenant clairement évoquées dans les appels d’offres.

Pascal Souclier, directeur de l’institut de formation IIFA, note depuis quelques mois une réelle demande autour de ces questions. Pour lui, « la réponse ne doit pas se limiter uniquement à des outils techniques ou à des procédures qui, lorsqu’elles deviennent trop lourdes, sont contre-productives. Elles doivent prendre aussi en compte les facteurs humains et comportementaux qui restent des éléments essentiels pour maintenir la vigilance. » La SMPTE s’est emparée de ces questions et a créé un groupe de travail autour de la sécurité dans les architectures réseaux pour l’audiovisuel.

D’autres évolutions techniques, comme l’IA, la réalité augmentée ou la 5G, commencent également à occuper les réflexions des directions techniques des chaînes et des industriels.

Pierre Maillat constate : « Le basculement dans l’IT en général nous ouvre un tas d’opportunités pour réinventer la manière de travailler et de s’adapter aux contraintes économiques. Il faut être malin et imaginatif pour lancer des nouvelles propositions originales afin de séduire les spectateurs. En un mot, il faut s’adapter en permanence. »

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.39/42. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 2 décembre 2019 à 17:00

Le Graphisme TV avec Luxiris...

Mathieu Rodrigues, Hugo Denier et Loïc Le Roux de Luxiris. © DR

Depuis 20 ans, la société de prestation de service audiovisuel haut de gamme Aski-da, créée par Nicolas Gautron, a grandi pour devenir le groupe Aski-da Taldea. Les cœurs de métiers originels d’Aski-da sont l’assistance technique aux utilisateurs et la maintenance des systèmes de production. L’offre du groupe, destinée essentiellement aux chaînes de télévisions, s’est étoffée avec l’acquisition de son partenaire historique, le célèbre centre Lapins Bleus Formation, qui œuvre depuis 15 ans auprès des professionnels de l’audiovisuel et la création. Puis, il y a 6 ans, il a acquis Woody Technologies, qui développe des logiciels dédiés au traitement des médias. Luxiris est le petit dernier du groupe. Son objectif : proposer une offre de service dédiée au graphisme au sens large, avec toujours la même rigueur, depuis l’habillage antenne et les synthés jusqu’à la réalité virtuelle et augmentée.

 

Loïc Le Roux est en charge du développement de cette nouvelle structure. En pleine formation avec ses équipes, il nous a accueillis au sein du Cargo, le bâtiment qui accueille l’ensemble des sociétés du groupe.

 

Mediakwest : Peux-tu nous présenter Luxiris en quelques mots ?

Loïc Le Roux : Notre offre va du conseil avec des prestations de chefs de projets jusqu’à l’intégration graphique et l’aide à l’exploitation, en passant par la formation en partenariat avec Lapins Bleus Formation. Nous aidons les cellules graphiques à appréhender les récents bouleversements et les importants changements techniques. Le marché du graphisme TV vit actuellement une évolution liée à l’immixion des technologies du jeu vidéo, à la pointe pour la qualité des rendus temps réel. Le point de départ de Luxiris, c’est la constatation d’un besoin d’accompagnement pour le marché des télévisions qui n’étaient pas forcément équipées en interne sur ces compétences-là.

 

M. : Pourquoi créer une entité séparée ? Ne risquez-vous pas d’empiéter sur les prestations auxquelles pouvait déjà répondre Aski-da ?

L. L. R. : Avec Luxiris nous répondons à une demande très spécifique de la chaîne de production des télévisions. Les équipes de news sont les premières concernées, avec une activité majoritairement live. Grâce à cette entité dédiée, nous complétons l’offre d’Aski-da centrée sur le service, le support et la gestion de projets. Luxiris ne se positionne pas sur le domaine des agences de création, mais dans la chaîne de mise à l’antenne des éléments graphiques. Nous intervenons sur la transformation de la volonté artistique pour l’intégrer aux outils techniques.

 

M. : Travaillez-vous en partenariat avec les agences de création ?

L. L. R. : Pas forcément. Généralement une agence de création est missionnée par la chaîne pour réaliser un ensemble d’éléments graphiques. Nous intervenons ensuite lors de l’intégration graphique au sein des solutions techniques, ainsi que pour la mise en place des process et des workflows, auxquels suivront des phases d’installation et d’exploitation. Le cœur de notre métier est la réponse à toutes les problématiques liant graphisme et technique, en restant fidèles aux choix artistiques et éditoriaux.

 

M. : Qui est à l’origine de Luxiris ?

L. L. R. : Nicolas Gautron a été le premier à évoquer cette idée, née du besoin de certains clients qui étaient curieux de la réponse que pouvait leur apporter Aski-da. Le besoin principal est véritablement lié à l’arrivée du moteur de jeu vidéo Unreal Engine dans l’audiovisuel. Les possibilités de création graphique 3D temps réel existent déjà, des moteurs étant proposés depuis 10 ou 15 ans par les acteurs historiques du marché ; mais ces solutions sont basées sur des systèmes propriétaires que peu de gens savent exploiter.

Depuis 2 ou 3 ans, de nouveaux intervenants sont arrivés autour de la technologie Unreal, disponible gratuitement. Epic Games, l’entreprise à la base d’Unreal, a connu un très beau succès avec le jeu Fortnite. Grâce à leur conséquent trésor de guerre, ils ont pu développer le moteur Unreal Engine et le rendre disponible. Epic Games gère toujours le moteur et valide les apports de la communauté. Leur modèle économique est celui du jeu vidéo, l’utilisation du moteur est gratuit en dessous d’un certain chiffre d’affaires, une redevance étant reversée à Epic Games à partir de ce seuil. Avec ce modèle, l’utilisation du moteur est gratuite pour les domaines du cinéma et de la télévision ; il suffit alors de l’implémenter sur un « bon ordinateur » avec les cartes vidéo adéquates.

Côté humain, il faut une bonne dose de talent et faire travailler les gens issus de l’univers informatique pour la télévision. Il faut également intégrer la solution dans les systèmes de pilotage existants. Les nouveaux éditeurs qui bouleversent le marché associent une surcouche au moteur Unreal Engine pour gérer la partie télé. On peut citer l’entreprise turque Zero Density qui a commencé en proposant essentiellement la création de décors virtuels. Les grands éditeurs ont développé des outils autour de cette technologie. Pendant un an et demi, Avid a réalisé le portage du moteur Unreal Engine sur sa solution via une plate-forme Linux ; depuis un an, la solution est proposée en production.

 

M. : Peux-tu nous donner quelques exemples de produits commercialisés ?

L. L. R. : Maestro Virtual Set est le nom commercial de l’offre actuelle d’Avid, France Télévision a été pionnier dans ce domaine et l’utilise depuis un an pour son journal télévisé. Plusieurs chaînes sont en phase de test pour qualifier les apports des technologies basées sur ce moteur de rendu. La chaîne Weather Channel, qui propose notamment des programmes expliquant le fonctionnement de phénomènes météorologiques, exploite la solution Frontier du fabricant Ross Video qui intègre le moteur Unreal Engine dans un environnement vidéo. Plusieurs acteurs ont entrepris le portage de cette solution, que ce soit de nouveaux entrants ou des sociétés déjà connues.

 

M. : Les entreprises historiques ont-elles souffert dans « la bataille » ?

L. L. R. : Les acteurs existants mettent en avant leur importante connaissance des solutions technologiques liées à l’habillage antenne : leurs contrôleurs sont déjà connus des professionnels de la télévision qui bénéficient ainsi des apports du moteur Unreal Engine sans changer leurs habitudes - c’est la promesse d’éditeurs tels qu’Avid par rapport aux nouveaux entrants dont Zero Density qui impose le déploiement de systèmes nouveaux (base PC - spécificités fournies pour les configurations machines et les cartes graphiques et vidéo).

 

M. : Loïc, peux-tu nous préciser tes fonctions au sein de Luxiris et ton parcours ?

L. L. R. : Je m’occupe du développement de Luxiris qui bénéficie de l’expérience structurelle, organisationnelle et administrative du groupe Aski-da Taldea. J’ai commencé à l’exploitation des systèmes de diffusion. Pendant une dizaine d’années, j’étais réalisateur de direct pour Public Sénat avant de rejoindre France 24 où je me suis intéressé de près à la partie graphisme ; je suis devenu référent graphique officiel quand j’ai intégré l’entreprise, environ trois ans après le lancement. En tant que coordinateur graphique, j’étais à la frontière entre la technique et l’artistique et je supervisais l’intégration. En fin de carrière à France 24, j’étais ingénieur chef de projet, avant de rejoindre Aski-da, où j’ai pris en charge une mission, chez NextRadioTV pour le compte de Red Bee, sur les systèmes graphiques dans le cadre de leur déménagement.

 

M. : Tu prends donc la tête de l’opérationnel, y a-t-il d’autres personnes dédiées à Luxiris ?

L. L. R. : Nous avons commencé avec un graphiste en interne, deux personnes nous rejoignent très prochainement. De fortes synergies sont mises en place avec les équipes d’Aski-da.

 

M. : La formation est-elle une partie importante de votre offre ?

L. L. R. : Il y a un manque dans ce domaine, même sur les outils traditionnels dédiés à l’habillage graphique. Lorsqu’elles existent, les formations sont souvent dispensées par le distributeur ; elles ne sont pas forcément certifiantes. Avid nous a demandé de les épauler sur leurs formations. Nous prenons également un soin particulier à la formation de nos équipes pour offrir les meilleures prestations.

Les formations étant proposées en partenariat avec Lapins Bleus Formation, nous bénéficions de leur qualité reconnue dans le « sur-mesure » nécessaire à la formation des profils hybrides (informatique, TV, technique, organisation), des profils qui vont être recrutés ou déployés sur les projets Unreal au sein des chaînes.

Plus simples à appréhender par les clients, nous allons proposer dans un premier temps des formations « produits », mais ces derniers étant intégrés dans un environnement de production, il sera bien entendu au cœur de nos formations. Les graphistes au sein des chaînes ne connaissent pas ces nouvelles technologies et les spécialistes Unreal ne maîtrisent pas l’univers de la télévision. C’était le cas de Mathieu, notre premier graphiste à qui nous avons apporté la connaissance « télé », alors que lui nous permettait de monter en compétence sur Unreal.

 

M. : Est-ce que la technologie Unreal change vraiment tout ?

L. L. R. : De très belles choses sont possibles avec d’anciennes technologies et de grands échecs peuvent naître des nouvelles solutions : l’outil seul n’est pas un gage de réussite. Par contre, les utilisateurs d’Unreal constituent une communauté extrêmement importante là où les connaisseurs des solutions propriétaires restent peu nombreux. Une quinzaine de personnes maîtrisent les outils Vizrt sur Paris. De nombreux tutoriels sont également disponibles sur Internet. Des bibliothèques proposent l’accès à des éléments « pré-faits » pour des prix très abordables par rapport au marché du broadcast : des assets (éléments ou environnements 3D) coûtant entre 50 et 100 euros.

La simulation physique qui n’était pas développée sur les solutions TV habituelles est un atout venu du « jeu vidéo » : des animations chronophages telles que le rebond d’un objet sur le sol sont automatiques. La création d’environnement est facilitée, avec un gain de temps conséquent apprécié des chaînes. Pour moi la qualité de l’image finale reste intimement liée aux graphistes ; le gain de ces nouvelles solutions se situe essentiellement dans le temps de développement et la très grande souplesse d’utilisation.

 

M. : Peux-tu nous évoquer les travaux en cours ?

L. L. R. : Nous travaillons sur deux projets pour lesquels nous tairons le nom des clients, nous les aidons à caractériser l’apport de ces outils, et plutôt que de « visiter l’appartement témoin », d’observer la très belle démonstration du constructeur, c’est en intégrant leur habillage existant que nous leur démontrons l’intérêt des nouvelles fonctionnalités. Nous avons travaillé en collaboration avec Avid sur leur démo « réalité virtuelle » au NAB ; c’était « en flux tendu », ils étaient encore en phase de finalisation de la dernière version de Maestro Virtual Set.

Notre travail est visible sur le clip de présentation de la page dédiée à cet outil sur le site d’Avid : une jeune femme fait des présentations dans le décor que nous avons adapté. Ce sont des projets stratégiques pour nos clients, nous avons de nombreux projets en cours que nous devons garder secrets.

 

M. : Quels sont vos atouts ?

L. L. R. : Nous proposons une approche globale de la chaîne de production, certains concurrents vont proposer l’intégration graphique et éventuellement la gestion des datas, mais pas forcément la gestion complète du projet.

 

M. : Visez-vous d’autres marchés que la télévision ?

L. L. R. : Les télévisions représentent le marché que nous connaissons le mieux. Nous savons que des besoins existent dans le domaine de la fiction, notamment pour la prévisualisation. Je pense que nous apprécions ce marché par le biais de la fiction produite pour la télévision.  

 

Merci Loïc de nous avoir présenté cette activité, je te propose de nous revoir dans quelques mois pour que tu nous présentes la concrétisation de certains projets !

 

Article paru pour la première fois dans Mediakwest #33, p.26/28. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 4 décembre 2019 à 17:00

Record de luminance pour le DP-V3120, nouveau moniteur pro 4K HDR Canon

Record de luminance pour le DP-V3120, nouveau moniteur pro 4K HDR Canon © DR

Canon Europe étend sa gamme de moniteurs de référence professionnels avec le lancement du DP-V3120, un modèle professionnel HD 4K de 31 pouces (78,7 cm). Avec une qualité d’image exceptionnelle assurée par une haute luminance de 2.000 cd/m² (valeur la plus élevée du marché), un ratio de contraste de 2.000.000:1, une précision et une cohérence exceptionnelles, une gamme de couleurs étendue et de nombreuses fonctions d’assistance en monitoring HDR, le DP-V3120 est le moniteur de référence parfait pour la création de magnifiques contenus HDR professionnels.

 

Luminance plein écran de 2000 cd/m² avec ratio de contraste de 2.000.000:1

Le DP-V3120 délivre une luminance plein écran de 2000 cd/m² parmi les plus élevées de l’industrie, obtenue grâce à un système de rétro-éclairage très performant nouvellement développé par Canon. Ce système repose sur des LED à haute efficience, sur un algorithme de contrôle de ces LED très précis et sur un traitement d’image sophistiqué qui permettent à l’écran de restituer un noir minimum de 0,001 cd/m² et un exceptionnel ratio de contraste de 2.000.000:1 assurant une reproduction très précise des détails dans les ombres et dans les très hautes lumières. Le système de rétro-éclairage incorpore un mécanisme de refroidissement de conception nouvelle qui permet au moniteur de produire cette haute luminosité en continu dans un fonctionnement silencieux, ce qui le rend idéal comme outil d’étalonnage. D’autre part, ce système de rétro-éclairage innovant mis au point par Canon est équipé de capteurs répartis sur l’ensemble de l’écran et d’une technologie de correction automatique ‘intelligente’ qui permet au moniteur de maintenir la parfaite précision de l’image durant toute la durée de son fonctionnement.

 

Très performant en impératifs de production

En plus de sa compatibilité pour les gammas conventionnels 2.2, 2.4, 2.6, et ITU BT.1886 et pour les fonctions de transfert Electro-Optical HDR (EOTF), SMPTE ST.2084 et ITU-R BT.2100 (HLG), le DP-V3120 est également compatible avec les larges espaces couleurs BT.2020 et DCI-P3 pour une reproduction de couleurs fidèle et cohérente, conforme aux exigences de production SDR et HDR.

Le DP-V3120 dépasse les caractéristiquesi de moniteur requises par Dolby Vision, y compris les caractéristiques de General Monitor et de Reproduction d’échelle de gris afin de répondre à la capacité de post-production certifiée de Dolby Vision. Avec cette réalisation, Canon prouve une fois de plus sa capacité de contribution à la production effective de contenus visuels HDR de haute qualité et propose une solution efficace aux besoins variés des flux de production.

 

Fonctionnalité étendue

Afin de répondre à la demande d’excellence et d’efficacité en matière de flux de production HDR 4K, le DP-V3120 propose toute une gamme de fonctions de monitoring HDR afin de visualiser les paramètres de signal HDR tels que le blanc HDR de référence et les niveaux de signal et de luminosité d’image pour une optimisation de signal précise. Équipé d’une interface 12G-SDI, le DP-V3120 peut afficher une image 4K via un simple câble SDI. Avec ses 4 interfaces 12G-SDI, le moniteur peut également gérer 4 entrées de signaux 4K différents pour fournir un affichage d’écran divisé en 4 images ou afficher une seule image 4K par alternance des entrées. De plus, les 4 connecteurs d’interface 12G-SDI permettent la gestion d’une entrée de signal 8K.

Le DP-V3120 est également compatible avec le récent Video Payload ID pour l’identification des caractéristiques du transfert de signal, et une fonction de réglage automatique offre la possibilité de commuter automatiquement entre les réglages de mode image. En complément, le moniteur peut être contrôlé à distance par une connexion réseau permettant l’accès à toutes les commandes de menu, aux réglages et aux liens avec d’autres moniteurs ainsi qu’aux réglages d’affichage et à l’information de signal.

Deux autres lancements ont lieu : celui de l’EOS C500 Mark II, une caméra du système EOS Cinéma de nouvelle génération et un objectif Broadcast, le zoom CJ15ex4.3B, qui seront présentés pour la première fois avec le DP-V3120 sur le stand Canon (Hall 12, Stand D60) à l’IBC 2019 du 13 au 17 septembre. Le moniteur DP-V3120 sera disponible à partir du mois de novembre. 

 

Caractéristiques principales du DP-V3120 :

• Luminance de 2000 cd/m² sur l’intégralité de l’écran

• Reproduction d’un niveau de noir de 0,001 cd/m²

• Compatibilité norme HDR EOTF (SMPTE ST 2084 / ITU-R BT.2100)

• Compatibilité large gamme de couleurs dont DCI-P3, ITU-R BT.2020

• Fonctionnement silencieux

• Importante trousse à outils de monitoring HDR

• Interface 12G-SDI / HDMI 2.0

  • 28 novembre 2019 à 17:00

Rencontre autour du lancement de la gamme Lectrosonics D Squared

Philippe Sadoughi, directeur de JBK Marketing et importateur officiel de Lectrosonics depuis décembre dernier. © DR

Il y a quelques mois, à  l’occasion du lancement de la gamme HF numérique D Squared de Lectrosonics, nous avons rencontré Philippe Sadoughi, directeur de JBK Marketing et importateur officiel de la marque depuis bientôt un an. L’occasion de faire le point sur l’offre de ce constructeur américain leader sur son marché, mais encore relativement peu connu dans l’Hexagone.

 

J’ai découvert, pour ma part, les produits Lectrosonics il y a une bonne quinzaine d’années, en travaillant sur une production franco-canadienne qui fournissait son propre matériel. À l’époque, les récepteurs portables étaient plutôt imposants, gourmands en piles et la connectique mini-XLR présente sur les émetteurs me paraissait moins sophistiquée que celle que nous connaissions sur les produits européens. J’avais malgré tout été frappé par la robustesse de la fabrication, la qualité de son, et la portée HF de ses liaisons. La marque a ensuite été importée par Tapages qui a contribué à la populariser, notamment sur les applications de tournage cinéma et TV.

En allant faire un tour sur le site du constructeur américain, j’ai été étonné par l’ampleur du catalogue et la nature des témoignages de clients qui, outre le broadcast et le cinéma, évoluent également en sonorisation, dans le monde du spectacle et de l’institutionnel, des spécialités où EVI Audio vient d’ailleurs épauler JBK.

C’est dans ce contexte qu’intervient le lancement de la gamme D Squared, un système de transmission HF audio entièrement numérique qui comprend le récepteur quatre canaux Dante au format demi-rack DSQD, l’émetteur ceinture DBu et l’émetteur main DHu. Pour quels types d’utilisation et avec quels arguments face à la concurrence ? Le point avec Philippe Sadoughi.

 

 

Mediakwest : Depuis quand JBK Marketing est-il importateur de Lectrosonics en France ?

Philippe Sadoughi : Nous avons finalisé nos accords de représentation pour la France avec Lectrosonics en décembre 2018. Nous assurons l’importation, la distribution et le service après-vente en France pour toute la gamme Lectrosonics.

 

M. : Comment cette nouvelle activité démarre-t-elle ?

P. S. : Très bien. Le travail de fond à effectuer en France reste néanmoins très important car la marque n’est connue que des spécialistes, des connaisseurs et des passionnés du haut de gamme.

 

M. : Un mot sur la position de Lectrosonics aux États-Unis et les spécificités du marché français vs le marché américain ?

P. S. : Aux USA, Lectrosonics a été le premier à s’intéresser au marché professionnel et garde donc une place prépondérante. C’est de loin le standard incontesté dans le broadcast, le cinéma, le théâtre, la comédie musicale et l’installation. La marque est réputée pour fournir une portée satisfaisante, même dans des conditions difficiles et des environnements perturbés, notamment grâce à la précision de ses filtres HF. Par exemple, à Broadway Lectrosonics est le premier choix pour les grandes comédies musicales (King Kong, Le Roi Lion, Frozen) où l’on retrouve notamment beaucoup d’émetteurs miniatures SSM Lectrosonics associés à des récepteurs Venue2. Idem dans l’industrie du cinéma californien, autant pour les liaisons HF diverses que pour les enregistreurs miniatures équipés de time code PDR/SPDR utilisés récemment sur Mission Impossible, sans oublier les systèmes IFB très appréciés pour déployer sur le terrain un monitoring casque stable et de bonne qualité.

D’autre part, les produits sont vraiment conçus pour affronter les rigueurs et les conditions environnementales extrêmes que l’on connaît aux USA. On retrouve donc des boîtiers quasi « tout-métal », usinés dans la masse. Tout est « fait maison ». Il faut noter aussi qu’outre Atlantique, les puissances utilisables peuvent atteindre 100 voire 250 mW moyennant une licence, alors qu’en Europe nous sommes limités à 50 mW.

Par contre, nos environnements HF sont plus denses en Europe, avec davantage de fréquences et d’appareils sur de plus faibles distances, et c’est justement les performances de réjection des liaisons Lectrosonics qui commencent à séduire les utilisateurs en France. Dans certains pays voisins comme le Royaume-Uni, cette réputation est déjà en place depuis un grand nombre d’années. En France, la marque a déjà de fervents adeptes, mais un gros travail de communication reste à faire…

 

M. : Comment cette nouvelle gamme D Squared se singularise-t-elle ?

P. S. : La nouvelle série 100 % digitale D Squared représente chez Lectrosonics la quatrième génération de produits basée sur une architecture numérique. Elle bénéficie donc de l’expérience acquise depuis 2001, année de la présentation de la première liaison numérique par Lectrosonics ; puis la technologie Digital Hybrid. Ces nouveaux systèmes sont compatibles avec la gamme Duet sortie en début d’année et rétro-compatibles avec les liaisons Digital Hybrid. En mode numérique, ils permettent une transmission de 20 Hz à 20 kHz avec une latence ultra réduite (1 ms en numérique).

Le récepteur quatre canaux est particulièrement compact puisqu’il n’occupe qu’une demi-largeur de rack sur 1U. Il est doté de sorties analogiques et Dante. Son système de distribution de signal d’antenne sans perte intégré permet de ne déployer que deux antennes pour les quatre récepteurs, tandis que le chaînage vers un deuxième châssis est prévu. Enfin, la possibilité d’encryptage AES256 CTR permet d’assurer la confidentialité des transmissions.

 

M. : Parmi les freins à la banalisation de la HF numérique auxquels les différents constructeurs se trouvent confrontés, on peut citer : la température de fonctionnement souvent élevée, la portée et l’autonomie souvent plus faible qu’en analogique ou encore la latence. Où se situe D Squared sur ces points ?

P. S. : En mode full digital, la gamme D Squared bénéficie d’une latence très faible (1,4 ms de Analog In à Analog Out + délai du réseau Dante). Après, la forte consommation du numérique est incontournable, mais Lectrosonics a mis au point de nouveaux circuits à très faible consommation et haut rendement, ce qui diminue la déperdition thermique. Ainsi, l’émetteur ceinture DBu et l’émetteur main DHu ont tous deux une autonomie de 3h30 sur pile alcaline et 7 heures sur pile lithium ; et ce, calés sur 50 mW de puissance d’émission.

 

M. : Un mot sur la technologie de diffusion et le codec utilisé ?

P. S. : Il s’agit d’une technologie « maison » dont nous ne divulguons pas pour l’instant les détails.

 

M. : À propos d’éventuels développements futurs de la gamme D Squared, est-ce qu’un récepteur portable est prévu ?

P. S. : Dans la gamme d’IEM Duet System, le récepteur pocket numérique stéréo/deux canaux M2R existe déjà, mais je ne peux pas encore avancer de date précise…

 

M. : L’ergonomie du récepteur, architecturée autour d’un écran couleur de taille respectable, semble avoir été travaillée. Quid de celle des émetteurs qui ont la réputation de demander un temps d’apprentissage ?

P. S. : Évidemment, sur l’émetteur miniature SSM, l’écran est petit et les segments sont grands afin de garder une bonne lisibilité. Vu le type d’utilisation du produit et afin d’éviter tout déréglage accidentel, il faut passer par une combinaison de touches pour entrer dans le menu configuration. Par contre, sur les nouveaux émetteurs numériques, l’écran est plus grand et on entre très simplement dans la configuration via la touche Menu, mais nous conservons des segments de grande taille pour une bonne lisibilité car tout le monde n’a pas gardé des yeux d’ados…

 

M. : Quelles sont les utilisations possibles pour cette nouvelle gamme ?

P. S. : Avec ses caractéristiques (qualité audio, faible latence, compatibilité Dante, format compact, large-bande HF 470-614 et grande portée), elle peut séduire de nombreux utilisateurs, notamment dans des applications de roulante cinéma, plateau TV, concert et installation…

 

 

LECTROSONICS : UN CATALOGUE À DÉCOUVRIR

Lectrosonics démarre son activité en 1971 avec, à l’époque, la gamme de systèmes de sono portable Voice Projector, tandis que les premiers produits HF sortent dès 1975, basés d’abord sur une activité OEM qui évoluera progressivement vers des produits originaux. Étant l’un des premiers à investir le marché professionnel de la transmission audio sans fil aux USA, Lectrosonics reste leader aujourd’hui. Historiquement, on doit à la marque son procédé Digital Hybrid breveté en 2007.

Lectrosonics a su également se distinguer en proposant des émetteurs ceintures originaux comme le petit SSM au format briquet Zippo, ou encore le WM complètement étanche. Quasi inconnue en France, la gamme Aspen se destine à l’installation et comprend entre autres des matrices de distribution numérique, des systèmes de mélanges automatiques pour la conférence ou encore des boîtiers de conversion Dante.

Juste avant la gamme D Squared, Lectrosonics a lancé le Duet IEM System, une nouvelle gamme numérique dédiée au monitoring casque. Elle comprend l’émetteur stéréo DCHT pour caméra qui, dans un format portable, permet de déployer un monitoring deux canaux sur une seule porteuse et accepte un signal AES, micro ou ligne en entrée. On y trouve également l’émetteur fixe M2T qui propose quatre canaux format demi-rack et existe en version Dante, ainsi que le récepteur ceinture M2R.

 

 

DIGITAL HYBRID ET MODÉLISATION

Le procédé Digital Hybrid se singularise par la transmission d’un signal numérique sur une porteuse FM Analogique, supprimant ainsi la nécessité du compandeur (procédé qui prévoit une compression à l’émission, puis une expansion à la réception NDLR). Cette technologie améliore la dynamique, le rapport signal/bruit et bande passante, supprime les artefacts dus au compandeur et constitue encore aujourd’hui la spécificité des gammes fixes (sonorisation, plateau, installation) et portables (ENG, cinéma) du constructeur.

« Toute la gamme Digital Hybrid est néanmoins compatible avec la plupart des liaisons analogiques grâce à une modélisation par DSP des principaux compandeurs du marché. On peut ainsi utiliser soit des émetteurs Lectrosonics sur des récepteurs d’autres marques, soit le contraire ; sachant que seul le mode Digital Hybrid pur garantit une transmission aussi fidèle qu’un câble », ajoute Philippe Sadoughi, qui précise : « C’est d’ailleurs le seul système référencé par Smaart pour les mesures acoustiques sans fil. Cette technologie hybride permet d’associer la faible consommation et la grande portée de la modulation de fréquence (FM) analogique avec la linéarité du signal numérique échantillonné en 24 bits/88 KHz. ».

 

Article paru pour la première fois dans Mediakwest #33, p.24/25. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 28 novembre 2019 à 17:00

Le sport en mode wireless

Pour les motos du Tour de France et autres courses cyclistes, la mobilité de l’émetteur et du récepteur nécessite d’ajouter du délai pour rendre la modulation plus robuste. © DR

Si, dans l’écosystème du sport broadcast, la HF traditionnelle demeure dominante, typiquement sur un stade et pour des opérations d’envergure comme le Tour de France, la technologie 4G gagne du terrain. En attendant la 5G.

 

Chine, Australie, Pologne, Mexique, Argentine, Autriche, Azerbaïdjan, Norvège, Maroc ou encore Bahreïn… Depuis le début de l’année, les personnels HF d’AMP Visual TV jouent les globe-trotteurs. « Nos équipes ont déjà tourné dans vingt-et-un pays et nous ne sommes que début avril ! », sourit Stéphane Alessandri, directeur général délégué, en charge des activités internationales, avant de convenir : « La HF est un levier très important de notre développement à l’international ».

En la matière, cependant, « les investissements sont énormes et les opérations de grande envergure pas si nombreuses pour les rentabiliser », observe de son côté Bruno Gallais, directeur du département HF d’Euromedia. « Toujours est-il qu’à défaut de capter l’essentiel de la rentabilité de nos entreprises, l’activité HF et ses à-côtés, telle la géolocalisation multiple en temps réel, sont la vitrine d’un savoir-faire tricolore mondialement reconnu, acquis notamment sur les routes du Tour de France. Ainsi, « notre application Smacs (Smart Connected Sensors) nous permet de localiser l’ensemble du peloton et un certain nombre de véhicules suiveurs, soit plus de 200 sources simultanées de manière permanente », rappelle Bruno Gallais.

 

Les prestataires en action

En année courante, le sport représente plus d’une centaine de prestations pour les équipes HF d’AMP Visual TV et quelque cent cinquante pour celles d’Euromedia, sans compter les sorties de foules. Des prestations qui englobent ce qu’il est convenu d’appeler le short range (tournage dans un stade ou une aréna), le medium range (un hippodrome ou un circuit automobile) et le long range (toutes épreuves se déroulant sur de longues distances : cyclisme, marathon, triathlon, rallye…).

Côté captation, le premier déploie habituellement des caméras Sony P1, PMW-Z450 ou 2400, en fonction des besoins. « Nous attendons avec impatience la nouvelle caméra Sony P50 », glisse Stéphane Alessandri. Par ailleurs, le prestataire utilise un correcteur colorimétrique de chez CyanView pour retoucher les images HF, uniquement sur le long range.

Sur le short range, en revanche, le dispositif de contrôle des paramètres d’une caméra HF est le même que pour une caméra câblée. Simplement, la première est par définition beaucoup plus mobile et va changer d’axe très rapidement, ce qui peut amener l’ingénieur de la vision à plus de correction.

De son côté, Euromedia exploite le modèle LDX86N RF de Grass Valley (groupe Belden) avec l’interface Colibri de sa filiale Livetools Technology « qui donne à l’ensemble une compacité sans équivalent sur le marché », vante Bruno Gallais.

 

De nouveaux systèmes embarqués

Les progrès en matière de miniaturisation des émetteurs/récepteurs, combinés à ceux des minicaméras (lire MK n° 13), permettent aujourd’hui de multiplier les systèmes embarqués. Ainsi, les équipes d’AMP Visual TV ont développé en interne un ensemble caméra/émetteur/batterie de moins de 200 grammes, doté d’une optique grand angle et d’un micro intégré, pour le cyclisme sur piste.

Emetteur ASI, GPS embeddé, multiplex intégré de quatre entrées vidéo (y compris « picture-in-picture »), bandes de fréquences interchangeables, modules XFP, horloge interne (réveil/extinction) et déclenchement par geofencing… De la même manière, le nouvel émetteur Quantum de Livetools permet désormais aux équipes d’Euromedia de s’adresser à tous les marchés du « on-board » (marathon, trail, voile…) qui réclament une miniaturisation des équipements.

En la matière, outre la taille et le poids, l’autre contrainte est d’embarquer l’énergie nécessaire pour des tournages de plus ou moins longue durée. « En HF, toute l’alimentation est sur batterie », rappelle Stéphane Alessandri. L’ensemble mis au point par AMP Visual TV revendique ainsi une autonomie de 45 minutes. « Pour une épreuve cycliste sur piste, par exemple, une autonomie de plus d’un quart d’heure peut suffire. En revanche, sur route, la course n’a pas commencé », constate un responsable d’exploitation.

Si, sur le short range, l’arrivée du numérique a sonné le glas du technicien pointeur, la liaison sur un stade s’effectuant aujourd’hui directement entre une antenne omnidirectionnelle à l’émission et une ou deux autres à la réception, sur le long range, typiquement le Tour de France, qui mobilise des moyens aériens, le pointage entre l’aéronef et le point de réception au sol fait appel à des antennes autoguidées du suisse Usidec, couplées à des systèmes GPS propriétaires.

Dans les airs, l’avion a, depuis quelques années déjà, supplanté l’hélicoptère. « Pour les relais aériens, l’avion pressurisé reste le meilleur outil. C’est pour cela que nous avons fait depuis peu, via notre partenaire WorldLinx Alliance, l’acquisition d’un second Beescraft B200, confié à une chef pilote », indique Stéphane Alessandri. Grâce à ce type d’appareil, qui embarque sept antennes gyroscopiques dans un cargo pod et une huitième en extérieur, fixée à un mât d’une longueur de 2,20 mètres, jusqu’à quinze signaux HD peuvent être relayés simultanément.

Évoluant sans contrainte météo à une vitesse de 180 km/h et possédant une autonomie de sept heures, le B200 est autorisé à voler à une altitude de quelque 9 200 mètres. Néanmoins, son plafond oscille habituellement entre 7 200 et 8 000 mètres, essentiellement pour des raisons de temps de mise en place et de consommation. L’an passé, les différentes missions de relais aérien ont représenté plus de 1 000 heures de vol. Quant aux cinq avions, dont quatre pressurisés, qu’aligne, entre autres moyens la Business Unit HF d’Euro Media Group, ceux-ci enregistrent en année courante un taux d’utilisation de 75 % sur le long range.

 

« On a perdu Sarko ! »

Au sol, l’implantation du dispositif doit permettre d’abolir autant que faire se peut les obstacles entre la réception et l’avion. Ainsi, sur le Tour de France, notamment lors de la traversée des Vosges, comme sur certains rallyes, celui de Suède par exemple, « quand vous avez de grands sapins qui bordent la route et que, de surcroît, il pleut, la liaison passe moins bien », confie un habitué de la Grande Boucle. Le choix des fréquences comme celui des points hauts pour les relais intermédiaires, qui font l’objet d’un repérage minutieux trois mois avant l’épreuve, s’avère alors déterminant pour réduire, sinon éliminer, le fading et autres décrochages du signal.

Parmi les passages critiques où la propagation de celui-ci peut être altérée figurent également les ponts et les tunnels, comme ceux de Sharjah, lors du dernier Tour des Émirats arabes unis, couvert par Euromedia. De même, la venue de Nicolas Sazkozy sur l’étape Bourg-Saint-Maurice – Le Grand-Bornand, lors du Tour de France 2009, donna-t-elle des sueurs froides aux équipes HF du prestataire. Mobilisées pour l’occasion, les motos de la production avaient perdu l’ancien président. Gag : sa voiture attendait dans un tunnel le moment opportun pour sortir !

De même encore, l’identification des différentes sources HF, typiquement lors d’une course cycliste, a-t-elle longtemps été un exercice improvisé. « Autrefois, on disait “Moto 1, est-ce que tu m’entends ?”, le cadreur mettait son pouce devant l’objectif et on savait que c’était la moto 1 », témoigne Hervé Besnard, responsable d’exploitation du département HF d’Euromedia. Avec le numérique, les encodeurs ont un numéro de programme. L’identification de chaque source s’effectue grâce à son PID (Packet Identifier), en mettant le récepteur sur le numéro de programme correspondant à celui de l’émetteur. Si bien qu’aujourd’hui, le risque de mélanger les différents programmes d’un stream HF n’existe pratiquement plus.

 

À la recherche du meilleur compromis

Dans certains cas, typiquement pour les motos du Tour de France et autres courses cyclistes, la mobilité de l’émetteur et du récepteur nécessite d’ajouter du délai dans la transmission pour rendre la modulation plus robuste, suivant la technique du « time interleaving » qui permet de reconstituer le signal d’origine. D’autre part, le transport d’un nombre sans cesse croissant de datas issus d’équipements connectés en mobilité (maillots, chaussures, raquettes, gants de boxe et, demain peut-être, ceux, biométriques, des pilotes de Formule 1, rendus obligatoires cette saison) requiert des connexions sensibles.

Trouver le bon compromis entre le choix du format, la qualité (qui dépend du débit), la robustesse (due principalement au choix de la modulation) et le délai, en fonction de l’événement et de son environnement, constitue d’ailleurs le fondement de toute transmission HF. Pour y parvenir, Euromedia, par exemple, s’appuie sur les produits Livetools de différentes générations (Carry Coder, puis Live Runner et, depuis 2011, HDRunner et sa modulation propriétaire). D’autre part, les nouvelles liaisons UHD Fusion (Livetools encore) et leur nouvelle modulation propriétaire, qui seront étrennées en juin prochain lors du Marathon du Mont-Blanc, avant le grand rendez-vous des Jeux Olympiques de Tokyo en 2020, sont la promesse de nouveaux progrès en matière de robustesse et de débit.

Sur le long range, l’arrivée du HEVC permet désormais de travailler en 1 080p sans augmenter le débit nécessaire. Ainsi, « depuis cette année, nous produisons l’ensemble des épreuves de cyclisme et de marathon dans ce format », signale Stéphane Alessandri.

Par ailleurs, la technologie 4G, jusque-là le plus souvent utilisée comme solution de back-up, est aujourd’hui déployée comme une alternative à la HF traditionnelle sur certaines compétitions, y compris dans les airs, où elle a déjà été utilisée avec succès à bord d’hélicoptères, sous réserve que le rayon d’action de ces derniers se limite aux zones couvertes. « Nous couvrons déjà du ski et les prochains Iron Man seront produits en full 4G avec une réalisation à distance, depuis notre media center de la rue Cauchy à Paris », illustre le responsable.

Pour autant, contrairement à la HF, qui s’opère traditionnellement avec une bande passante garantie, « il est difficile d’assurer une qualité constante tant nous sommes ici tributaires de réseaux sur lesquels nous n’avons pas la main. » 

En la matière, Globecast, à l’occasion fournisseur de services sur réseaux mobiles, met à disposition une station, construite en 2015, qui permet à l’utilisateur d’opérer en « best effort ». Concrètement, « notre station est équipée d’un mât de quelques mètres qui va aller “taper” une antenne située hors de la zone de l’événement et non saturée par le trafic autour de celui-ci », explique Jérémie Mekaelian, directeur des ventes et des projets contribution.

 

Encombrement spectral

Outre le traitement des datas et la mise en production au format UHD HDR grâce au HEVC, dont les capacités permettent de réduire l’usage de la bande passante de manière significative, une autre évolution récente concerne ce qu’on nomme la « relocalisation fréquentielle ». « Nous sommes progressivement obligés de nous orienter vers des bandes de fréquences de plus en plus élevées car nos bandes actuelles sont extrêmement convoitées par bon nombre de nouvelles technologies, majoritairement en provenance du monde des télécoms », décode Bruno Gallais.

Avec le numérique, le besoin en fréquences a été divisé par trois. Et, aujourd’hui, avec le nouveau codec HEVC, une même porteuse peut transporter jusqu’à quatre flux HD, « mais il faut alors accepter de faire des compromis entre le délai, la qualité et la robustesse », prévient Stéphane Alessandri.

Traditionnellement, l’allocation commence à 1,5 GHz pour les mobiles et peut monter jusqu’à 40 GHz pour les liaisons fixes. Sur un match de foot, par exemple, les fréquences s’échelonnent entre 2 et 7 GHz pour les caméras HF, au nombre d’une à quatre, selon l’importance de l’affiche. Au total, pour répondre aux besoins de toutes les parties prenantes (organisateur, chaîne hôte, ayants droit…), cent à cent cinquante fréquences sont généralement nécessaires pour couvrir une finale de Ligue des champions, par exemple. Sur un Grand Prix de Formule 1 où, par ailleurs, jusqu’à 10 GHz, les porteuses sont très nombreuses, « nous travaillons en 7 GHz et la bande est complètement occupée », signale Stéphane Alessandri.

Autre exemple : la couverture du Tour de France réclamerait, selon nos informations, quelque 700 fréquences, dont 150 pour les équipes de France Télévisions, le diffuseur hôte, et à peu près autant (140) pour celles d’Euromedia, le prestataire de la Grande Boucle (90 pour France Télévisions, 50 pour Eurosport). Enfin, « sur les 24 heures du Mans, où nous travaillons directement avec les autorités, la demande porte sur un peu plus de 1 000 fréquences », prolonge le responsable.

D’ailleurs, les sports mécaniques campent bien la difficulté de concilier un nombre croissant d’utilisateurs et un nombre de plus en plus restreint de fréquences disponibles. Outre le bon ajustement des paramètres de transmission, l’une des solutions est d’aller vers des fréquences fonctionnant dans les deux sens pour en libérer d’autres, typiquement lors d’un Grand Prix de Formule 1. « Nous y travaillons activement, mais il y a peu de chance de voir de réelles avancées à court terme », regrette Stéphane Alessandri, avant de conclure : « Les fréquences sont devenues une denrée très rare et l’arrivée de la 5G n’arrange pas les choses. La bande des 2 GHz avait déjà été bien réduite avec l’arrivée de la 4G, celle de la 5G vient de supprimer la bande des 3 GHz. » 

 

À l’heure des sacs à dos

Longtemps typées news, à l’image de la suite TVU Networks, distribuée en France par Magic Hour, qui équipe plus de 2 500 clients dans plus de 85 pays (L’Équipe TV ou encore BFM TV en France), le passage à l’encodage HEVC, qu’il soit matériel (LiveU, Aviwest) ou logiciel (TVU Networks), pour l’agrégation de liens IP a permis d’étendre l’usage des unités de transmission portables (sacs à dos dédiés ou simples boîtiers montés sur la caméra) à la couverture d’événements sportifs en direct, typiquement marathon ou semi-marathon en milieu urbain, et ce pour une fraction du prix des transmissions par satellite ou fibre optique.

Dans son rapport annuel 2018 sur « L’état du direct », l’américain LiveU, qui a ouvert le marché et a ainsi été le premier à fournir des sacs à dos à son compatriote NBC lors des Jeux Olympiques de Pékin en 2008, confirme d’ailleurs l’adoption croissante du protocole HEVC en tant que standard de l’industrie. « Avec 25 % du trafic généré par LiveU, désormais encodé en HEVC, ce chiffre reflète la demande croissante du marché pour de la vidéo de qualité professionnelle », peut-on lire dans le rapport.

Ainsi, la société allemande WRC Promoter utilise trois exemplaires du produit phare de LiveU, le LU600 HEVC, qui peut monter jusqu’à douze connexions (huit modems cellulaires 3G/LTE/LTE-advanced intégrés, un modem externe, un module wi-fi interne et deux ports Ethernet), pour sa couverture en direct des différentes manches du championnat du monde des rallyes.

De son côté, 3Zero2 TV a choisi les produits Aviwest pour sa couverture des matches (plus de 1 500 par an et jusqu’à 20 simultanément) de la Série C italienne (l’équivalent de notre troisième division nationale) en agrégeant ici des liens en bande Ka, et non en utilisant un réseau cellulaire. Toutefois, « certains événements sont difficiles à couvrir avec une technologie qui fonctionne grâce à la disponibilité des réseaux IP, en particulier dans un stade bondé où la “fan experience” (visionnage en direct de séquences du match et autres services via son smartphone) fait que la bande passante cellulaire peut être saturée », admet Erwan Gasc, président et co-fondateur de la société.

 

Les défis de la mobilité

Adapter en temps réel le débit de codage et la résolution vidéo au réseau disponible est d’ailleurs une préoccupation commune à tous les constructeurs. Ainsi, la technologie SafeStreams d’Aviwest, implémentée dans tous les produits de la marque et récompensée par un Natas Emmy Award lors du dernier NAB Show, permet, outre la retransmission de paquets perdus et la correction d’erreurs (FEC 2D et ARQ), l’agrégation de différents liens IP non managés afin de maximiser la bande passante pour la transmission d’un flux HD en direct avec un minimum de latence (sous 500 m/s). SafeStreams va ainsi analyser chaque lien en termes de débit, créer un canal de transmission et ajuster la compression vidéo en temps réel, au fil, par exemple, des zones traversées par une moto émettrice lors d’une course cycliste.

De la même manière, lorsque la bande passante disponible fluctue, le protocole LiveU Reliable Transport (LRT) informe l’encodeur et la technologie s’adapte afin de conserver un flux robuste.

Du côté des TVU également, « le système prend en compte les variations de débit et nous fournit un signal en le dégradant si la connectivité réseau est vraiment faible (mode VBR) », explique Philippe Guiblet, directeur technique du media center d’AMP Visual TV.

Par ailleurs, les solutions hybrides (cellulaire/satellite) conjuguent « le meilleur des deux mondes » et permettent de simplifier les flux de travail en répondant aux besoins de la production. « Inutile pour les diffuseurs de choisir entre l’agrégation de liens cellulaires et le satellite pour garantir un lien stable de haute qualité, tout se fait automatiquement en priorisant le réseau le moins cher disponible », explique Romain Batlle, consultant marketing chez LiveU France.

L’autre défi posé aux constructeurs, typiquement pour le sport en direct, a été d’égaliser les délais entre plusieurs caméras. La synchronisation automatique entre les unités d’agrégation de liens facilite désormais les productions multi-sources. Ainsi, en s’appuyant sur le protocole de transfert breveté LRT, l’une des fonctionnalités de la solution de production à distance de LiveU – laquelle, en fait, se confond avec toute la gamme des LU600 HEVC, y compris le 4K-SDI, dédié au streaming professionnel en 4Kp50/60 et à la prise en charge des applications de réalité virtuelle et à 360 degrés – mesure et affiche précisément le délai de bout en bout.

Grâce à LiveU Precision Timing, « il est possible de synchroniser à l’image près de multiples sources vidéo en direct, sans genlock, sans ajouter de câbles et sans avoir à paramétrer manuellement les délais sur chaque caméra », développe Jean-Christophe Albou, directeur commercial France et Europe du Sud.

 

Un management centralisé

Lors de la Coupe du monde de la Fifa l’été dernier en Russie, plus de 485 unités LiveU furent utilisées par les diffuseurs de plus de 40 pays, qui délivrèrent pour l’occasion plus de 15 000 heures de direct, au cours de plus de 30 000 sessions ayant généré un volume de transmission de plus de 36 To de données.

Ce genre de déploiement, en l’occurrence exceptionnel et le plus souvent limité à quelques émetteurs, fait appel à une plate-forme de gestion centralisée. Qu’elle se nomme Le Manager (Aviwest), LiveU Central ou encore Command Center (TVU), chacun des constructeurs les plus présents dans l’Hexagone revendique la sienne. Celle-ci autorise un contrôle à distance complet ainsi que le monitoring de tout l’écosystème et des contenus par le biais d’un navigateur Internet sur un PC ou encore sur un smartphone ou une tablette, via une application dédiée (LiveU Control et autres).

Dans le cas du Manager, par exemple, l’interface web permet de gérer non seulement l’ensemble des émetteurs Aviwest d’un client – typiquement le Pro380 pour le sport, qui possède huit modems et quatre antennes internes –, mais aussi des systèmes tiers, comme des caméras IP, déployés par ce client ou des ayants droit.

Proposée en mode rack ou dans le cloud, la plate-forme donne accès à diverses fonctionnalités, comme le paramétrage à distance des émetteurs/récepteurs, leur géolocalisation (visible sur une carte), l’acquisition de données statistiques sur la consommation des cartes SIM, le routage des flux entrants vers les chaînes clientes et autres réseaux sociaux, la gestion des métadonnées, qui facilite l’indexation des fichiers vidéo, ou encore la communication par intercom (IFB) avec les personnes sur le terrain.

De la même manière, la plate-forme Command Center permet de monitorer l’ensemble des transmissions en provenance des systèmes TVU. Cependant, pour des réglages plus complets, « nous exploitons à ce jour une interface par serveur de réception », précise Philippe Guiblet. Des systèmes qu’AMP Visual TV utilise pour sa part depuis 2012.

Ceux de la dernière génération, de plus en plus compacts et légers, à l’instar des set-up ENG auxquels ils sont notamment destinés, encodent en H264 en base et H265 en option. Ils peuvent agréger jusqu’à douze flux et, comme d’autres systèmes, présentent l’avantage d’une prise en main à distance. Quant à leur autonomie, celle-ci accuse de réels progrès. « La batterie externe rechargeant la batterie interne, on peut avoir une transmission ininterrompue », confirme le responsable.

Une fois la liaison établie, l’intervention se résume à du monitoring, excepté les cas où le réseau s’écroule et où il faut ajouter de la latence pour permettre au logiciel de récupérer les paquets perdus et de livrer ainsi un signal full HD de haute qualité.

 

En route vers la 5G

De quelque 20 millisecondes en 4G, voire un peu plus (50 à 60 m/s) en fonction de l’endroit, de l’opérateur, de la génération du standard et si on ajoute un agrégateur au dispositif, la latence pourrait descendre jusqu’à 1 milliseconde en 5G, à confirmer cependant dans des conditions réelles d’exploitation. « C’est donc la promesse d’une bande passante élargie et d’une qualité d’image supérieure avec l’augmentation des débits. Mais la 5G ne sera probablement pas un moyen de transmission vidéo exploitable avant cinq ans », estime Jérémie Mekaelian.

Même si la transition pour le sport en l’occurrence n’a pas vraiment commencé, la technologie est prête pour fonctionner sur des réseaux IP sans fil et IP centriques à haut débit. « Pour l’heure, nos produits n’intègrent pas de modems 5G. En revanche, ils peuvent s’interfacer avec ceux qui existent », précise ainsi Erwan Gasc.

De la même manière, « les nôtres sont d’ores et déjà opérationnels sur les réseaux “5G Evolution” (encore appelés LTE Advanced Pro), ainsi que sur les réseaux 5G proprement dits, dans les pays où ceux-ci ont déjà été déployés », indique-t-on chez LiveU. Lequel annonce à terme de nouvelles fonctionnalités et de nouvelles unités avec des batteries aux durées encore plus longues.

« La 5G va décupler la puissance des solutions d’agrégation de liens cellulaires pour le HEVC, ce qui rendra les flux vidéo encore plus fiables pour couvrir des événements sportifs en direct », résume Jean-Christophe Albou. Néanmoins, selon le constructeur, son déploiement devrait s’accompagner d’un certain nombre de limitations, sinon de contraintes, telles l’attribution des bandes de fréquence, la propagation des ondes mm (à savoir, pas de couverture en intérieur, des déploiements haute densité coûteux en extérieur et une mobilité restreinte), une couverture partielle, voire incomplète, des territoires et des problèmes de consommation électrique, sans parler de possibles défis de neutralité du Net dans certains pays et une absence de nouveaux services anticipés sur la 5G.

 

 

RF FACTORIES, DES ÉQUIPES ET DES MOYENS DÉDIÉS

Créé en 1994, le service HF d’AMP Visual TV se compose aujourd’hui de :

• 30 permanents

• 80 liaisons HD

• 50 liaisons UHD

• 60 systèmes on-board “picture-in-picture”

• 5 régies flight-case de 4 à 20 liaisons

• 2 cars-régies

• 12 motos

• 2 scooters électriques

• 2 avions relais pressurisés Beechcraft B200 (en partenariat avec WorldLinx Alliance)

 

De son côté, la Business Unit HF d’Euro Media Group (Broadcast RF pour le Royaume-Uni, EuroLinx pour la Belgique, Euromedia RF pour la France) rassemble :

• + 70 permanents

• + 160 liaisons HD

• 180 liaisons UHD (à partir de 2020)

• 30 liaisons Quantum on-board

• 10 cars de réception

• 28 motos

• 5 avions (dont 4 pressurisés)

• Régies flight-case et scooters à la demande (à noter que toutes les prestations à l’étranger sont réalisées sans véhicule).

 

Article paru pour la première fois dans Mediakwest #32, p.94/98. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 27 novembre 2019 à 17:00

Conax Go Live, la télévision autrement

Workflow de la préparation, sécurisation et distribution des contenus via Conax Contego et Conax GO Live.  © Canal Cable

Vous vous demandez comment diffuser vos programmes sur les smartphones de vos abonnés, afin que ceux-ci regardent vos contenus plutôt que les offres concurrentes ? Vous envisagez de lancer un service vidéo pour convertir vos clients prépayés en abonnés permanents ? Vous cherchez à vous développer au-delà de vos frontières pour atteindre un public d’expatriés ? Ou peut-être souhaitez-vous ajouter une nouvelle dimension à vos formations, grâce à la vidéo ? Bonne nouvelle! Conax GO Live de Nagra en partenariat avec Canal Cable, est disponible en France avec une offre technique, rapide à déployer et très facile d’utilisation.

 

Nagra est un leader mondial sur les marchés de la sécurité des contenus vidéo et des solutions média convergentes de bout en bout, qui compte parmi ses clients la plupart des géants des médias et de la communication. La société collabore avec Canal Cable qui est un intégrateur reconnu en France depuis 35 ans pour la distribution de Conax GO Live.

Conax GO Live de Nagra comprend de nombreuses fonctionnalités permettant de prendre en charge le contenu vidéo de chaines linéaires broadcast tout comme des contenus à la demande (VoD). De plus, grâce à Conax Contego, la plateforme de sécurité de Nagra conforme aux standards des studios hollywoodiens, vous gardez le contrôle de vos contenus. Canal Cable, partenaire de Nagra sur le marché français, apporte tous les outils et services nécessaires pour diffuser des vidéos en streaming. Lancé en 2015, GO Live est aujourd’hui utilisé par des dizaines d’opérateurs ayant des abonnés dans 150 pays à travers le monde, tels que Canal+ au Myanmar ou Shant TV en Arménie.

 

Économique et rapide à déployer

En créant Conax GO Live, Nagra offre un outil à la fois complet et abordable économiquement. Le modèle commercial est basé sur un prix de départ modeste, à la suite de quoi le client ne paie que pour les appareils que ses abonnés utilisent. C’est donc un moyen idéal pour ajouter des appareils OTT à un service existant de télévision payante, ou pour tester un nouveau service.

Conax GO Live est rapide à mettre en service. Canal Cable peut mettre en place une démonstration en quelques minutes, et un déploiement complet en 30 jours seulement. En effet, Conax GO Live dispose déjà d’applis sur iOS, Android, AppleTV, AndroidTV, FireTV, Chromecast et Roku. L’infrastructure sous-jacente est basée sur Amazon Web Services (AWS), il n’y a donc aucun matériel à acheter. Un clic, et c’est parti !

 

Facile à utiliser et riche en fonctions

Pour exploiter Conax GO Live, un simple navigateur web est suffisant. Après une page de connexion sécurisée, vous accédez au centre de contrôle de Conax GO Live, qui via une interface intuitive donne accès à une panoplie d’outils pour créer des offres commerciales, activer des chaînes en direct, encoder des vidéos, et gérer des abonnés. Conax GO Live s’adapte à vos ambitions, que vous l’utilisez seul ou dans le cadre d’un centre opérationnel complet.

Conax GO Live offre de nombreuses fonctions qui feront de vous une star de la télévision en streaming et de la vidéo à la demande (VoD) ! Il permet la création de catalogues de chaînes personnalisés et de guides électroniques des programmes (EPG), ainsi que l’ingestion de contenus en VoD, le basculement rapide d’une chaîne à l’autre, la pause en cours de visionnage, ou encore la reprise d’émissions au début et le visionnage en différé. Avec des utilisateurs dans 150 pays, la gestion de la langue et des sous-titrages est prise en charge. Proposé en marque blanche, Conax GO Live laisse au client la possibilité d’ajouter sa propre marque, son logo, ses couleurs et ses images.

Canal Cable est un intégrateur reconnu en France depuis 35 ans. Il propose à ses clients (opérateurs de diffusion, fournisseurs de contenus, administrations et grandes entreprises ou hôtellerie) l’offre Conax GO Live packagée avec toute la palette des services connexes : captation ou gestion des contenus, transcodage et profilage OTT, monitoring de la diffusion OTT, exploitation déléguée…

Canal Cable a choisi Conax GO Live pour sa flexibilité, sa facilité d’intégration avec ses solutions de transcodage, sa rapidité de mise en œuvre et sa qualité de diffusion et de protection « broadcast ». Ainsi, que l’on soit opérateur d’un bouquet de chaînes TV ou directeur de la communication d’une grande entreprise du CAC 40, GO Live offre la garantie que les contenus sont protégés et diffusés dans les meilleures conditions. L’offre Conax GO Live peut être packagée avec toute la palette des services connexes que propose Canal Cable : captation ou gestion des contenus, transcodage et profilage OTT, monitoring de la diffusion OTT, exploitation déléguée…

 

Article paru pour la première fois dans Mediakwest #33, p.76. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 26 novembre 2019 à 17:00

Cyber sécurité, garder le contrôle du réseau avec le Grid Computing

L’environnement de type Grid Computing, permet à plusieurs instances d’un même composant d’être disponibles et substituables entre elles, se sécurisant mutuellement sur le principe actif/actif. © Adobe Stock / Sergey Nivens

« Au jeu du gendarme et du voleur, le voleur a toujours un temps d’avance pour s’introduire chez vous… Dans une infrastructure, il en profitera pour dérober ou altérer des données, voire prendre le contrôle de certains traitements, mais plusieurs précautions peuvent prévenir ces désagréments... ».

 

Fondateur de JLMorizur Engineering, Jean-Luc Morizur supervise des projets internationaux orientés numérisation et mise en réseau des moyens techniques depuis 20 ans. Il partage avec nous son approche de la cybersécurité vis-à-vis d’organisations de médias exigeantes en termes de mobilité, de travail collaboratif, mais aussi de sécurisation des traitements et de protection des données…

« La mise en réseau des moyens techniques en environnement IP dans le domaine du broadcast s’appuie sur des standards d’interopérabilité qui sont ouverts et publics. Dans les années 80, la suite de protocoles TCP/IP a supplanté le modèle OSI (Open Systems Interconnection) avec pour bénéfice un renforcement des mécanismes d’interconnexion, mais cette ouverture pose aujourd’hui problème…

Le transit des informations via des réseaux publics non sécurisés, la généralisation de la mobilité des équipes et la multiplication des nouveaux terminaux (tablette, téléphonie mobile, ordinateur portable) induisent une complexification de l’approche sécuritaire des infrastructures… », souligne Jean-Luc Morizur.

Perdre le contrôle de son infrastructure, de son activité et de ses données : une situation de plus en plus courante...

Le recours aux technologies open source pour éviter les coûts de licence lors du traitement des contenus est aujourd’hui banal. Pourtant, un code source non qualifié ou non expertisé, c’est-à-dire non certifié, peut héberger un virus, un back door et, en plus, souvent dans les organisations qui utilisent des solutions open source, on remarque une absence de moyens alloués au contrôle par des équipes dédiées…

Les risques sont pourtant bien réels ; dernièrement, une faille de sécurité détectée par un institut allemand a été classée au niveau 4, soit le niveau de risque le plus critique, pour un logiciel open source téléchargé plusieurs milliards de fois dans le monde entier !

 

Prévenir plutôt que guérir avec l’approche Grid Computing

Il est vrai que les coûts pour sécuriser et maintenir une infrastructure traditionnelle peuvent s’envoler ; ils peuvent toutefois être maîtrisés dans le cadre d’une nouvelle approche déclinée à partir de solutions innovantes et spécifiquement imaginées pour le web, une approche qui sera active et qui offrira une meilleure qualité de service à moindre coût. Dans cette perspective, une démarche de type Grid Computing a pour avantage une répartition dynamique de charge, et d’optimisation de l’occupation des réseaux.

En environnement de type Grid Computing, plusieurs instances d’un même composant sont disponibles et substituables entre elles, se sécurisant mutuellement sur le principe actif/actif. Cette approche permet de faire évoluer à chaud les infrastructures en fonctionnalité et en capacité, sans remise en cause du core system.

Au niveau du design, ménager un cloisonnement des sous-systèmes les uns par rapport aux autres, intégrer les secours et les modes dégradés dès la phase de conception offre la possibilité d’anticiper une intrusion dans toute l’infrastructure.

Les composants déployés pour rendre les services seront découplés les uns des autres. Ainsi le changement d’un composant dû à une mutation de technologie sous-jacente (normes, langages, programmes, équipements, réseaux, etc.) n’affectera pas les autres composants.

L’introduction d’une intelligence au niveau de la couche session (niveau 5 du modèle OSI) permet de découpler les services au niveau logique du réseau physique et de mettre en œuvre les mécanismes nécessaires pour favoriser cette nouvelle approche.

« Ces réflexions, menées de longue date au sein de certains groupes de travail de l’UIT (Union internationale des télécommunications), dont TINA (Telecommunications Information Networking Architecture), prennent ainsi aujourd’hui tout leur sens », explique le CEO de JLMorizur.

 

Les quatre principes clés d’un réseau sécurisé et évolutif…

Dans l’univers des médias, de nouveaux services apparaissent (replay, svod, ciblage publicitaire…) pour capter de nouveaux revenus, les infrastructures doivent donc aussi être pensées pour ménager l’accueil des futurs services sans remise en cause des investissements déjà consentis. Dans cette perspective, l’architecture doit observer quatre principes :

1. Analyse et conception orientées objet,

2. Distribution des composants,

3. Découplage des composants entre eux,

4. Séparation des préoccupations (exploitation, supervision, facturation…).

 

Aujourd’hui, l’accent mis sur la sécurité porte essentiellement sur TCP/IP, à savoir le réseau. Il est nécessaire de sécuriser l’accès aux données au moyen de systèmes d’identification et d’authentification pour certifier qu’il s’agit bien de la bonne personne pour le bon traitement ; mais il faut également protéger les données en elles-mêmes au moyen de solutions de chiffrement.

« La recommandation R143 portée par EBU (European Broadcast Union) va dans ce sens, mais il faut aussi souligner que sans la pleine adhésion des utilisateurs, la sécurité d’une infrastructure ne peut pas être garantie ; il faut donc aussi veiller à une sensibilisation et à une formation régulière des utilisateurs aux bons usages… », conclut Jean-Luc Morizur.

 

Article paru pour la première fois dans Mediakwest #33, p.74. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

JLMorizur Engineering qui exposait sur le SATIS 2019 aux Docks de Paris à La Plaine-Saint-Denis, les 5 et 6 novembre dernier s'est vu récompensé par un trophée SATIS du Public pour son produit ADN PLAY (player adaptatif spécifiquement dédié à la remote production).

.

  • 4 décembre 2019 à 17:00

CBC Radio Canada, en route vers le tout IP

Vue 3D du futur siège de CBC Radio Canada à Montréal. © DR

Le groupe CBC Radio Canada est l’un des premiers diffuseurs au monde qui passera début 2020 sur une architecture Full IP. Cette évolution correspondra également au déménagement dans un nouveau bâtiment moderne qui se situe à quelques centaines de mètres de la tour emblématique et historique de la chaîne. Nous nous sommes entretenus en exclusivité avec François Vaillant, directeur général, Solutions d’Ingénierie Infrastructure et Services Techniques Media CBC Radio Canada.

 

Mediakwest : Déjà, pour commencer, pourriez-vous nous présenter CBC Radio Canada ?

François Vaillant : Radio Canada est une société d’État, un diffuseur public de radio-télé-web dans les deux langues officielles du pays, le français et l’anglais. La société existe depuis les années 30, elle a été fondée peu après la BBC, son nom officiel est CBC Radio Canada. Nous couvrons l’ensemble du territoire canadien, certaines villes en Europe et en Asie, telles Londres, Paris, Moscou, Pékin, un peu l’Amérique du Sud et, bien évidemment, les États-Unis.

Pour le réseau anglais, l’ensemble de diffusion, est centralisé à Toronto, toutes les régions anglaises contribuent vers Toronto. Pour le réseau français, sa diffusion ainsi qu’une partie de sa production sont, elles, centralisées ici, à Montréal. Typiquement, nous comptons plusieurs chaînes de télévision et de radio, dans les deux langues. Nous avons aussi des chaînes radio en langues autochtones, locales, pour le Nord. Puis, nous avons nos plates-formes OTT, nos plates-formes web, nos applications en balado-diffusion, des chaînes spécialisées notamment sur les Jeux Olympiques pour lesquels nous avons acquis des droits. Le prochain événement de taille, évidemment c’est Tokyo, en 2020.

Notre mandat global est d’informer l’ensemble des Canadiens ; notre fer de lance, c’est l’information essentiellement. Nous faisons aussi de la production en divertissement, en dramatique, mais nous sommes plutôt sur de l’acquisition que de la création. L’ensemble des régions ne traite essentiellement que de l’information, laquelle alimente les trois plates-formes radio-télé-web.

 

M. : Disposez-vous de centres régionaux ?

F.V. : Oui, chaque région a sa régie ou son centre de production, mais la diffusion finale est envoyée à Toronto (pour l’anglais) ou Montréal (pour le français). À Vancouver, par exemple, les services français et anglais figurent dans la même station ; de même à Winnipeg et Regina ; en revanche, à Calgary, c’est seulement de l’anglais. Cela se fait un peu selon les marchés.

 

M. : Vous avez un gros projet sur Montréal, pouvez-vous nous en dire un peu plus sur sa genèse ?

F.V. : Le projet de Montréal va nous offrir l’avantage de nous regrouper dans un espace plus petit, de nous moderniser complètement, tant au niveau de l’infrastructure technologique que sur les moyens pour fabriquer les contenus. Nous avons décidé d’avoir une approche beaucoup plus près de nos auditeurs ou téléspectateurs. Les studios vont être accessibles et visibles de l’extérieur ou de l’intérieur. Ce sera beaucoup plus accueillant. La station est complètement vitrée, d’où de nouveaux défis au niveau de la production, de la luminosité essentiellement, mais c’est un grand désir. Vouloir se rapprocher des téléspectateurs me semble une tendance mondiale.

Dans un premier temps, une des raisons qui nous a incités à déménager, à lancer ce projet, venait du fait qu’ici, c’est beaucoup trop grand pour les besoins actuels. L’ensemble de nos studios radio-télé est sous terre. Quand nous faisons des productions avec le public, les personnes arrivent de l’extérieur, elles ne voient pas nécessairement les studios, on doit les accompagner. Dans les environnements studio, ce n’est pas ce qu’on cherche. On veut vraiment de la proximité, si les gens ont envie d’entrer, ils entrent.

C’est une volonté importante, de se rendre beaucoup plus agiles, flexibles, visibles. Nous ne sommes pas propriétaires de cet édifice, notre compagnie n’est pas nécessairement efficace en gestion d’immobilisation d’immeubles, l’entretien de l’édifice de 1973 est important. Quand on combine l’ensemble des raisons et le coût de restauration, il devenait avantageux de déménager afin de répondre à des besoins futurs beaucoup plus concrets.

 

M. : Quel est votre calendrier ?

F.V. : La livraison de l’édifice devrait se faire en janvier prochain 2020, c’est une réduction en espace de deux tiers ; ici nous avons quelque 1,2 million pieds carrés (environ 365 000 m2), le nouvel édifice doit mesurer 418 000 pieds carrés (environ 127 000 m2), soit deux tiers plus petit. Ce sont environs 3 000 personnes qui vont déménager de cet environnement-là à l’autre. Nous allons commencer le déménagement progressivement à compter de janvier prochain. Il n’y a pas de réduction des effectifs.

L’installation d’une grosse partie de l’infrastructure a déjà commencé. Nous avons un data center, une salle d’équipement technique qui représente aussi un tiers de la superficie. En termes de racks, ici on compte 465 racks ; dans le nouvel édifice, on va en avoir autour de 155. Nous avons dû revoir les façons de penser, de travailler, au niveau du design, de l’infrastructure technique. Nous avons besoin d’énormément moins de racks pour couvrir les mêmes besoins.

Nous allons déménager show par show et non pas par département, pour être sûrs que chacun des besoins pour chaque show soit comblé et assurer une continuité avec un minimum d’impact. Dans la préparation du déménagement, nous veillons à ne pas trop perturber les façons de faire. Les modifications de travail, les regroupements d’emplois, ont été entrepris longtemps à l’avance. Pas nécessairement dans la perspective d’un déménagement, c’était fait dans le but de se moderniser, mais cela rencontre les besoins actuels, on a recréé ces nouveaux processus de travail dans le nouvel édifice.

 

M. : Les collaborateurs sont impliqués…

F.V. : Exact, mais nous n’avons pas voulu travailler sur trois fronts, changer d’édifice, la façon de travailler, la technologie, on a trouvé que c’était déjà trop en soi ! Des employés vont perdre leurs bureaux, il n’y aura plus de bureau dans le nouvel édifice, tous vont être en bureaux ouverts, c’est un changement de culture. Nous avons dû attaquer sur trois fronts, trois leviers : le premier, la construction même de l’édifice ; le deuxième, la technologie ; le troisième, le « change management », pour nous assurer que nous sommes capables d’emmener 3 000 personnes dans un environnement différent.

 

M. : Il y aura moins de niveaux…

F.V. : Il n’y aura plus de sous-sol, juste un petit garage. L’édifice est en trois blocs, un bloc de sept étages, qui est le côté nord de l’édifice, connecté par des passerelles et par un atrium ; un autre de quatre étages ; puis, connecté à ceux-ci, il y a ce que l’on appelle l’aire technique, le data center, qui est en arrière.

 

M. : Combien de plateaux, de studios comptera le nouvel édifice ?

F.V. : Nous avons beaucoup réduit leur nombre. Nous allons avoir trois plateaux de télé conventionnels, dont un grand studio ; le reste, ce sont des plateaux multifonctions qui vont servir à toutes les sauces : productions web, diffusion du midi, captation radio en public. Nous avons cherché à disposer d’aires multifonctionnelles, à pouvoir partager l’infrastructure. Le partage de l’infrastructure faisait partie des critères qu’on devait pondérer dans le design. Les Nouvelles, fer de lance de notre stratégie, restent sensiblement pareilles. Il y aura quatre plateaux Nouvelles, quatre régies Nouvelles avec multiplateau. Les Nouvelles sont notre premier gros secteur ; la radio, le deuxième gros secteur ; pour le web, des développeurs essentiellement, c’est surtout de l’espace bureau qui est requis.

 

M. : Vous faites de la radio filmée ?

F.V. : Nous avons commencé à faire de la radio visuelle il y a quelques années, cela prend de plus en plus d’intérêt, surtout pour alimenter le web. Il va y avoir des caméras dans l’ensemble des régies radio, mais le déploiement va continuer à se faire au fil des années en fonction des besoins, des opportunités qui se créeront autour.

 

M. : À quand remontent vos premières réflexions sur la nouvelle architecture technique ?

F.V. : Le déménagement a été annoncé officiellement en 2012. Il devait intervenir en 2018, mais a été reporté à 2020. Contractuellement, il a été assez laborieux de trouver un constructeur et de modéliser un Business Case financier qui tienne la route pour les besoins de l’entreprise. Cela a été un peu plus long que prévu. Je dirais, sérieusement parlant, qu’en 2017 nous nous sommes demandé si nous allions bâtir une infrastructure conventionnelle HD SDI, quitte à être les derniers au monde à le faire, ou nous lancer dans une technologie IP. Nous avons opté pour la technologie IP.

 

M. : Quelles difficultés avez-vous rencontrées ?

F.V. : À l’époque, il y a vingt-quatre mois, il y avait encore beaucoup d’inconnues. Alors, nous avons collaboré avec l’EBU en Europe, le NABA aux États-Unis, certains partenaires broadcasters à travers le monde. Nous avons suivi des Proof of Concept (POC) réalisés ailleurs. Je dirais que IBC 2018 a été un déclencheur, parce que nous avons vu que notre projet était faisable en IP. Nous avons vraiment statué et lancé nos appels d’offres en conséquence, sachant que nous avions des critères de base : nous voulions une infrastructure IP évidemment, et que ce soit standardisé.

La norme SMPTE-2110 a été officiellement lancée par le SMPTE en novembre 2018, mais c’était dans l’air déjà à IBC 2018, on savait que c’était proche. On voulait que ce soit de l’équipement standard IT et non pas des équipements propriétaires, nous cherchions des applications virtualisables, software base, essentiellement des fournisseurs broadcast. Il y a une grosse tendance des fournisseurs à vendre encore des solutions dédiées propriétaires, plutôt que nous fournir une solution purement software. Laquelle peut s’installer sur un ordinateur ou un serveur générique, utiliser du storage générique, fonctionner sur un réseau IT complètement générique, un switch de type Cisco, Arista ou Juniper.

Certains essais ont été réalisés ; plus que des essais, des projets ont été entrepris au Luxembourg par BCE, qui a fait certaines avancées ; en Australie par la NEP. La BBC évidemment a plus de difficultés, mais a accompli d’énormes avancées. Cela nous a rassurés sur la viabilité, la faisabilité d’une solution complètement IP.

Au niveau des consoles audio-radio, nous avons trouvé l’ensemble des produits dont nous avions besoin ! Le marché de l’audio, de la radio est encore très niché ! Malgré tout, nous avons trouvé l’ensemble des parties, des voies de contournement pour les points qui manquent parce que quand on est précurseurs, tout n’est pas là ! C’est la raison pour laquelle on reçoit l’EBU, pour influencer les autres broadcasters qui vont faire les mêmes choix. Eux vont avoir les mêmes besoins et puis nous cherchons à ce que ces voix-là s’ajoutent à la nôtre pour influencer l’industrie et le développement.

Tout le réseau IP que nous montons est du IP standard, tous ces équipements peuvent être utilisés pour n’importe quelle autre fonction si besoin est. Si la télévision linéaire se dégrade ou disparaît, l’infrastructure en place est tout à fait capable de prendre n’importe quel autre format ou autre besoin. C’est cela qui nous semble intéressant, le réseau est très flexible, très agile, multi-usage et il compte beaucoup moins de câbles ! C’est impressionnant, c’est juste la fibre optique qui a une capacité de transport décuplé, comparé au bon vieux coaxial où c’était du point à point avec un seul signal. Dans notre nouvel édifice, nous avons notre data center avec nos routeurs. On se rattache optiquement plus près de nos flux de production, à travers une salle de télécom où on installe seulement un petit switch traditionnel cuts et on est capable de joindre l’ensemble de nos régies.

 

M. : Et du coup, en termes de marques, quels ont été vos choix, côté constructeurs ?

F.V. : Notre choix remonte à près d’un an. À l’époque, on cherchait un outil d’administration qui fonctionnerait selon nos preuves de concepts. On en a trouvé un qui agissait selon nos besoins, nos capacités, la quantité de ports qu’on avait à gérer. C’est Lawo qui a été choisi comme broadcast controler (VSM), avec Arista comme switch et les gateways qu’on utilise pour convertir du HD-SDI en SMPTE-2110, c’est essentiellement du Embrionix.

La beauté de la solution Embrionix, ce sont les petits SFP. Les SFP entrent dans le châssis même des switchs, et si l’interface devient 2110 natif un jour, on change les SFP, on met un port optique. C’est très flexible, facile à gérer, mécaniquement ; virtuellement, c’est autre chose, c’est un des défis : comment gère-t-on l’augmentation astronomique d’adresses IP, c’est une expertise qu’il faut développer en interne. Il y a également des consoles audio Lawo.

Nous sommes l’intégrateur, nous n’avons pas d’intégrateur externe. L’avantage est que nous nous devons de comprendre profondément nos produits. Nous sommes ainsi capables de challenger l’ensemble de l’industrie technologiquement parlant, sur ce que ça fait, ou cela devrait faire ou ce qu’on veut que cela fasse. Je trouve cela intéressant, mais cela prend du temps. Être « early adopter » demande des compétences internes pour être capable de le supporter. C’est un peu le prix à payer par les précurseurs d’une technologie donnée.

 

M. : Combien de personnes en technique ?

F.V. : Le groupe d’ingénierie compte environ 160 personnes ; moi, je suis à la tête de ce groupe. Il y a un groupe d’opération, de soutien de maintenance, qui tourne autour de 500 personnes dans le pays, ce qui est quand même assez significatif. Eux, doivent maintenir l’édifice actuel et nous supporter dans le déploiement du futur parce qu’ils devront supporter ces équipements-là. Pour être en mesure d’investir dans l’équipement de l’autre côté, nous avons dû arrêter d’investir ici en 2012. Quand le déménagement est devenu une réalité, nous avons mis à jour l’ensemble des équipements et de l’infrastructure dans l’optique de ne presque plus rien toucher jusqu’au déménagement. Autrement dit, les derniers cinq ans, nous avons réalisé ici un minimum d’investissements.

 

M. : En ce qui concerne le reste du matériel de la partie News, vous reprenez tout ce qui est ici ?

F.V. : Nous ne reprenons presque rien, tout sera bâti. Premièrement, parce que je dois rester en opération ! Nous avons vraiment déprécié l’ensemble de nos équipements, c’est la stratégie qu’on a prise, pour bâtir du nouveau, à même nos coûts normaux, coûts de l’opération et coûts budgets capitaux normaux. Aucun argent supplémentaire gouvernemental n’est attribué pour l’édifice, tout s’est fait en intérieur, des budgets opérationnels et des capitaux de Radio Canada. Évidemment, il y a eu un focus qui s’est fait, nous avons mis toutes nos billes ici pour deux ans. On fait le minimum partout ailleurs au Canada, mais c’est une décision d’entreprise. C’est pourquoi nous devons quitter assez vite ce lieu pour être capables de passer à autre chose, parce que nous avons d’autres choses à faire dans le pays !

 

M. : Au niveau des salles de newsroom, du montage, des caméras, quelles sont les marques, les constructeurs, que vous avez sélectionnés ?

F.V. : En fait, on a beaucoup automatisé nos processus de productions des Nouvelles. On fait des productions avec des équipes en régie d’une à quatre personnes, tout est très automatisé. Plus que de simplement répliquer, nous avons développé, déployé ce système à travers tout le Canada anglais-français. Nous utilisons la même technologie partout, avec la même automation, nous faisons même de la régie à distance. Les régions, comme Edmonton, dont je parlais plus tôt, n’ont plus de mélangeur local ; le mélangeur est soit à Toronto, soit à Vancouver ou Ottawa. La raison est simple : nous avons réduit de six régies à travers le pays en centralisant et en optimisant nos fuseaux horaires. Ils sont entre trois et quatre selon les saisons, et on est capable d’utiliser nos mêmes équipements. Tout le monde fait le dix-huit heures, l’heure topo des Nouvelles en direct, mais dix-huit heures avec la Time Zone… Cela nous a permis de réduire beaucoup l’empreinte technologique, en particulier en région.

 

M. : Pour le moment, vous restez HD, Full HD…

F.V. : Oui, absolument, la 4K on en parle évidemment pour le nouvel édifice, mais même la production n’en a pas tellement besoin, compte tenu que nous sommes essentiellement Nouvelles. Et que l’acquisition n’est pas tellement là ! Si on veut acheter du contenu 4K, ce n’est pas encore tout à fait là, la distribution n’est totalement pas là. Au niveau de la distribution ou des solutions satellitaires, nos antennes hertziennes sont HD, et il n’est pas dans les plans de modifier cela pour être compatible pour une diffusion 4K.

Pour l’instant, il n’y a cette attraction nulle part au Canada, et pas juste à Radio Canada. Les privés, non plus, n’ont pas cet appétit. Les privés font face comme nous à la baisse des revenus publicitaires. Du coup, beaucoup de questionnements se posent au niveau du hertzien. Le Canada est un grand pays, les gens sont très peu hertziens, ils sont tous câblés ; 80 à 85 % des Canadiens sont câblés à la maison. C’est dur d’avoir les chiffres exacts, mais on estime le taux de pénétration des antennes hertziennes autour de 5 %, inférieur à 6 %. Aux États-Unis, c’est complètement différent. Au Canada, compte tenu de la grosseur du territoire et du peu de population, je dirais que la tendance semble plus de rester connecté avec des câblodistributeurs.

 

M. : Et pour les JO, vous avez de l’OTT, de la VOD ?

F.V. : Les deux, on a du live, 110 sources à ramener, on a une équipe très restreinte que l’on envoie depuis qu’ont eu lieu les JO d’Athènes. Nous avons commencé à réduire énormément nos déploiements à l’extérieur des jeux, tout ce qui est source se ramène au centre de Toronto ou Montréal et les productions se font là, même le live, même remote. Nous avons déjà nos OTT pour nos besoins internes anglais et français, mais spécifiquement pour les JO nous envisageons même de développer notre propre OTT.

Le digital, au service français ici, est complètement dans le cloud chez Microsoft Azure, on est en migration, on était sur nos serveurs et notre capacité de stockage, nous sommes en train d’externaliser tout ça. Financièrement, la modélisation a fonctionné. Cela devenait rentable, compte tenu que c’est un contenu beaucoup moins lourd pour le web que pour la télédiffusion, de penser pousser dans le cloud. Cela procure un niveau d’agilité supérieur aux développeurs qui ont besoin d’être plus rapides dans leurs remplacements et développements produits. Évidemment, ce n’est pas nous qui faisons le Front Head, c’est Akamai qui fait le cache de l’ensemble de nos portails, de nos pages web ; eux sont équipés pour recevoir nos demandes.

Voilà à quoi ressemble notre infrastructure, on a encore en radio 754 antennes radio à travers le pays et à la télévision il nous reste 27 antennes télé HD qui ont été remplacées en 2012, c’est quand même assez récent. C’est pourquoi l’intérêt n’est pas tout à fait là pour la 4K !

 

M. : Quels défis pour l’avenir ?

F.V. : Un des gros défis actuels est le re-stacking des fréquences, je suppose que vous en avez entendu parler aux États-Unis où la vente des bandes 600 MHz a eu un gros impact. CBC/Radio-Canada est obligé de remplacer certaines fréquences parce qu’on est près des frontières américaines. Nous remplaçons certaines de nos fréquences pour accommoder la vente de fréquences qui s’est faite autant par le gouvernement canadien qu’américain, pour lesquelles les broadcasters canadiens doivent assumer à leur frais et sans compensation. Et le 5G qui arrive est à l’affût de nos bandes C qu’on utilise énormément pour les arrivées de feeds. On suit cela de près, avec la bande C nous alimentons le Grand Nord et l’ensemble de nos antennes parce que, sur 754 antennes, environ 100 sont dans un gros marché et les 650 autres dans des petits marchés éloignés ; il n’y a pas nécessairement de fibre optique, de réseau pour atteindre les antennes. Mon seul moyen pour alimenter les antennes est satellitaire ; de là, je redistribue en hertzien, mais c’est la bande C qui est utilisée.

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.44/48. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 25 novembre 2019 à 17:00

Un trophée SATIS pour le projet d'intégration du BTS Audiovisuel Henri-Martin de Saint-Quentin

Un trophée SATIS pour le projet d'intégration du BTS Audiovisuel Henri-Martin de Saint-Quentin © Emmanuel Nguyen Ngoc

En passant de la SD à l’IP, le BTS Audiovisuel Henri Martin préfigure ce que devrait être à l’avenir un BTS Audiovisuel, à savoir une architecture hybride ouverte sur le futur... Cet ambitieux projet d'intégration, réalisé par BCE France, vient de se voir décerner un Trophée SATIS/Mediakwest 2019 par la rédaction. L'équipe pédagogique de ce BTS nous ouvre les portes de son établissement... 

 

Un investissement de 2 millions d’euros a permis une rénovation en profondeur des équipements de ceBTS Audiovisueavec une approche IP et une interconnexion entre les équipements pour que, depuis n’importe quelle salle, il soit possible d’avoir accès aux médias. Un BTS Audiovisuel est sans doute plus complexe dans son architecture et ses moyens techniques à équiper qu’une chaîne de télévision ou un prestataire technique.La technique doit rester au service de la pédagogie et faciliter l’apprentissage sur différentes typologies de matériel ; ce dernier doit être robuste, simple à appréhender par les élèves et dans un budget contraint...

 

Qu’est-ce qu’un BTS Audiovisuel ?

Le BTS Audiovisuel est un diplôme de haut niveau mis en place par le ministère de l’Éducation nationale et reconnu sur le plan national et international. Les sections accueillent des étudiants venant de toute la France, mais aussi de l’étranger. Dispensée par des professeurs et des professionnels, la formation associe théorie et pratique. Les étudiants sont confrontés directement avec le matériel lors de travaux techniques et d’exploitation et pendant les cours de mise en œuvre et de réalisation qui se déroulent sous forme d’ateliers.

Le BTS Audiovisuel du lycée Henri-Martin de Saint-Quentin (Aisne) a été ouvert il y a 30 ans, en 1989, et s’est développé, au fil des années, par étapes successives. Il y avait une première option puis une seconde, et au fil de l’eau, de manière empirique, sans grosses subventions, il a pris de l’ampleur « Nous avions commencé à 12 élèves et nous sommes arrivés à plus de 120. Les dernières installations avaient 15 ans. Il y avait une équation à résoudre entre l’enseignement, le matériel disponible et le nombre d’élèves. La Région Picardie, en 2004, a débloqué des fonds à hauteur d’un million d’euros, mais 15 ans après le matériel était devenu obsolète. La technologie a évolué rapidement et, pour la Région, renouveler la subvention représentait une enveloppe énorme. Entre temps, il y a eu une fusion des régions et après maints reports nous avons pu enfin bénéficier d’une subvention de la région des Hauts-de-France qui a permis cette évolution », souligne Jacques Tabary, proviseur du lycée Henri-Martin.

Le BTS Audiovisuel Henri-Martin de Saint-Quentin est exemplaire à plus d’un titre. Outre ses nouvelles infrastructures, il est aujourd’hui l’un des rares établissements du service public à proposer les cinq options et avoisine les 100 % de réussite à l’examen chaque année. Pour se donner une idée de la sélection, c’est 5 700 dossiers reçus pour 75 places (sélection via Parcoursup).

Le BTS AV occupe principalement le rez-de-chaussée d’une partie de la cour d’honneur du lycée (partagée avec les Lettres Sup). Le lycée, de style napoléonien, même s’il impose quelques concessions en termes d’ergonomie des salles (le bâtiment est classé), est magnifique. Le BTS occupe plus de 1 200 m2 et comprend de nombreuses installations techniques. La complexité des locaux est d’être dans des bâtiments historiques, il faut les adapter à la technique sans toucher à la structure ! Ce qui demande de l’ingéniosité, mais aussi permet aux étudiants de réaliser de nombreux exercices pratiques (montage/démontage).

 

Retour en arrière

Le BTS AV du lycée Henri-Martin est l’un des plus importants de France. Il accueille quinze élèves par classe, comporte cinq options. Il y a quatre ans, le BTS a repris une partie d’un BTS créé à Amiens en apprentissage avec option Montage. Depuis, il intègre également une filière apprentissage en option image et l’année dernière a été ouverte une licence pro Postproduction Son.

L’idée de la Région, sous l’impulsion de son président Xavier Bertrand, fut de doter le BTS de ce nouveau matériel en l’amortissant sur le BTS, l’apprentissage et la licence pro. Une fois la subvention votée, les choses commencent, il faut rédiger un cahier des charges en phase avec les problématiques actuelles et futures.

« Il est très complexe pour nous de connaître le cahier des charges des besoins, et les professeurs n’ont pas la connaissance de toutes les innovations. Nous avons demandé à BOB (Boîte à Outils Broadcast), une entreprise spécialisée et professionnelle, de nous aider à rédiger ce cahier des charges », indique José Delclitte, intendant du lycée.

La société BOB les a accompagnés durant les 19 mois du projet. De manière préliminaire, avec un audit comprenant une visite des locaux, une rencontre avec les enseignants, un audit des besoins techniques en fonction des besoins pédagogiques et la définition d’une enveloppe budgétaire. Puis la rédaction proprement dite du CCTP consistant à assurer la coordination du groupe de travail dédié à l’écriture du marché, la phase de sourcing dans sa dimension financière et technique, la rédaction du CCTP et de l’allotissement du marché et le cadrage financier du marché. Enfin, l’appel d’offres incluant la visite des locaux avec les soumissionnaires, réponses aux questions et assistance à l’analyse des offres. La société BOB a également suivi l’exécution des travaux, le déploiement des matériels…

L’appel d’offres a été remporté par BCE France. Outre la dimension financière, importante dans ce genre de projet, c’est sans aucun doute la dimension humaine et d’écoute qui a prévalu.

« Tout s’est fait en liaison étroite avec les professeurs, avec grande implication de l’équipe pédagogique. Les professeurs savaient ce qu’ils voulaient, mais avaient parfois une grande difficulté pour exprimer leurs besoins. Il faut prévoir une maîtrise d’ouvrage dans les budgets car nous n’avons pas la compétence en interne. Trop techniques, les acheteurs publics à la région n’ont pas cette compétence. Si nous n’avions pas eu le partenariat étroit avec BCE et la société BOB nous n’aurions pas pu arriver à un tel projet », insiste le proviseur.

Philippe Mauduit et Mikael Graignic, de BCE France, ont fait des déplacements au minimum toutes les deux semaines, que ce soit avant d’avoir remporté l’appel d’offres, mais aussi après. « Il faut être dans l’écoute, car il faut être capable de comprendre les besoins. Cyril Mazouër a fait un travail remarquable pour définir les besoins, mais il était important pour nous d’écouter les professeurs s’exprimer avec leurs propres mots. Nous nous réunissions souvent dans la salle des professeurs ou dans une salle de réunion à l’étage de l’administration pour parler avec les enseignants. Je pense que ce relationnel et la souplesse que nous avons introduite dans ce projet a permis que tout se passe bien, sans heurts ni problèmes », souligne Philippe Mauduit, président de BCE France. Les équipes de BCE France étaient présentes régulièrement pour assurer le câblage, les installations des matériels, en synergie avec les enseignants et Cyril Mazouër.

Le projet de mise à jour des installations du BTS Audiovisuel, pour la partie déploiement, s’est déroulé de décembre 2018 à mai 2019. Un exercice difficile comme l’évoque José Delclitte : « Le renouvellement des équipements s’est fait pendant une période de fonctionnement du BTS. Le matériel a commencé à être installé fin 2018, cela coïncidait avec les premiers examens. Il fallait jongler entre l’ancien matériel et le nouveau, sans être en rupture avec le référentiel du programme des cours. Dans ce genre de dossier, on ne peut pas dire « Je vais gérer une partie du matériel avec un premier lot et faire la suite plus tard », il faut tout faire d’un coup, il faut traiter l’ensemble de la chaîne. »

« Il n’y a pas forcément de cohérence totale dans les matériels déployés, mais il faut apprendre sur les nouvelles technologies et les plus anciennes. Cette disparité de matériel est nécessaire pour se faire la main sur tout type d’outil », poursuit Philippe Mauduit.

La mission d’AMO (Assistance à Maîtrise d’Ouvrage) pour le compte d’un BTS Audiovisuel public est très différente d’une mission d’assistance classique. Lorsque l’on enseigne au sein d’un BTS, l’année scolaire est très chargée et les occasions de travailler aux côtés de professionnels sont rares. On peut ainsi très rapidement se retrouver déconnecté du monde professionnel sans s’en rendre compte. Il est indispensable d’aider les enseignants à prendre conscience de la réalité du terrain.

Le BTS Audiovisuel était encore en SD ; c’est donc un saut de géant qu’il vient de franchir en passant en HD, HDR et infrastructure IP. Certains enseignants voulaient passer en 4K, mais il était plus pédagogique de s’intéresser au HDR qui permet de se confronter à de nombreuses problématiques.

Idem pour le choix de l’IP, comme l’indique Cyril Mazouër : « Cette partie du projet a eu lieu en 2017. À cette époque, la norme 2110 n’était pas encore sèche, mais il nous paraissait important de nous y intéresser. Il n’a pas été facile de trouver les produits pouvant entrer dans l’enveloppe budgétaire et s’insérer au cœur d’une installation majoritairement SDI. Plusieurs aspects nous ont conduits à ces choix. Déjà, il était trop tôt pour faire une installation 100 % IP, et de toute façon, il n’y avait pas le budget pour ça. Mais surtout, autant il est indispensable de former les étudiants sur l’IP, autant il n’est pas possible de faire l’impasse sur le SDI, qui ne va pas disparaître du jour au lendemain de nos régies. Il fallait également trouver des pistes de mutualisation d’équipements, sans que cela n’impacte l’aspect pédagogique. »

 

L’architecture

Le BTS est à l’image d’une petite chaîne de télévision qui aurait une partie de production et de postproduction plutôt développée. La philosophie de l’ensemble repose sur une architecture hybride SDI et SMPTE 2110 avec un serveur EVS six canaux dans le nodal, les canaux se partageant entre les deux régies des deux plateaux. Le plateau principal, baptisé plateau vert, est le plus grand et comprend une régie fixe avec une grille SDI 64 x 64 et un réseau IP SMPTE-2110. Le serveur EVS est natif 2110, le mélangeur et le mutiviewer sont hybrides. Les autres équipements sont uniquement SDI (caméras, infographie…). Des convertisseurs IP/SDI permettent d’échanger les flux entre les deux mondes. Le convertisseur V_matrix de Lawo assure ces fonctions. Le châssis installé contient deux modules : un IPG 10/10 SDI et 20/20 IP, ainsi qu’un multiview 18/2 SDI et 24/8 IP.

Un contrôleur gère cette installation. Le VSM de Lawo permet de créer différents scénarios pour coller aux différents apprentissages des étudiants. Ainsi un étudiant débutant qui apprend à commuter la sortie d’une caméra dans un multiviewer ne sait pas réellement ce qui se passe. Lorsqu’il comprend mieux la technique, et grâce à un panel virtuel, il peut découvrir les interactions entre les équipements.

« Sur une installation d’école, il est indispensable de rendre les choses pédagogiques. Pour des raisons de coût, il est de plus en plus rare d’avoir des patchs vidéo au sein des régies. Dans une école, notre expérience nous a montré que c’était indispensable. Cela permet aux élèves de visualiser par où passe un signal. Évidemment la partie IP n’est pas matérialisable de la même façon ; c’est pourquoi nous avons fait un travail d’équilibriste pour trouver les meilleurs compromis entre la pédagogie et la nécessité d’avoir de l’IP. »

La seconde régie, qui se trouve dans le plateau bleu, est mobile ; elle est utilisée pour des travaux pratiques de câblage. Pour que les étudiants comprennent facilement les liens entre les différents matériels, il a été décidé que cette régie serait en SDI. Elle comprend une grille 16 x 16, un mélangeur 2 M/E Ross Carbonite, quatre caméras et une tourelle, un poste vision. Rien n’est précâblé en vidéo. Les enseignants peuvent donc faire le choix de câbler tout ou partie de la régie en fonction des exercices prévus.

Cette régie est importante pour l’option Exploitation car il faut câbler, décâbler, recâbler. Le câblage d’une régie est une épreuve de BTS, et donc plus simple sur une régie mobile. Une fois les élèves maîtrisant la technologie, ils pourront échanger des données avec l’autre régie via une carte de conversion SDI/IP ou bien de récupérer des canaux du serveur EVS. Les deux régies permettent de travailler en mode duplex.

À chaque régie vidéo, est associée une régie son. Il y a la console principale (des consoles Studer et intercom RTS) et la console recyclée des anciens équipements avec ainsi la possibilité de faire travailler deux élèves en même temps. Cela permet aux élèves de première année de se former sur du matériel. Un Avid Pro Tools est associé aux consoles, ce qui permet de faire de la postproduction. Le plateau son comporte une troisième régie audio. Ce plateau permet de faire de la prise de son et un peu de live, de radio.

« Dans le BTS en option métiers du son, il est important d’avoir des cours sur de l’analogique et du numérique. Il faut se confronter aux différents cas de figure. Les élèves doivent aussi pratiquer de nombreux exercices de câbles. Il y a une table atelier sur laquelle il est possible d’amener une console quelle qu’elle soit et de la câbler », souligne Bastien Lenoir, enseignant son.

 

Réseau et pédagogie

Toutes les salles de classes et les régies, le nodal, les auditoriums sont reliés par un réseau KVM pour récupérer la commande des stations de travail en salle de cours. Les élèves ont accès à leur propre machine. Le stockage des machines est local, mais un serveur d’échange commun à toutes les machines est disponible. Il est possible en salle de cours de connecter, via le KVM, une machine sur un vidéoprojecteur et d’avoir, sur grand écran par exemple, un montage en cours, ce qui sur un plan pédagogique est assez unique. Autre point important, toutes les machines sont reliées en réseau Dante. Le réseau Dante est important, trente machines sont dessus.

Il y a une salle d’étalonnage HDR qui sert également de lieu de visionnage pour les documents de fin d’étude. La salle est en Blackmagic Da Vinci avec une surface de contrôle pour faire de l’étalonnage et toujours en lien avec le nodal via les KVM.

Le BTS AV comprend de nombreuses salles de montage. Des salles pour le BTS proprement dit et des salles pour la formation en alternance. Les salles de montage sont en liaison fibre et 10 Gbits vers le nodal. Il y a huit salles de montage pour le BTS et une salle avec quinze stations de montage pour l’alternance. Toutes les stations sont des Avid Media Composer. Il y a huit stations de postproduction audio stéréo, une en 5.1, et deux cabines speak. Comme énoncé précédemment, les machines sont sur le réseau Dante.

Le nodal comprend le serveur XS4K EVS, l’Avid Nexis, les grilles, les convertisseurs. En première année, les élèves doivent découvrir ce qu’est un réseau, un signal vidéo… « Ils commenceront à travailler sur l’IP en seconde année. Le dernier référentiel a huit ans et pour le moment il n’y a pas de cours prévu sur l’IP officiellement, mais il est fondamental de prendre en compte le réseau », indique Alain Gawlik, enseignant exploitation.

Outre les salles et les régies, sont disponibles des équipements de reportage image et son. Le magasin comprend des unités que les élèves doivent préparer pour aller sur le terrain. Il y a une salle de préparation des reportages, préparer le matériel et vérifier. On y trouve également un car régie qui sera ré-équipé en SD avec l’ancien matériel provenant de la régie du Plateau Vert.

 

Au final, la formation

La fin de l’installation a eu lieu en mai. Ce fut une opération à tiroirs, avec déplacement de certaines parties de matériels dans des locaux pour permettre aux élèves de continuer à travailler. BCE France a dû se plier à cette organisation. Il ne s’agissait pas juste de matériel, mais aussi de travaux dans les salles, que ce soit des créations de cloisons, de tirer des câbles, de la fibre. Les étudiants ont d’ailleurs aussi participé aux travaux de câblage.

« Nous faisions des points réguliers, avec les différentes options. Il fallait prendre en compte les besoins, les contraintes des uns et des autres pour avancer dans la bonne direction. Il n’y avait pas de chef de travaux, d’où un travail direct avec les enseignants », insiste Philippe Mauduit.

« Nous disposons de quinze enseignants en BTS AV sur la partie technique (vacataire, titulaire, contractuel…). Il n’y a pas de diplôme pour le BTS AV ; il faut compter sur des enseignants qui ont pu suivre ce type de formation, mais aussi sur des professionnels – par exemple nous avons un chef monteur qui vient de Canal+. Dans le cadre de ce projet, nous n’avions pas dimensionné la formation sur le matériel et sur les nouvelles technologies qui y sont liées comme l’IP. Bien évidemment, BCE a formé aux outils, au-delà même de ses prérogatives, mais ce n’est pas suffisant. Il a fallu renégocier avec le rectorat et tous les organismes (formation initiale, alternance, licence) un budget supplémentaire de 30 K€ pour former les professeurs afin qu’ils puissent acquérir les compétences nécessaires à l’utilisation du matériel », poursuit Jacques Tabary.

La réforme du Bac en 2021 va dans doute impacter les BTS et une réforme devrait suivre. La preuve en est, les BTS vont passer de deux à trois ans. Comme dans l’université, il y aura une mise à niveau en première année. Tout le monde n’a pas le même niveau, il y aura un nouveau référentiel pour des mises à niveau et le numérique y prendra une part prépondérante, dont l’IP.

« Un projet doit bien se passer. Quel que soit le projet et cela s’est bien passé dès les premiers contacts. Les équipes de BCE France n’ont pas dit : « J’ai le savoir et c’est comme ça ! ». Ils ont su s’adapter en fonction de nos besoins. Nous sommes dans le cadre d’un marché public. Cela est très contraignant avec un cadre strict. Tout n’avait pas forcément été vu dans le détail et peut-être certains points ont-ils été oubliés, mais, chez BCE, ils ne se sont pas fermés par rapport à cela et ont été souples, au-delà même de ce qui était demandé dans le cadre du simple appel d’offres », conclut José Delclitte.

 

Les cinq options du BTS Audiovisuel Henri-Martin

• Gestion de production

• Technique d’ingénierie et exploitation des équipements

• Métiers de l’image

• Montage et postproduction

• Métiers du son

Article paru pour la première fois dans Mediakwest #33, p.78/82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 20 novembre 2019 à 17:00

Stockage : davantage de fluidité dans le pipeline vidéo d'Hiventy

Stockage : davantage de fluidité dans le pipeline vidéo d'Hiventy © DR

Créé en 1984, Hiventy regroupe aujourd’hui Monal (ex-CMC et LVT), RGB, Digimage, Mediadub, Sylicone et Captain Video. En France et à l’international avec des implantations à Varsovie, Ho Chi Minh-Ville et Singapour, Hiventy offre une gamme complète de solutions dans tous les domaines de l’audiovisuel et du cinéma : postproduction, restauration, localisation, deliveries et stockage. En 2018, le groupe, qui compte près de 270 collaborateurs, a réalisé un CA de 37 millions d’euros.

 

Dans le cadre de ses activités, qui nécessitent un volume colossal de données, Hiventy s’appuie historiquement sur deux infrastructures distinctes : d’une part une infrastructure dite de « stockage chaud » pour le traitement des projets en cours, et d’autre part une infrastructure de « stockage froid » pour l’archivage des projets déjà réalisés.

En phase d’accélération et pour faire face aux besoins liés aux nouvelles technologies audiovisuelles, et notamment le développement de la 4K, Hiventy lance en 2018 un projet de refonte totale de son infrastructure à chaud, nécessitant des temps d’accès réduits.

Pour le renouvellement de cette infrastructure dédiée aux projets en cours, dans laquelle les données ne restent que le temps d’être rapidement traitées ou transférées, Hiventy doit faire face à deux contraintes majeures : disposer d’une capacité disponible suffisante, soit environ 800 To, et avoir une bande passante capable de répondre aux enjeux de fluidité tout au long des processus de création et de livraison des projets.

 

Fluidité et volumes adaptés à l’audiovisuel avec Isilon nouvelle génération

Préalablement doté d’une infrastructure Isilon d’ancienne génération, et après une démonstration par Dell EMC des dernières versions de la technologie, Hiventy fait le choix de conserver une infrastructure Isilon : « la technologie Isilon répondait en tout point à notre besoin de disposer d'un environnement de stockage de données non-structurées offrant en même temps un stockage partagé et des performances maximales pour le traitement des supports numériques travaillés, sans créer de contraintes dans la chaîne de valeur », explique Gilles Lebon, DSI d’Hiventy.

Car au-delà des volumes et de la performance souhaités, l’évolutivité de la solution mise en œuvre est aussi une caractéristique primordiale dans un contexte d’augmentation de la taille des fichiers vidéo, liée notamment à l’accroissement des définitions d’image.

 

Un accompagnement complet par MTI

Pour l’accompagner dans la construction de sa nouvelle infrastructure, Hiventy se tourne vers l’équipe MTI France. Au terme de l’analyse préalable, MTI confirme le besoin d’une solution à la fois performante et « scale out », capable d’accompagner Hiventy dans ses évolutions métiers et la croissance de ses activités.

Concrètement, MTI définit une infrastructure basée sur un cluster de 8 nœuds de la gamme Isilon H500, offrant une capacité d’environ 800 To, sur un mix de disques rotatifs et Flash. La mise en œuvre devant quant à elle être très rapide, en prévision du lancement de la plateforme Amazon Prime en France, dont Hiventy est partenaire.

Outre la gestion de projet en amont (phase 0), le déploiement de la solution par les équipes MTI s’est réalisé en 3 étapes : mise en œuvre du cluster H500, migration des nœuds de l’ancien vers le nouveau cluster et enfin validation du bon fonctionnement, transfert de compétences et recettes. « L’équipe MTI, composée de 3 personnes, a parfaitement répondu à nos attentes » poursuit le DSI : « en 2 mois, notre nouvelle infrastructure était opérationnelle pour l’ensemble de nos collaborateurs, et hébergeait l’ensemble des fichiers de nos projets en cours, soit environ 400 To ».

 

Une adoption réussie de la nouvelle solution et de nouvelles perspectives envisagées

Et le premier constat est sans appel : d’une baie et demi pour l’ancienne infrastructure, la nouvelle n’occupe plus que 2 châssis 4U, soit un gain de place et d’énergie considérable. Les utilisateurs, quant à eux, ont gagné en fluidité, jusqu’à pouvoir travailler avec plusieurs flux 2K en direct ainsi que certaines configurations 4K et ce, sans besoin d’en télécharger une copie en local. « Certains de nos utilisateurs, qui disposaient pourtant d’un produit dédié au travail "à chaud", ont même fait le choix de migrer sur Isilon » s’enthousiasme Gilles Lebon.

Pour compléter son infrastructure, de nouveaux projets sont déjà à l’étude chez Hiventy. Parmi lesquels la création d’accès distants aux postes utilisateurs mais également la mise en œuvre de solutions de sécurité supplémentaires. « Des projets pour lesquels les équipes MTI seront bien sûr sollicitées : la compréhension de nos métiers, de nos enjeux et de nos contraintes dont ils ont fait preuve nous ont particulièrement séduits », conclut Gilles Lebon.

  • 19 novembre 2019 à 17:00

Les fans contrôlent le son avec SupraLive ...

Conçue à l’origine pour les concerts, la solution SupraLive (Augmented Acoustics) s’applique désormais à tout événement live. © Augmented Acoustics

Quel spectateur n’a pas rêvé d’une intimité sonore avec l’événement, qu’il soit musical ou, en l’occurrence, sportif ? Cette expérience immersive est désormais possible grâce à la solution développée sous le nom de SupraLive par Augmented Acoustics, une start-up française qui soufflera en novembre prochain ses cinq bougies.

 

Si, pour l’heure, « SupraLive est un service VIP, réservé notamment aux habitués des loges dans les stades connectés, notre objectif est de l’étendre au plus grand nombre d’utilisateurs, dont les déficients sensoriels », prévient d’emblée Stéphane Dufossé, CEO.

Conçue à l’origine pour les concerts (le service a déjà été exploité sur plus de 125 d’entre eux) afin de permettre aux spectateurs équipés d’un casque et d’une application smartphone d’être au plus près des artistes sur scène grâce à l’interaction multipiste immersive, la solution s’applique désormais à tout événement live.

Ainsi, de la même manière qu’un mélomane peut s’imprégner du jeu de basse en l’écoutant en solo, le spectateur d’un match de foot pourra, en fonction de la disponibilité des sources, éliminer les cris du public adverse, choisir son commentaire, s’il est étranger, ou supporter de l’un des deux camps, voire celui exclusif d’une personnalité pour une expérience premium unique, ou encore entendre les sons du terrain, tels les consignes du banc de touche ou l’intercom des arbitres, pour une meilleure compréhension de l’événement. En résumé, faire son propre mix en temps réel, tout en respectant le travail de l’ingénieur du son.

« Ce que nous proposons, c’est une écoute alternative haute définition en multipiste, sans compression et sans latence. Pour cela, nous utilisons un émetteur C-MA4 qui se connecte à la console de l’ingénieur du son. Ce son “sortie de console” est délivré aux spectateurs via un boîtier contenant l’intelligence du système qui permet de garantir la qualité de service et de corriger la latence en live », détaille Stéphane Dufossé.

Dans le cas d’une retransmission à distance, l’enjeu de latence est différent, mais il en existe un autre : la synchronisation du son multipiste de SupraLive avec le flux vidéo, alors que les deux sources empruntent des canaux distincts. Pour résoudre ce point, « nous utilisons le même principe qu’en live sur le lieu de l’événement. Cela a d’ailleurs fait l’objet d’un dépôt de brevet », se contente de préciser le responsable.

Avec le déploiement prochain de la 5G, la solution va pouvoir s’affranchir du boîtier et Augmented Acoustics proposer le service directement via un téléphone mobile, ce qui va permettre d’étendre son accès au monde entier.

« Aujourd’hui, nous utilisons un boîtier pour qu’il n’y ait pas de décalage entre le son reçu dans le casque de l’utilisateur et le son externe. En live, on ne peut pas se permettre d’attendre que les paquets arrivent. »

Maintenant, poursuit Stéphane Dufossé, « ce qui, pour l’heure, n’est pas possible en wi-fi et 4G sans le boîtier le sera en 5G, grâce au découpage du réseau mobile en tranches (network slicing), qui permettra l’allocation de ressources dédiées pour chaque service, et à la faible latence. »

 

Extrait de l’article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.62/67. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 19 novembre 2019 à 17:00

IA & microservices : Quortex crée des workflows de streaming optimisés pour le cloud

© Quortex

Quortex est une jeune société fondée en 2018 à Rennes. Elle a pour ambition de révolutionner la diffusion vidéo sur Internet en offrant des solutions basées sur les technologies IT les plus récentes et en optimisant les potentialités offertes par le cloud. Elle propose des workflows innovants basés sur les microservices en association avec des outils d’IA (Intelligence Artificielle). Rencontre avec son directeur technique, Jérôme Viéron.

 

Mediakwest : Pouvez-vous nous détailler les raisons de la création de Quortex ?

Jérôme Viéron : Avec les trois autres fondateurs, Marc Baillavoine, Thierry Trolez et Julien Villeret, nous sommes partis d’un constat très simple. Tous les grands acteurs de l’IT migrent leurs systèmes informatiques dans le cloud. Il y a un secteur où cette tendance reste timide, c’est celui du broadcast.

Nous pensons que cela est dû au fait que les diffuseurs ont voulu transférer directement les workflows et leurs applicatifs qui tournaient sur leurs équipements On Premise (sur site) à l’identique sur des machines virtuelles dans le cloud. Hélas les économies annoncées n’étaient pas au rendez-vous. Un soft monolithique qui tourne dans le cloud coûte plus cher que son usage en interne. D’autre part un encodeur software n’a pas un fonctionnement linéaire. Il consommera 10 % de la ressource machine pour un profil ; si on passe à deux traitements, ce sera 30 % et parfois avec trois profils on risque d’atteindre 90 %. Par sécurité on dimensionne largement la capacité CPU, ce qui augmente d’autant la facture totale sans réellement l’exploiter.

La diffusion OTT exige aussi de démultiplier les versions d’un même contenu pour tenir compte des profils adaptés à chaque catégorie de terminaux, avec des codecs potentiellement différents, des débits variables selon les modes d’accès et aussi un packaging distinct, HLS pour Apple ou bien Dash pour le web ou Windows. Il n’est pas rare de préparer le contenu dans trente versions distinctes, et donc toujours plus de stockage à la fois dans le système de diffusion et dans les CDN (Content Delivery Network). Beaucoup de ces versions ne seront même pas consultées.

Sur certains catalogues de VOD en France, moins de 10 % des contenus dupliqués sont réellement regardés. Avec nos solutions, nous souhaitons ne mettre en ligne que ce qui est vraiment regardé, en profitant au maximum des potentialités techniques apportées par les services de cloud, avec des développements basés sur les microservices fonctionnant en mode sans état ou « stateless » et en exploitant des machines préemptives.

 

M. : Comment avez-vous adapté ces outils au monde de la vidéo ?

J.V. : Tous nos workflows sont découpés en tâches élémentaires : adaptation de la résolution, compression, sous-titrage, packaging… Pour chacune d’elles, nous créons des microservices que nous développons nous-mêmes ou en reprenant des outils disponibles sur le marché. Le principe de tous nos workflows est le suivant : le fichier vidéo est découpé en « chunks » (tronçons) ou segments de 2, 4 ou 6 secondes. Chacun est traité à chaque étape du WF par un microservice indépendant lancé en mode « stateless ».

Comme c’est un service web, cela permet de le lancer sur n’importe quelle machine, juste à côté ou à l’autre bout du monde, et sur n’importe quel OS ou dans un environnement distinct. Comme il fonctionne en mode « stateless », une requête avec les paramètres nécessaires est envoyée au microservice qui va lancer les ressources nécessaires pour exécuter la tâche qui lui a été affectée. Quand il l’a terminée, il renvoie un message de bonne fin pour enchaîner l’étape suivante du workflow avec un autre microservice. Chaque microservice réalise juste la tâche dont il est chargé et disparaît après.

Avec le mode « stateless », similaire à celui des requêtes http lancées par un navigateur web, le microservice ne renvoie qu’une réponse de bonne exécution sans aucune information sur le déroulement de la tâche ou son environnement de travail. Si le volume des tâches à exécuter augmente soudainement, on peut lancer autant de microservices que nécessaire sans craindre un engorgement, comme dans le cas des applications traditionnelles qui fonctionnent en mode « stateful ». Cela nous offre une scalabilité (ou évolutivité) beaucoup plus facile à gérer. Si on a besoin du même microservice, on le relance à nouveau avec un reset complet et on repart sur des bases saines.

 

M. : Vous y associez aussi l’intelligence artificielle (IA) et le deep learning.

J.V. : Notre objectif, c’est d’utiliser de manière optimale les ressources offertes par le cloud. L’IA et le deep learning nous servent à apprendre le comportement de nos microservices et en particulier des encodeurs par rapport au contenu. Ainsi, lors des futurs traitements, nous pourrons optimiser le paramétrage de nos outils et améliorer le « load balancing » entre toutes les fonctions : encodage, sous-titrage, packaging, etc. Nous ne le faisons pas en live, mais nous améliorons nos modèles au fur et à mesure lors des mises à jour.

Comme je l’ai expliqué au début, actuellement les plates-formes de diffusion multiplient les versions d’un même programme qu’elles poussent ensuite vers les CDN. Nous préconisons de faire l’inverse et de travailler en mode « pull ». C’est au moment où un spectateur demande une version particulière que nous préparons à la volée la copie du contenu selon les spécifications de son terminal. Le workflow ne se met en route que quand quelqu’un en fait la demande. Si une version d’un programme n’est pas demandée, aucune ressource n’est consommée, ni facturée. Ainsi nous ne préparons que les copies qui sont réellement demandées en mode « just in time ».

 

M. : Mais cela ne provoque-t-il pas un temps d’attente plus long ?

J.V. : Tout le monde nous pose la question. De manière générale aujourd’hui, sur n’importe quel système, la latence reste dans les mêmes ordres de grandeur. Nous sommes même capables de faire de l’ultra low latency et de diffuser en CMAF (Common Media Application Format). Il n’y a pas d’impact sur la latence et nos solutions offrent des performances du même ordre que les systèmes traditionnels.

 

M. : Pourquoi votre stratégie, basée entièrement sur le cloud, serait-elle plus économique ?

J.V. : Le ticket d’entrée pour aller sur le cloud n’est pas négligeable et c’est pourquoi les diffuseurs n’y vont pas aussi vite qu’annoncé. Nous pensons aussi que c’est parce que les utilisateurs portent leurs applicatifs monolithiques tels que sur des machines virtuelles. Le coût reste élevé parce qu’il y a du gâchis de ressources machines. Nos workflows reviennent moins chers car nous optimisons les ressources au sens CPU et que nous utilisons aussi des machines préemptives.

Tous les fournisseurs de cloud cherchent à optimiser leurs outils en termes de ressources et d’énergie. Pour cela ils proposent des machines quatre à dix fois moins coûteuses, mais qui en contrepartie peuvent « tomber » ou être stoppées à tout moment. Selon les fournisseurs, ce mode de fonctionnement a des dénominations différentes (Preemptible VM chez Google, Azure Low Priority pour Microsoft ou encore Spot Instances chez AWS) et avec des règles de suspension et de remise en route assez variables. C’est moins robuste qu’une VM classique, mais pour des applications bureautiques ou de gestion, cela est moins critique.

Dans le domaine du streaming, c’est plus problématique, mais avec nos solutions basées sur des microservices en mode « stateless », en cas d’interruption, les tâches accomplies sur une machine qui « tombe » sont très vite redistribuées sur une autre ou sur un cluster distinct. Quand une machine « tombe », on ne s’en rend pas compte.

Notre solution par construction est non seulement plus robuste, mais elle coûte beaucoup moins cher quand on choisit de la faire tourner sur du préemptif. En plus elle est parfaitement « scalable » (évolutive et élastique) car nous pouvons déporter un traitement sur un autre cluster, ou répartir le travail entre un système On Premise (sur site) et appeler les services cloud en complément. Il est également possible de jouer sur la répartition multizones et multirégions d’Amazon par exemple et de profiter des charges de travail variables en jouant sur les décalages horaires.

 

M. : Tous ces gains de performances et ces optimisations portent uniquement sur la partie diffusion. Sur les CDN vous ne pouvez pas intervenir ?

J.V. : Aujourd’hui, ce qui coûte cher c’est la partie CDN car la facture totale dépend du débit de sortie, du nombre de consultations et aussi du nombre de versions stockées en cache. Contrairement à l’hertzien, plus un programme a du succès sur Internet, plus sa diffusion coûte cher. D’autre part si le service de streaming prépare ses contenus dans le cloud, il paie pour la sortie des contenus de la plate-forme pour les envoyer au CDN. Donc il paie deux fois, et ça, c’est aussi un frein pour aller dans le cloud. Il préfère donc rester sur ses propres installations. Mais la situation est en train de changer. Les fournisseurs de cloud montent leurs propres services de CDN, comme Microsoft Azure, Google ou AWS avec Cloud Front.

Nous pensons chez Quortex que les deux fonctions, plate-forme de streaming et CDN, vont se fondre en une seule, ce qui réduira le coût du double transfert. Notre solution est déjà conçue pour fonctionner comme cela et permet d’anticiper cette évolution et de s’approcher de l’utilisateur avec le mode « edge ». Cela facilite aussi les traitements en étant beaucoup plus proche de l’utilisateur final, de ses demandes et de tenir compte des particularités locales. Avec un lien direct entre la diffusion et le CDN, il devient possible d’affecter plus de ressources pour l’encodage et la préparation des contenus et, du coup, de réduire les débits avec un facteur d’économie plus fort sur le segment du CDN. 

 

 

POSTFACE

Récemment, les travaux de Quortex ont été récompensés lors du 21e concours d’innovation I-Lab. Au printemps, le groupe M6 a choisi les workflows de Quortex pour sa plate-forme de streaming et en particulier 6Play. Les équipes de Quortex seront présentes à l’IBC 2019.

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.58/60. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 18 novembre 2019 à 17:00

Formation Broadcast Academy : le live sport en simulation

Formation Broadcast Academy : le live sport en simulation © DR

La Broadcast Academy proposera du 24 au 28 février 2020 une formation payante et un training sur la réalisation de direct de sports dans ses locaux à Boulogne Billancourt.

 

Cette séquence de 5 jours comportera une première partie présentée par le réalisateur Laurent Lachant sur les principes éditoriaux et le storytelling, le travail nécessaire de chaque caméra, la bonne construction des séquences ralentis, etc. Ceci sera suivi, toujours avec le réalisateur, d’une partie comportant des sessions de ‘hands-on’ sur l’outil de mise en situation qu’est le Live Simulateur développé en partenariat entre la Broadcast Academy et EVS. Cet outil mettant les participants dans un environnement et des conditions très proches de la réalité.

 

Cette formation s’adresse à des réalisateurs multi caméras ou producteurs d’évènements sportifs en direct qui seront sélectionnés par la Broadcast Academy pour participer à la formation.

 

Des bourses sont proposées aux femmes issues de l’industrie audiovisuelle souhaitant faire évoluer leur carrière dans la réalisation sportive. Vous trouverez plus d’informations à cette adresse Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser. et ici pour tout ce qui concerne l’AFDAS, Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser..

  

 

Inscriptions ici

 

Retrouvez également notre article précédent : La Broadcast Academy, qu’est-ce que c’est ?

 

 

 

 

 

  • 14 novembre 2019 à 17:00

Blackmagic renforce l’offre sportive du groupe suisse Teleclub

Blackmagic renforce l’offre sportive du groupe Teleclub © DR

Blackmagic Design annonce que Teleclub, groupe leader de la télévision payante en Suisse, a intégré un système de diffusion en Ultra HD dans ses studios. L’infrastructure repose sur des produits Blackmagic Design 12G pour mieux gérer les programmes sportifs en direct et les programmes à la demande (PPV).

 

Le groupe a récemment enrichi son offre et propose désormais plus de 83 chaînes, dont huit en Ultra HD diffusées en allemand, français et italien. Elles couvrent désormais un grand nombre d’événements sportifs, dont les championnats de foot nationaux et européens et le hockey sur glace grâce à sa plateforme IPTV.

« Nous devions doubler la capacité de diffusion de Teleclub, notamment pour diffuser des programmes à la demande en HD et Ultra HD, mais aussi pour pouvoir ajouter des commentaires et des éléments graphiques » explique Remo Val, ingénieur système et développeur chez Teleclub. « Après avoir revu en détail notre installation Ultra HD, nous en sommes venus à la conclusion qu’un réseau single link 12G-SDI nous permettrait de gérer à la fois les salles de serveurs et la distribution des signaux sans complication. »

Dix-huit ATEM 4 M/E Broadcast Studio 4K ont été installés, chacun dédié à deux chaînes HD ou Ultra HD et dont chaque M/E est attribué à une chaîne. Pour la diffusion en direct, chaque mélangeur a été relié à un serveur vidéo/CG. Cette installation a été mise au point par Teleclub au moyen de cartes d’acquisition DeckLink Quad 2 et du logiciel Caspar CG. Un autre ATEM 4 M/E Broadcast Studio 4K fournit les signaux à un des bouquets HD.

Remo Val explique que le système est contrôlé par une interface conçue sur mesure.

« L’opérateur ouvre un événement dans notre base de données, puis le client ajoute le contenu de son choix à une liste de lecture, par exemple, la mention En direct, des bandeaux d’informations ou les logos des sponsors. Le logiciel contrôle l’ATEM, le serveur CG et le moteur audio et prépare les éléments suivants de la liste. L’opérateur est donc en mesure d’envoyer le programme finalisé en appuyant simplement sur un bouton. »

L'installation, située près du siège de production de la chaîne à Volketswil près de Zurich, comprend également un nouveau studio, 26 salles dédiées aux commentateurs, 12 Smart Videohub 40x40 12G reliés à des moniteurs sub-switch, des salons VIP et un bar pour les spectateurs. « Les quelque 250 Blackmagic Micro Converters et les convertisseurs Teranex Mini servent de liens dans cette installation numérique », ajoute Remo Val. « Il était important que les améliorations apportées grâce à cette mise en place soient évidentes pour tout le monde. »

« Ce projet n’aurait pas pu voir le jour sans Blackmagic Design », conclut Remo Val. « L’API ouverte et le prix des cartes d’acquisition nous ont permis de concevoir une solution polyvalente et fiable. Grâce à cette installation 12G, nous sommes en mesure de continuer à satisfaire nos clients avec des programmes de qualité pendant encore de longues années. »

  • 14 novembre 2019 à 17:00

Les vidéos web de France Médias Monde sous-titrées par la plateforme Eolementhe

Les vidéos web de France Médias Monde sous-titrées par la plateforme Eolementhe © DR

Videomenthe annonce qu’Eolementhe, sa plateforme collaborative de workflow média, a été retenue par France Médias Monde comme solution de sous-titrage multilingue, à l’issue d’une phase de consultation.

 

Le groupe France Médias Monde réunit FRANCE 24, la chaîne d’information continue trilingue; RFI, la radio mondiale; et Monte Carlo Doualiya, la radio en langue arabe. Les trois chaînes émettent depuis Paris à destination des 5 continents, en 14 langues.

France Médias Monde a lancé une consultation pour se doter d’une solution cloud de sous-titrage vidéo, simple et moderne. En effet, le groupe publie sur ses sites web des vidéos courtes (interviews, reportages…) issues de sa production interne, et a comme volonté de faciliter et accélérer le travail des équipes en matière de sous-titrage.

Eolementhe, plateforme collaborative de workflow média, a été retenue par France Médias Monde pour ses fonctionnalités de transcription, traduction et sous-titrage multilingue, mais également pour sa modularité, sa simplicité d’utilisation, et bien entendu son budget.

 

« Avec Eolementhe, nous publions sur le web nos vidéos sous-titrées en plusieurs langues, très rapidement, grâce aux outils automatisés, sans compromis sur la qualité des traductions ! La possibilité de validation humaine, à chaque étape du processus, et en mode collaboratif, est un réel avantage.

Autre point : la disponibilité des équipes Videomenthe, qui nous a notamment permis de travailler ensemble à la personnalisation de la solution », explique Clément Bisset, RFI.

 

Videomenthe a en effet collaboré avec France Médias Monde pour créer un workflow séquentiel répondant au mode de fonctionnement des équipes sur toute la chaîne de production. Des étapes de correction et validation humaines permettent aux différents utilisateurs (journalistes, techniciens, rédacteur en chef…) d’intervenir après chaque étape automatisée (transcription et traductions en plusieurs langues), ce qui garantit fluidité, rapidité et efficacité.

La solution Eolementhe a également été personnalisée : des espaces de travail adaptés à chaque profil ont été créés et un habillage de sous-titres répondant à la charte graphique web de France Médias Monde, a été mis en place.

 

« Nous sommes évidemment ravis d’avoir la confiance de France Médias Monde sur ce projet, passionnant à plus d’un titre. Le contexte « vidéo mobile » tout d’abord, avec la collaboration entre équipes techniques et éditoriales internationales, qui se fait de façon fluide via Eolementhe. Le fait de livrer les contenus vidéo à destination des supports web et réseaux sociaux, ensuite, qui montre la souplesse de la solution en terme de formats. Enfin, l’implication de tous nos interlocuteurs chez France Médias Monde, qui font évoluer la solution de façon très constructive », conclut Muriel le Bellac, Présidente de Videomenthe. 

  • 13 novembre 2019 à 17:13

La plateforme de diffusion Intraplex Ascent s’ouvre à la video sur IP…

Andy MacClelland, nouveau directeur opérationnel EMEA et Asie du Sud de Gates Air © DR

Sur le Stand Gates Air d'IBC, l’Intraplex Ascent était au centre de toutes les attentions... Après l’annonce, sur le NAB, d’une prise en charge de l’audio sur IP sur sa plateforme de transport de signaux, le constructeur a, cet été, dévoilé la prise en charge de la vidéo sur IP via l’intégration d’une passerelle SRT…

 

Avec le support vidéo, l’application offre une proposition de valeur exceptionnelle aux diffuseurs… Ouverte à tous les protocoles de diffusion vidéo en temps réel basé sur IP (notamment ATSC 3.0 et DVB-T / T2), la plate-forme centralisée gère des flux SRT (Secure Reliable Transport) multiples via son logiciel maison Dynamic Stream Splicing (DSS). Ce dernier distribue les données SRT sur des réseaux redondants avec un protocole qui évite les pertes de paquets et les défaillances réseau.

L’Intraplex Ascent, qui représente la première solution de transport audio sur IP multicanal évolutive du marché, a été conçu pour favoriser la convergence des opérations de diffusion avec l’infrastructure informatique. La solution propose une connexion directe aux interfaces audio analogiques numériques et analogiques traditionnelles et est conforme à la norme AES67 et compatible avec les solutions réseau AoIP.

 

« Avec le fractionnement de flux de la nouvelle application Ascent SRT Gateway, nous pouvons réduire efficacement le temps de latence pour la retransmission SRT et optimiser la redondance réseau pour une distribution vidéo optimisée », déclare Andy MacClelland, nouveau directeur opérationnel EMEA de Gates Air. « Cette technologie  est particulièrement utile pour nos clients qui distribuent de la vidéo et de l'audio en temps réel via des connexions hertziennes, fibre et IP, et transportent des flux à large bande passante vers des studios ou sites de transmissions multiples ».

  

Deux options sont disponibles, l’une en serveur 1RU (avec des options configurables pour les canaux physiques et AES67) et en solution logicielle, dans un conteneur virtualisé.

 

En phase de croissance...

Amorçant une restructuration globale, le leader mondial des solutions de diffusion de contenu hertzien pour les chaînes de télévision et de radio a récemment recruté Andy MacClelland en tant que directeur opérationnel EMEA et Asie du Sud ainsi que 4 personnes sur la zone Afrique. Dans le cadre d’une politique d’investissements active, la société américaine a aussi acquis, en mai dernier, Onetastic, entreprise Italienne spécialisée dans les technologies d’émetteurs à faible consommation d'énergie. Grâce à ce recrutement et cette opération d'achat, Gates Air va pouvoir bénéficier d’une base européenne de R&D et de production qui facilitera sa croissance sur le bassin géographique européen.

  • 20 novembre 2019 à 17:00

ACE Medias Tools fluidifie les communications des talkshows

ACE Medias Tools fluidifie les communications des talkshows © DR

Les radios et les télévisions diffusent les auditeurs à l’antenne grâce à des équipements appelés hybrides qui sont gérés par des logiciels de gestion de talkshows, talkshows qui consistent à faire intervenir des auditeurs dans des émissions. ACE Medias Tools a créé et distribue aujourd’hui un de ces logiciels de gestion de talkshows. Généralement, un journaliste ou un animateur de radio ou de TV ayant appelé un correspondant pour l’interviewer à l’antenne avec son smartphone doit raccrocher pour rappeler depuis l’hybride et transférer la communication à l’antenne mais ACE Medias Tools a trouvé une solution...

 

La société a trouvé un moyen pour que les communications passées depuis un smartphone soient « diffusables » directement à l’antenne, sans transférer l’appel et sans application installée dans le téléphone de l’animateur.

Les équipes d’ACE Medias Tools ont développé un module électronique externe fonctionnant en Bluetooth pour intercepter les signaux audio et les informations de la communication. Celles-ci sont alors acheminées vers le logiciel Ines, qui gère des talkshows, par une liaison IP classique et en audio vers les équipements de la chaîne.

 

INES BT

Ines BT est un nouveau produit. C’est un module complémentaire de la suite logicielle Ines déjà développée. Ce module repose sur une agglomération de techniques et de technologies existantes. Il regroupe les technologies Bluetooth, les technologies IP/Ethernet et les technologies audio numériques AES.

Le principe est simple et similaire aux systèmes de téléphonie embarqués dans les véhicules automobiles. Le téléphone GSM de l’utilisateur vient se connecter en BlueTooth au module électronique externe (Ines BT). Le module Ines BT transmet :

- L’audio de la communication (aller et retour) vers les équipements audio de la chaîne de radio ou de télévision via la liaison AES.

- Les paramètres de la communication, comme l’identifiant de l’interlocuteur appelé ou la durée d’appel, via la liaison IP/Ethernet.

 

Un projet innovant

Jusqu’à maintenant, un journaliste souhaitant interviewer et enregistrer une personne par téléphone, devait le faire depuis les installations téléphoniques du studio. Il devait donc communiquer le numéro de téléphone de leur correspondant, parfois confidentiel, aux personnels de la régie, qui en effectuaient la numérotation depuis un logiciel, ce dernier pilotant un équipement appelé insert téléphonique en charge d’acheminer la communication téléphonique. La qualité de la communication reste une qualité téléphonique soit 3,5kHz, ce qui paraît une piètre qualité au 21ème siècle. Aujourd’hui, de plus en plus de journalistes ou d’animateurs appellent leurs contacts depuis leur téléphone GSM. Ils sont donc aussi contraints de raccrocher leur communication pour rappeler leur correspondant depuis les installations du studio.

Via Ines BT, il est possible de conserver cette communication sur le téléphone portable du journaliste et de l’intercepter via la technologie BlueTooth pour qu’il puisse enregistrer son correspondant depuis l’interface Ines. Il n’est donc plus question d’interrompre une communication pour la diffuser à l’antenne ou l’enregistrer et surtout il devient possible d’utiliser des applications tierces comme What’sApp, FaceTime ou Skype. C’est grâce à ces applications que la qualité audio des communications se trouvent améliorées…

  • 10 novembre 2019 à 16:00

Une infrastructure de Radio-Télévision 100% IP en Suisse…

Une première infrastructure de Radio-Télévision 100% IP en Suisse…  © DR

Les radiodiffuseurs privés suisses RadioFr et La Télé viennent de finaliser un nouveau centre de radiodiffusion IP dévolu à la radio et la télévision sur une base d’équipements Lawo, avec l’accompagnement de l’intégrateur SLG Broadcast AG.

 

Depuis 30 ans, la radio de langue française Fribourg, la radio de langue allemande Fribourg et la télévision La Télé Fribourg possédaient deux installations distinctes situées sur 2 sites. La modernisation des installations opérée cette année a représenté une occasion idéale pour regrouper les deux infrastructures. D’une surface de 3 000 mètres carrés, le nouveau complexe baptisé «MEDIAParc», se déploie sur deux étages. Outre les studios de radio et de télévision, il héberge des plateformes de distribution médias qui complètent les services de diffusion en direct de RadioFr.

Retenue pour concevoir ces nouvelles installations de diffusion, SLG Broadcast, travaille avec RadioFr depuis plus de 15 ans. Un audit complet a été entrepris pour s'assurer que RadioFr tire pleinement parti des possibilités offertes par un environnement de studio basé sur IP sur la base d’un réseau normalisé AES67 pour l'audio et SMPTE 2022-6 pour la vidéo.

Plusieurs gammes de produits radio, vidéo et audio Lawo ont été utilisées pour donner à RadioFr la flexibilité opérationnelle recherchée pour ses flux de direct… Aujourd’hui, les studios principaux de Radio Fribourg et Radio Freiburg disposent chacun d'un pupitre de mixage principal Lawo Ruby à 12 faders, ainsi que d'un autre Ruby à 4 faders pour les news. Leurs écrans de contrôle ont été personnalisés à l'aide du logiciel de création d'interface graphique Lawo VisTool ; Trois cabines de montage radio sont équipées de consoles Ruby à 4 faders et d'écrans VisTool interfacés à un moteur de mixage unique, le Lawo Power Core DSP ; La suite de production radio dispose d’un moteur Ruby avec un Power Core 12 faders, et d’un mélangeur Lawo mc236 qui peut être déplacé dans d'autres salles selon les besoins des directs ; Un Lawo V_matrix8 gère le routage, le traitement et de visionnage multi-fenêtres IP vidéo de la chaîne de télévision via le logiciel Lawo VSM. Une autre surface de contrôle Ruby, avec un moteur Power Core DSP, est utilisée pour les besoins de mixage de la chaîne TV. Deux unités Lawo V_remote4 assurent par ailleurs une connexion IP entre MEDIAParc et les principaux studios de télévision de Lausanne.

Le cœur de l’installation dédiée aux opérations audio de la radio et de la télévision, est doté de son propre moteur Power Core et de la commande VisTool. Un routeur audio Lawo Nova fournit une matrice de retour à MEDIAParc; un second routeur Nova a été affecté au car régie de la station qui est aussi équipée d'une console de mixage Lawo Sapphire à 12 voies.

MEDIAParc a été conçu pour faciliter la production de contenus pour la distribution sur Internet, y compris de podcasts et autres contenus de médias sociaux, son infrastructure tout IP permet un accès facile aux signaux dans l’ensemble de l’installation.

L’Audiomatrix, au cœur des opérations de MEDIAParc, rend le partage audio possible avec équipes de production de télévision. Pour plus de flexibilité et une redondance, des sections Audiomatrix jumelées et interconnectées fonctionnent en parallèle : les flux de radio et de studio, ainsi que les routeurs Lawo Nova, les ordinateurs de diffusion et les systèmes téléphoniques sont connectés à Audiomatrix # 1 via MADI et à Audiomatrix # 2 via AES6 et il est possible de basculer l'audio de façon transparente entre les studios. L’architecture globale s’appuie sur des câbles fibres optiques.

L'Audiomatrix offre également un accès aux sorties des trois studios de montage et à la source distante produite par le car régie RadioFr. Un contrôle logiciel des codecs via SLG unifie les flux de tous types de sources.

MEDIAParc propose par ailleurs une configuration de production audio adaptée aux besoins des malvoyants. Le logiciel Lawo RƎLAY VPB Virtual Patch Bay, exécuté sur des PC de montage audio, est programmé pour envoyer automatiquement de l'audio vers la suite de montage ou à l'un des studios en ondes tout en commutant simultanément les sections surveillance, enregistrement et lecture des consoles.

 

«MEDIAParc représente le premier site de production de medias entièrement IP en Suisse. Il représente la concrétisation réussie d'une vision ambitieuse adaptée aux flux de travail multimédias», déclare Marc Straehl, PDG de SLG Broadcast AG. «RadioFr souhaitait virtualiser l'environnement de production avec des solutions standardisées et évolutives. Les stations de télévision et de radio partageant de plus en plus de ressources, ce type d'intégration transparente répond à un besoin aujourd’hui généralisé chez les radiodiffuseurs. »

  • 6 novembre 2019 à 17:00

Le nuage informatique au-dessus du live !

Le nuage informatique au-dessus du live ! © DR

Le cloud computing n’en finit pas de gagner en performances. Des cas d’usage de plus en plus fréquents montrent que les nuages informatiques d’Amazon, Microsoft, Google et consorts sont en mesure de prendre en charge quasiment tous les maillons de la fabrication d’une chaîne de télévision, y compris lorsque celle-ci diffuse des programmes en live. Les usages progressent toutefois moins vite que la technologie. De nombreuses chaînes doivent encore amortir leurs infrastructures, tandis que des réticences demeurent sur la maîtrise des données. Autant de phénomènes qui incitent les acteurs industriels à promouvoir des solutions hybrides mêlant cloud public et cloud privé.

 

Chacun a bien en tête désormais les avantages du cloud computing dit « public » promus par les principales plates-formes AWS, Azure ou Google Cloud pour ne citer que les acteurs prépondérants de ce nouveau marché. Bien entendu, il existe d’autres clouds publics, y compris ceux bâtis par des acteurs français comme Orange ou OVH.

Dans la filière audiovisuelle, comme dans d’autres filières industrielles, les usages du cloud public se généralisent. Jusqu’ici le cloud concernait des tâches essentiellement liées au stockage, à l’encodage et à la multi-distribution des contenus sur des plates-formes OTT. Les plates-formes de publication de vidéos à la demande sont même devenues légion grâce à la facilité permise par les architectures évolutives du cloud dans la création d’un nouveau service SVOD, que ce soit en termes de prix ou de performances, qui peuvent évoluer au fur et à mesure que l’audience d’un service OTT grossit.

Ces plates-formes de services OTT comprennent généralement l’ingest des fichiers vidéo, leur transcodage en fichier pivot, le contrôle qualité, l’application de sous-titres, l’application de DRM, des fonctions de monitoring de l’audience et de monétisation.

Les facteurs de différenciation entre les acteurs de cette filière émergente se font d’ailleurs de plus en plus suivant des critères liés à l’ergonomie des services, le niveau de fonctionnalités proposé et à l’évolutivité vers de nouvelles technologies valorisant les contenus grâce à l’intelligence artificielle.

Néanmoins, depuis un an, le phénomène de cloudification du secteur audiovisuel touche aussi le dernier pan de cette industrie : les chaînes de TV linéaires. Le cloud computing fait l’objet de plus en plus de cas d’usage au cœur même des tâches liées à la fabrication et à la diffusion d’une chaîne TV broadcast.

 

 

L’essor des mélangeurs live dans le cloud

Si l’on remonte le fil de la chaîne de fabrication d’une chaîne de télévision jusqu’à son début, une des tendances émergentes aujourd’hui est l’apparition de mélangeurs live virtualisés hébergés dans le cloud. La tendance reste néanmoins timide dans la filière broadcast traditionnelle. Car, comme le souligne Alexandre Dubiez, head of global playout & studio solutions chez Red Bee Media : « Ces services que nous testons dans notre laboratoire à Londres sont perfectibles. Ils s’adressent pour le moment principalement aux marques organisatrices d’événements sportifs, qui n’ont pas forcément de récurrence dans la commercialisation de leurs droits de retransmission, ou aux médias de taille modeste qui veulent couvrir en direct du jour au lendemain un événement sportif ou culturel sans avoir à leur disposition les moyens techniques de captation, à l’exception des outils de tournage. »

C’est pourquoi, pour le moment, ce sont principalement des start-up qui s’engouffrent dans cette brèche, en espérant que la connectivité en situation de mobilité s’améliore à grands pas. Ces start-up proposent le plus souvent des solutions d’édition basées sur la captation à l’aide d’un smartphone ou de moyens de tournage légers dans la mesure où le transfert sans fil des signaux s’effectue de manière compressée en H264.

L’interface de mixage des sources vidéo sur ces nouveaux outils a une ergonomie souvent proche de celle d’un mélangeur classique, à la différence que les fonctions s’affichent sur un navigateur Internet et ouvre directement des instances de machines virtuelles dans un cloud public concernant la partie traitement des images et sons.

Les solutions d’entrée de gamme les plus en vue s’appellent ici Switcherstudio ou Livestream. Ce dernier outil, racheté par Vimeo à la fin 2017, a une philosophie hybride qui consiste à faire reposer sa solution de mélange « live » sur du matériel en complément des ressources dans le cloud.

En France, d’anciens cadres d’Orange ont fondé la start-up Dazzl, qui édite un switcher en SaaS hébergé chez Amazon. Dazzl en est déjà à sa version 2 et bénéficie d’une nouvelle interface encore plus ergonomique et adaptée à un réalisateur seul sur le terrain avec son PC ou à un réalisateur qui reçoit à distance les feeds d’un direct et les traite de son bureau. Il est aussi intéressant de constater que l’interface de Dazzl se rapproche de plus en plus d’une interface classique dédiée à l’édition de live… mais dans un navigateur Internet et des possibilités d’inserts démultipliées.

La start-up la plus avancée en la matière, qui séduit déjà des broadcasters traditionnels, est Make.tv. Cette jeune pousse de Seattle propose une application en SaaS très complète en termes de fonctionnalités, et qui peut être hébergée indifféremment dans le cloud public d’AWS, Azure ou Google. Make.tv permet de monitorer plus de 48 flux live dans son viewer et de switcher entre les sources au time-code près. Une des forces de cette application en ligne est de permettre la livraison d’un signal maître vers de nombreuses destinations différentes, mais aussi l’interface avec sa propre solution de playout dans le cloud. C’est d’ailleurs cette dernière fonctionnalité de play-out qui a convaincu la Fifa de se servir de Make.tv durant la Coupe du monde de football 2018, afin d’adresser les réseaux sociaux Facebook et Twitter avec un live spécifique, différent de la version broadcast.

 

 

Les acteurs du broadcast entrent dans la danse

Les éditeurs de solutions de « clipping », ces applications d’édition de clips vidéo au sein d’un flux live destinées à alimenter les sites web d’une chaîne et les réseaux sociaux, sont aussi parmi les pionniers de l’usage du cloud public dans le secteur de la TV linéaire. Le cas de la start-up française Wildmoka est à cet égard édifiant. À l’issue d’un partenariat prolifique depuis 2016 avec France Télévisions et de cas d’usage avec des chaînes internationales comme NBC aux USA, Wildmoka est en effet en train de s’affirmer comme un partenaire clé de la stratégie cloud d’Avid en matière d’architectures IP live dédiées à la TV linéaire.

Voyant une partie du monde broadcast se pencher sur la production dans le cloud, Sony s’est aussi lancé plus récemment sur ce créneau avec l’annonce, durant l’été 2018, d’un mélangeur logiciel hébergé sur AWS et baptisé Virtual Production Service. Ce mélangeur « virtuel » de Sony peut gérer jusqu’à six caméras, deux clip players, dont les signaux sont enregistrés en temps réel sur AWS, de même que le signal final une fois mixé.

Sony a expérimenté son dispositif pour la première fois durant l’été 2018 lors de la retransmission en direct sur le web de la course à mobylettes Red Bull Switzerland Alpenbrevet. Le terrain montagneux rendait difficile le déploiement des infrastructures de production live classiques comme une régie de production ou des véhicules DNSG, sans parler des investissements dans le matériel et le personnel que les organisateurs souhaitaient éviter. Des moyens de tournage légers ont donc été privilégiés, avec notamment deux caméras mobiles suivant le parcours et rapatriant le signal du live directement en 4G vers le mélangeur en ligne de Sony.

 

 

Les limites actuelles

Il faut savoir néanmoins que ces solutions de mélange en ligne des sources live ont quelques limites pour le moment, comme celle de ne pas intégrer de réseau d’ordre. C’est pourquoi la plupart des professionnels qui les ont déjà adoptées y ajoutent en général un réseau d’ordre sous forme d’une application baptisée Unity Connect (http://www.unityintercom.com/) qui permet de recréer un véritable réseau d’ordre à l’aide de smartphones grand public.

De même, en dépit d’évolutions rapides dans ce registre, les fonctionnalités d’habillage intégrées à ce genre de mélangeurs restent limitées et souvent le réalisateur est obligé de peaufiner son habillage antenne dans une fenêtre HTML à part, via un outil supplémentaire comme Singular.live (https://www.singular.live/), un autre service dans le cloud qui dispose d’une API ouverte.

Ces mélangeurs en ligne introduisent aussi une plus grande latence vis-à-vis d’une solution broadcast traditionnelle. Il faut compter entre deux et trois secondes de délai entre le signal qui sort de la caméra et l’entrée dans le mélangeur virtualisé. Ce problème est en partie résolu par le fait que les éditeurs de tels mélangeurs en ligne introduisent un temps de buffering au départ du direct, afin de pouvoir ensuite réaligner la synchronisation de l’ensemble des flux, notamment en cas de chute de la connectivité en situation de mobilité.

Attention néanmoins, la latence finale chez le téléspectateur dépend également de la plate-forme de publication des vidéos en streaming. En la matière, il faut savoir que la latence peut descendre à deux ou trois secondes dans le cas d’une plate-forme professionnelle, de cinq à sept secondes dans le cas de YouTube et jusqu’à vingt secondes sur Facebook.

 

 

Le cloud computing au service des « pop-up channels »

Dans la droite ligne de l’essor de ces outils virtualisés destinés à produire, via le cloud, du live d’événements sportifs ou culturels, certains éditeurs TV se hasardent à bâtir des chaînes événementielles en s’appuyant sur des plates-formes de cloud computing. Un acteur majeur de la contribution broadcast et IP comme Globecast l’a bien compris et se positionne sur ce créneau depuis près de trois ans. Son offre s’appelle Digital Media Hub et est agnostique de la plate-forme cloud utilisée pour héberger une ou plusieurs chaînes de télévision événementielle ou expérimentale.

Samy Bouchala, responsable du marketing et de l’anticipation stratégique, précise : « Nous analysons toutes les possibilités offertes à la fois sur le plan technique et économique et choisissons la plus adaptée au client entre un fournisseur de cloud public, une solution on-premise et l’offre cloud d’Orange plus pertinente sur certains aspects liés à la localisation et la sécurisation des données. Grâce au cloud, nous mettons en œuvre les projets de nos clients de manière agile et itérative, en suivant leur stratégie marketing et en interrogeant systématiquement le ratio coût du cloud public versus on-premise et cloud privé. Il faut savoir en effet que les tarifs dans le cloud public fluctuent beaucoup suivant la loi de l’offre et la demande. Au moment du black friday par exemple, il était quasi-impossible de trouver de la ressource fiable dans le cloud public, et à un prix raisonnable. Il a donc fallu trouver des solutions de rechange pour nos clients. »

Pour Globecast, le cloud public permet surtout de tester de nouveaux concepts de chaînes de télévision à moindres frais. C’est le cas par exemple de Virgin TV. Cette chaîne en 4K a d’abord été lancée à l’automne 2018 sur une tranche horaire du soir uniquement, afin de sonder une audience de niche. Au fur et à mesure que l’audience a grandi, les plages horaires de diffusion se sont élargies sans que cela n’entraîne de surcoût considérable grâce à la flexibilité du cloud. « Mieux, précise Samy Bouchala, lors de la mise en place technique de cette nouvelle chaîne, le cloud a suffisamment tenu la charge pour assurer la distribution de signaux UHD avec des images codées sur 10 bits couleur. »

L’offre TV dans le cloud de Globecast suscite aussi l’émergence de chaînes événementielles, les pop-up channels. Ce fut le cas en 2018 avec un client comme la société de services événementiels HPower qui assura la totalité de la production et de la gestion technique du défilé Great Pilgrimage 90, ainsi que de la cérémonie One Hundred Days (les 100 derniers jours de la Première Guerre mondiale) organisés par la Royal British Legion. À cette occasion, Globecast a également eu l’occasion de tester sa nouvelle solution de clipping dans le cloud, baptisée Live Spotter, afin de générer rapidement des extraits à publier sur le web et les réseaux sociaux.

Reste que si les barrières techniques tombent peu à peu, concernant la possibilité de créer des chaînes événementielles, le modèle économique reste lui encore incertain aux yeux des éditeurs TV traditionnels. Certains d’entre eux restent en effet encore sceptiques sur la capacité du public à payer pour voir un seul événement ou sur la capacité de mobiliser suffisamment d’annonceurs autour d’un canal événementiel ad hoc. Un nouveau marché qui reste à explorer…

 

 

Play-out dans le cloud public

En matière de play-out, cela fait quelques années déjà que des start-up anglo-saxonnes ont pris le virage du cloud public. On peut citer PlayBox Technology qui tente de créer un écosystème autour de ses solutions software de play-out IP. De même, l’Indien Amagi développe depuis trois ans une solution logicielle en ligne permettant d’adresser de manière performante des contenus différenciés suivant les régions de diffusion.

Quant à Veset, cette plate-forme hébergée sur Amazon s’articule autour de deux offres distinctes qui correspondent bien aux deux principaux segments actuels de ce marché. Veset propose en effet d’un côté Media Cirrus, une offre entrée de gamme et de l’autre Media Nimbus, une offre de services plus évoluée. L’offre Cirrus inclut uniquement l’up-load des fichiers via un navigateur web, un habillage graphique sommaire, l’encodage à l’aide de codecs ne dépassant pas le H264, un seul canal stéréo, pas de technologie de sous-titres standardisée, ni de normalisation loudness standard...

À l’inverse, son offre Nimbus est plus complète et proche du broadcast ; elle a déjà séduit une chaîne comme Fashion TV. La chaîne de la mode voulait s’appuyer sur une solution cloud permettant d’adresser le marché de la SVOD et de la Social TV en même temps que ses canaux broadcast traditionnels. Fashion TV a fait migrer dans le cloud l’ensemble de sa tête de réseau de distribution pour la TV IP, le câble, le satellite, Dailymotion… Au-delà du gain financier occasionné par cette bascule, Fashion TV indique avoir gagné en souplesse pour éditorialiser de nouvelles versions de sa chaîne dans le monde entier et avoir permis plus de cohérence entre son offre de programmes linéaire et VOD.

 

 

Des premières chaînes live dans le cloud public en Asie

D’autres acteurs plus ancrés dans le monde broadcast, comme Harmonic, se sont aussi très tôt lancés dans une offre de services de playout hébergée dans le cloud public. Depuis deux ans, Harmonic propose VOS 360 qui intéresse, semble-t-il, en priorité le marché des chaînes de TV asiatiques, tandis que de nombreux POC ont lieu en Europe, y compris en France.

Premier exemple emblématique de la mise en place de cette nouvelle offre de services en ligne, le cas de la chaîne SuperSoccerTV, éditée par le groupe indonésien PT. Perada Swara Productions (Djarum Group). Cette chaîne propose, dans une région du monde où le football est encore assez peu populaire, les images du championnat Série A italien et de la Premiere Ligue anglaise. Elle a fait appel à Harmonic dès 2016 en vue de donner une dimension live à son offre OTT de matches en direct, via son application mobile. Et de fait, grâce au cloud public, SuperSoccerTV adresse une audience croissante de plusieurs centaines de milliers de fans qui va grandissante.

Eric Gallier, responsable des solutions vidéo chez Harmonic, explique : « Dans les débuts, les retransmissions en direct via le cloud public engendraient une latence de plusieurs dizaines de secondes. Elle n’était pas gênante car peu de retransmissions broadcast en direct des matches de football ont lieu dans cette partie du globe. Toutefois, nous avons optimisé peu à peu le play-out, de sorte que la latence est aujourd’hui réduite à quelques secondes. En outre, l’offre de programmes de SoccerTV est montée en puissance avec deux matches retransmis par semaine et le play-out de cette chaîne OTT intègre désormais une chaîne de traitement complète avec des événements principaux et secondaires, des highlights, des rediffusions… une chaîne de télévision à part entière en somme... la présence sur les canaux numériques en plus. »

La couche de services de play-out que propose VOS 360 est agnostique en matière de plate-forme de cloud public choisie. Conforme au mode de gestion de projet du cloud, Harmonic a aussi défini que chaque mois un sprint de développement introduit une nouvelle fonctionnalité. Ainsi, VOS 360 est en mesure d’aller vers des spécifications dernier cri comme le traitement des flux en UHD HDR ou encore d’intégrer le protocole CMAF dans le player vidéo fourni avec son service. « Avec le CMAF, souligne Eric Gallier, nous avons franchi une étape, en particulier concernant la latence qui descend désormais en-dessous des six secondes. » De même, dans le cas de SuperSoccerTV, VOS 360 s’interface avec la solution de clipping en temps réel de Tellyo, concurrente de Wildmoka.

 

 

Play-out hybride, dans le cloud public et privé

L’usage d’un cloud public pour héberger l’ensemble de la chaîne de fabrication et de diffusion d’une chaîne de télévision comprend toutefois des limites techniques et juridiques, comme le fait de déléguer l’hébergement de ses contenus à des acteurs américains soumis au « patriot act ». Cela constitue une raison suffisante pour nombre d’éditeurs TV européens de regarder de près les services de play-out hébergés dans un cloud privé ou hybride mêlant cloud public et cloud privé (pour les données plus sensibles).

C’est le cas, par exemple, du fournisseur de solutions d’habillage graphique et de play-out wTVision, filiale de la société espagnole Mediapro qui combine tous les modèles possibles cloud public chez AWS, cloud hybride, cloud privé avec possibilité de piloter des opérations à distance en IP tout en ayant une partie de son play-out en local et bien sûr un play-out reposant sur des infrastructures on-premise, entièrement personnalisables.

C’est aussi la proposition faite par Red Bee Media (ex-Ericsson broadcast services). Selon Alexandre Dubiez, responsable des solutions Studio et Diffusion de RedBee Media : « Les clients viennent souvent nous voir en ayant comme préjugé que le cloud public est moins cher. Nous avons donc fait des projections en termes de coûts du cloud public versus cloud privé et infrastructures broadcast pour nous rendre compte que le cloud privé peut dans certains cas d’utilisation être une solution plus économique que les plates-formes d’Amazon, Microsoft ou Google. Nous ne sommes pas convaincus qu’il y ait une équation économique viable sur le long terme à placer l’hébergement complet d’une chaîne dans le cloud public. »

Le prestataire de service britannique oriente volontiers ses clients vers le cloud public pour des tâches telles que le débordement de ressources en cas de pic d’audience, le disaster recovery ou la création de chaînes événementielles OTT ou la social TV. Red Bee Media a d’ailleurs bâti son offre autour d’une proposition hybride jouant sur la complémentarité entre cloud privé et public.

Pour Alexandre Dubiez : « Les éditeurs TV de chaînes linéaires continuent de privilégier la qualité du signal TV et préfèrent travailler sur des flux non ou peu compressés en passant dans des cartes réseaux qui utilisent les couches basses des réseaux IP. S’ils veulent migrer vers le cloud, on peut leur proposer une solution du type cloud privé, robuste et qualitative, tout en restant sur une plate-forme ouverte sur le cloud public. »

 

 

Programmation et cloud privé made in France

Le logiciel Chyro, qui facilite la programmation d’une chaîne TV linéaire via un mode SaaS très flexible, propose également depuis quelque temps déjà d’héberger l’intégralité d’une chaîne en mode cloud privé.

Parmi les fonctionnalités de Chyro, rappelons que ce soft gère la planification des programmes aléatoire ou pas, mais aussi les coupures virtuelles, les droits de diffusions, les métadonnées, les coming next, la planification des replay, les exports XML des EPG... le tout via un simple navigateur web. Cette application en ligne est aussi capable de s’interfacer avec des plays-out tiers comme ceux d’Harmonic, Playbox ou Softron (c’est déjà le cas via des chaînes distribuées par Pixagility, DVMR ou TV Tours).

Toutefois, Chyro dispose également de ses propres datacenters à Paris et Toulouse reliés entre eux par une fibre optique de 10 gigabits/s, qui lui permettent de proposer à ses clients de virtualiser l’ensemble de leur process de fabrication d’une chaîne TV linéaire. Le cloud privé Chyro a l’avantage de fournir un fort niveau de supervision et de sécurisation des médias. Chyro sert de la sorte déjà plusieurs chaînes en Suisse, Afrique et Birmanie qui utilisent tout ou partie de ses outils en ligne de planification, de gestion des workflows, des métadonnées associées, du transcodage, des replays, des extraits… mais aussi ses outils de multidiffusion en streaming comme un CDN bénéficiant d’un point de présence aux États-Unis.

 

 

Migrer sa chaîne dans le cloud en vue du disaster recovery

Aujourd’hui, une des applications hébergées dans un cloud public qui intéresse le plus les chaînes de télévision est le « disaster recovery ». Rétablir en ordre de marche ses médias à chaud à partir de sa propre infrastructure IT coûte cher en équipements et en personnel de maintenance. C’est pourquoi de plus en plus souvent la redondance des médias d’une chaîne TV linéaire est assurée de manière synchrone via le cloud public et une couche d’intelligence permettant la restauration rapide des éléments on-premise. Dans un tel cas de figure, les technologies ont suffisamment évolué pour que la restauration des médias ne dépasse pas les vingt minutes.

Aux États-Unis, ce sont les chaînes sportives les premières qui ont utilisé une telle architecture de services dans le cloud, notamment lors des « super bowls » où les enjeux publicitaires sont tels que les chaînes hôtes de l’événement clonent systématiquement l’ensemble des médias et process on-premise. Lors de l’IBC 2018, la société Carrick Skills a démontré quant à elle grâce à son Carrick Flow, son outil de pilotage dynamique des workflows et l’outil d’automation de SGT, sa capacité à fournir un service de disaster recovery dans le cloud à la fois fiable techniquement et abordable sur le plan économique.

Christophe Remy-Neris, PDG de Carrick Skills, met en avant un concept original qui tient aussi de l’opportunisme fonctionnel : « À l’heure du cloud, nous devons réfléchir de manière plus opportuniste vis-à-vis des plates-formes IT. À partir du moment où les médias d’une chaîne TV sont copiés dans le cloud, il est possible de leur appliquer de nouveaux traitements à un coût marginal, chaque plate-forme cloud bénéficiant d’un environnement fonctionnel souvent très riche. »

En outre, rappelle Christophe Remy-Neris, « notre société ne vend aucun cloud, ni système de stockage. Elle est donc totalement agnostique aux offres cloud du marché et va aller vers la plate-forme de services qui répond le mieux aux besoins d’un éditeur TV. »

Ainsi, à IBC, Carrick Skills s’est orienté vers l’offre de stockage froid d’Orange Business Services, car elle permettait d’archiver au fil de l’eau et de restaurer rapidement de plus gros fichiers que dans l’offre S3 d’Amazon et donc de réduire les coûts de stockage tout en ayant un meilleur niveau de services. Au moment du disaster recovery, Carrick Flow est en mesure, en vingt minutes, de récupérer les playlists, les éléments d’automation d’une chaîne, d’organiser le rapatriement des médias froids vers les espaces de stockage de médias chauds et de permettre progressivement le retour à un fonctionnement normal d’une chaîne.

Pour Carrick Skills, placer l’archive en continu de sa chaîne TV dans un cloud public ira de soi à l’avenir. C’est la seule solution qui entraîne un surcoût marginal dans le cas du disaster recovery de plusieurs chaînes, la communication avec des partenaires extérieurs à son architecture IT est plus aisée…

En fait, selon Christophe Remy-Neris, « quand on choisit un cloud public pour son disaster recovery, il faut se focaliser sur la souplesse d’usage et le cycle de vie de ses médias, et avoir toujours en tête la manière dont on va assurer la continuité de services, y compris lorsqu’on veut changer de plate-forme cloud, ce qui nécessite une réversibilité progressive. Faire la bascule en une seule fois coûtera forcément plus cher. »

 

 

L’IA pour changer le paradigme du play-out dans le cloud

Les réticences moins fortes de certains éditeurs TV vis-à-vis de l’hébergement complet d’une chaîne dans le cloud public, font naître des vocations parmi les start-up promptes à disrupter ce marché. C’est le cas notamment de la jeune pousse française Quortex. Fondée par des spécialistes expérimentés du secteur – Marc Baillavoine CEO, Thierry Trolez CSA, Jérôme Vieron CTO et Julien Villeret COO – Quortex considère que le paradigme de l’hébergement d’une chaîne TV doit changer de manière radicale avec l’essor des technologies cloud.

Quortex a développé une solution logicielle utilisant des algorithmes d’intelligence artificielle conçus pour optimiser la distribution de vidéos dans le cloud. Ces algorithmes servent de système d’orchestration suffisamment flexible pour qu’il soit possible de modifier en temps réel et de manière dynamique une architecture de distribution quelle qu’elle soit, afin de se mettre à l’échelle automatiquement en cas de pic d’audience par exemple.

Pour ce faire, Quortex s’abstrait de l’existant qui nécessite généralement de la redondance et des ressources par silos de fonctionnalités, en insérant son logiciel intelligent entre la couche de contrôle des CPU et la couche de services. Ainsi, aucun service n’est attaché à une grappe de serveurs donnée. C’est l’algorithme de Quortex qui détermine à tout moment quels CPU seront adressés entre toutes les machines disponibles à un instant TV dans le cloud. La subtilité réside dans le fait que ces algorithmes prennent en compte dans leur modélisation l’ensemble des fonctions de base d’une chaîne de télévision de l’encodage jusqu’à la distribution, en étant capable d’anticiper en temps réel les défaillances au sein d’une étape dans la chaîne de traitement des flux et d’allouer de manière dynamique de nouveaux serveurs suivant les nouveaux besoins décelés.

La solution de Quortex reposant sur des briques open source comme Kubernetes, un éditeur TV qui souhaite s’appuyer sur cette IA peut aisément l’intégrer au sein d’une architecture multi-cloud ou mélangeant cloud public et privé.

Jérôme Vieron souligne : « Avec notre technologie, une chaîne de télévision peut être entièrement distribuée via une plate-forme cloud avec une grande fiabilité et sans que l’on ait à se préoccuper de sa maintenance, y compris si l’on veut intégrer de nouveaux services dans son workflow ou faire évoluer ses capacités de traitement ou de distribution. » Si l’on en doutait encore, la création complète d’une chaîne de TV linéaire sans infrastructure IT internalisée est à portée de main…

 

 

Extrait de l’article paru pour la première fois dans Mediakwest #31, p.70/76. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 28 octobre 2019 à 17:00

Euromedia sur tous les fronts entre 4K intégrale et ROC

Euromedia sur tous les fronts entre 4K intégrale et ROC © EUROMEDIA.

Dimanche 13 octobre, Euromedia couvrait deux évènements sur lesquels la société a pu déployer toute son expertise et ses dernières innovations avec la captation HF en UHD intégrale de la course cycliste Paris Tours pour France Télévisions et la captation 4G des championnats de France de Marathon à Metz avec la réalisation à Saint Denis dans le nouveau ROC, le Remote Center by Euromedia pour le réseau VIA.

 

Paris Tours : captation et diffusion en 4K intégrale, une première mondiale

Dimanche 13 octobre, France Télévisions a proposé la diffusion de la course Paris Tours en direct sur France 3 et en Ultra-HD/4K sur sa chaîne événementielle France TV Sport UHD 4K.

Cet événement a bénéficié d’un dispositif de captation innovant : le transport d’un signal UHD (4K HDR) mobile natif longue distance en HF, opéré par Euromedia, partenaire de longue date de France Télévision et A.S.O. sur le cyclisme.

Toutes les caméras présentes sur l’opération, notamment celles embarquées sur un hélicoptère et sur les 3 motos, ont délivré un signal UHD (4K HDR) qui a emprunté, pour la première fois en direct, une liaison HF. Ces nouvelles liaisons dernières générations développées par Livetools Technology, filiale d’Euro Media Group, ont permis cette prouesse. La course a été réalisée par Antony Forestier depuis depuis un car-régie France Télévisions (car challenger 2), un car Euromédia fournissant les différents flux UHD HF motos et hélicos... Une première mondiale !

 

 

Championnats de France de Marathon en production distante depuis le nouveau ROC by Euromedia

Les championnats de France de Marathon, qui se sont déroulés ce dimanche à Metz, ont été diffusés sur les 18 TV locales du réseau Via. Pour accompagner ce dispositif, le réseau Via a confié la production de l’événement aux équipes d’Euromedia.

3 motos et 5 caméras ont couvert l’événement sur place. Les signaux de chaque caméra ont été transmis Live en 4G, pour la première fois, au nouveau ROC d’Euromedia, à 300 km de la ligne d’arrivée !

La réalisation a été assurée par Lionel Wetzer au sein du ROC sur vibox via les solutions Simplylive, le signal final étant distribué ensuite aux TV locales depuis le data center Via situé à Montpellier.

 

Cette production distante simplifiée a inauguré le ROC by Euromedia dont les Journées Portes Ouvertes auront lieu les 5 et 6 novembre prochain en parallèle du salon Satis aux Docks de Paris.

  • 21 octobre 2019 à 17:00

Newsbridge fait le pont entre sport et IA

Détection visuelle d’une personnalité (ici, Lionel Messi), grâce à un moteur de recherche sémantique. © Newsbridge

Créée en 2016, la start-up parisienne s’est déjà fait un nom grâce à un positionnement original dans l’univers, entre autres, du sport broadcast.

 

Acheminer, centraliser, quelle que soit la source, et transcoder au format broadcast ou digital les flux vidéo dont le volume double chaque année (+300 % entre 2014 et 2017, par exemple), indexer des contenus via une technologie cognitive développée en interne et basée sur open source, permettant la détection visuelle (scènes, contextes, objets, personnalités…) et sonore (contenu d’un discours ou d’un échange), traduire des échanges ou discours via un outil de traduction neuronale, découper et extraire des moments clés en temps réel pour une diffusion live, échanger et mutualiser les actions dans un espace collaboratif online accessible aux équipes de production, départements éditoriaux et autres services de communication…

Telles sont les différentes fonctionnalités que concentre la plate-forme, de type SaaS, à laquelle Newsbridge a donné son nom et qui, d’ailleurs, fondent son originalité. « Notre positionnement est d’associer l’Intelligence artificielle (IA) avec le contexte de captation des images. Il existe certes des concurrents sur chacune de nos fonctionnalités, mais aucun ne regroupe tous ces outils », assure ainsi Yvan Lataste, directeur des ventes.

De la même manière, le croisement des informations contextuelles recueillies sur l’ensemble des outils mis à disposition (image, son, contexte) permet, en matière d’indexation, d’obtenir des résultats d’une fiabilité proche de 100 %.

 

Au terme d’un long processus de sélection, Newsbridge a scellé différents partenariats pour le développement de ces outils. Ainsi, pour la partie « Speech to text », la société travaille avec des acteurs spécialisés dans les secteurs de la sécurité et de la défense, comme Vocapia pour certaines langues. Pour la partie détection visuelle, en plus de son propre algorithme, elle utilise des bases publiques mises à disposition par Amazon et Google.

« Afin de favoriser notre intégration technique dans l’écosystème client, nous avons également noué des partenariats avec des industriels de l’audiovisuel, tant pour la partie fabrication (Dalet, Avid, Adobe…) que pour la partie transmission (Aspera, Aviwest, Live U…) », complète le responsable.

 

Newsbridge cible les créateurs de contenus BtoB, comme les diffuseurs, les sociétés de production, les ayants droit sportifs, et même les sociétés du CAC 40. La plate-forme les aide à fabriquer des vidéos en un temps record, grâce à l’indexation contextuelle en temps réel. Elle facilite ainsi la recherche d’événements spécifiques, comme tous les buts de la saison de Ligue 1. En moyenne, la société traite une centaine d’heures de contenus sportifs par mois.

Ses clients, basés en France et en Europe, souscrivent un abonnement annuel, avec une facturation mensuelle qui comporte une part fixe (droit d’accès à la plate-forme ou licence) et une part variable, selon le nombre d’heures chargées sur la plate-forme et le niveau d’indexation requis.

 

 

Logos, émotions et actions spécifiques en voie de détection

Fin 2018, Newsbridge en comptait trois pour le sport, qui représente 40 % de son activité. Par ordre d’importance, la Fédération française de rugby (FFR), Danone, sponsor de l’Evian Master de golf, et le comité d’organisation du championnat du monde de handball.

Dans le premier cas, la prestation consiste à indexer l’ensemble des joueurs du XV de France (masculin et féminin), ainsi qu’à agréger et valoriser la mémoire numérique de la FFR en centralisant photos et vidéos et en les partageant avec les sponsors. Dans le second, Newsbridge fournit une solution clé en main (moyens de transmission + plate-forme) permettant l’extraction de contenus chauds en direct pour une publication en ligne sur les réseaux sociaux et autres supports. Enfin, dans le troisième et dernier cas, la mise en place d’une « cloud newsroom » pour les équipes digitales permet de centraliser l’ensemble des contenus produits pendant la compétition (matches, conférences, interviews, résumés, photos…) et de les partager avec les ayants droit et les sponsors.

À court terme, la détection des logos et, à moyen terme, celle des émotions et d’actions sportives spécifiques (ippon ou o-goshi en judo, ace au tennis, KO en boxe, plaquage au rugby…) sont les pistes avancées par Newsbridge pour élargir son indexation contextuelle.

Basée à Boulogne-Billancourt, près de son cœur de cible (médias, diffuseurs, sociétés de production…), la société compte actuellement dix collaborateurs permanents (six en charge du développement informatique, quatre pour la partie business et relation clientèle). Ses fondateurs, Philippe et Frédéric Petitpont, respectivement ex-ingénieur broadcast à TF1 et ex-creative technologist chez Havas, sont actionnaires majoritaires et gardent la main sur les décisions stratégiques de la société. Laquelle est également soutenue par Bpifrance et le CNC dans le cadre d’un financement RIAM.

 

Retrouvez Newsbridge sur le SATIS Screen4ALL, les 5 et 6 Novembre prochains aux Docks de Paris... 

 

Article paru pour la première fois dans Mediakwest #31, p.82. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 20 octobre 2019 à 16:02

Un programme de radio filmée diffusé quotidiennement sur France 3 région avec MULTICAM SYSTEMS

Un programme de radio filmée diffusé quotidiennement sur France 3 région © DR

Radio France et France Télévisions se sont associés pour produire un direct vidéo des matinales de France Bleue et c’est la société française MULTICAM SYSTEMS qui a été choisie via un appel d’offre pour son système de production live automatisé MULTICAM RADIO.

 

« Il fallait fournir un système automatisé pour la captation vidéo mais également une interface de contrôle de l’habillage graphique. En effet, un opérateur est en charge d’habiller le programme radio selon une ligne éditoriale télévisuelle bien définie qui comprend des illustrations pour les reportages vidéo, des synthés pour l’actualité, le recouvrement des publicités radio… », précise Arnaud Anchelergue, directeur associé de MULTICAM SYSTEMS.

L’opérateur dispose de deux écrans tactiles : il peut agir sur la production du direct via l’écran de gauche (commandes pour l’IA et l’Auto-framing, gestion de l’enregistrement et du streaming) et sur l’habillage et les illustrations via l’écran de droite. Une charte spécifique a été implémentée, ses ajustements et la mise à l’antenne s’opèrent sur MULTICAM ASSIST, interface disponible sur cet écran de droite.

« L’ergonomie et la facilité d’utilisation du système permet une prise en main rapide. L’opérateur n’a pas besoin d’être un technicien, son profil étant plutôt orienté journaliste… », complète Arnaud Anchelergue.

 

Le système adopté pilote 5 caméras PTZ (Panasonic HE130) avec un module d’Intelligence artificielle basé sur la prise de parole. Un module de recadrage automatique (auto-framing) permet des presets en fonction des différences de position des intervenants.

L’émission, qui est diffusée avec un décrochage de 7h à 8h40 est diffusée sur la TNT, sur l’application France 3 régions et sur le site internet de Radio France. Un support d’assistance opérationnel quotidien de 6h00 à 9h00 a par ailleurs été spécifiquement déployé par MULTICAM pour ce projet.

Quatre sites ont déjà pris l’antenne, à Nice, à Lille, à Guéret et à Toulouse et au total, une quarantaine de stations seront équipées d’ici 3 ans. Les stations France Bleu seront aussi équipées de projecteurs 30 watt Mini Twinled fournis par Eurolight System.

Sur IBC, MULTICAM démontrait une configuration avec un pilotage de têtes robotisées, adapté aux caméras broadcast. Ses clients ne seront donc plus limités à un choix de caméras PTZ tout-en-un et pourront intégrer dans leurs studios des systèmes avancés comme des rails de traveling et dollies… Une intégration opportune qui devrait séduire les producteurs medias en recherche de solutions de direct tournées vers la simplification et la rationalisation…

 

L’équipe MULTICAM SYSTEMS vous donne rendez-vous sur le SATIS, le 5 et 6 Novembre prochains pour vous présenter toutes ses solutions…

  • 14 octobre 2019 à 17:00

Les résultats du POC organisé par Videlio et l’IIFA sur l’interopérabilité du ST-2110

Lors de la présentation des enseignements du POC, Emanuele Di Mauro a détaillé le fonctionnement des matériels dans le laboratoire de formation de Videlio. © IIFA

L’intégrateur broadcast Videlio Media et l’institut de formation IIFA ont organisé début juillet 2019 un POC centré sur l’interopérabilité au niveau de la structure et du contrôle des flux audiovisuels, transmis selon le standard ST-2110 pour la production live en IP. Réunissant douze constructeurs, ils ont montré que le transport vidéo sur IP est devenu une réalité en déployant six workflows de production.

 

Dans le domaine de la production vidéo live, la migration du câblage SDI vers des infrastructures tout IP est un mouvement inéluctable, en particulier grâce à la généralisation des interfaces 10, 25, 40 ou 100 Gb/s compatibles avec les débits nécessaires pour exploiter les flux non compressés, gérés par la norme SMPTE ST-2110.

Ces ports IP, destinés au transport en mode paquets des signaux vidéo et audio sans compression, sont de plus en plus présents sur les équipements de production : mélangeurs vidéo, processeurs, convertisseurs…

Après une première période centrée sur les normes SMPTE 2022, conçues dans une optique de transport global des signaux et de leur sécurisation, la norme ST-2110 répond en priorité aux besoins de la production au cours de laquelle il faut traiter de manière séparée chacune des « essences », la vidéo, les multiples pistes audio, les métadonnées, le contrôle et les références temporelles.

C’est pourquoi la norme ST-2110 est organisée en une longue série de chapitres (ST-2110-10, -20, -21, -30…), certains étant encore en cours de rédaction (voir tableau). La séparation des « essences » se prête bien à la mise en place des workflows média, dans lesquels chaque module est spécialisé pour traiter une essence donnée.

L’exploitation des équipements ST-2110 fait basculer l’univers traditionnel des broadcasters vers celui de l’IT et des réseaux IP pour lesquels les technologies et les procédures sont basées sur des concepts totalement inédits pour le monde de l’audiovisuel. La complexité de la norme ST-2110 et les nouvelles méthodes sur lesquelles elle s’appuie ne rassurent pas les exploitants et techniciens qui doivent entreprendre une véritable conversion culturelle.

Face à l’émergence de nouveaux projets basés sur le tout IP, les responsables de Videlio Media et de l’IIFA, un organisme de formation qui a déjà accompagné de nombreuses chaînes et équipes audiovisuelles dans ce travail de mutation vers l’IT, ont décidé d’organiser un POC (Proof Of Concept) pour vérifier l’interopérabilité des flux entre des équipements provenant de plusieurs constructeurs.

Outre cet aspect, il s’agissait également de montrer que la norme ST-2110 offre une véritable souplesse dans la gestion séparée des divers flux audiovisuels, à la fois pour optimiser au mieux la charge réseau, mais aussi offrir toute la souplesse indispensable en phase de production. L’une des fonctions clés d’une architecture tout IP est remplie par l’orchestrateur qui facilite le passage d’un workflow à l’autre et offre des outils de pilotage et des panneaux de commande similaires à ceux des régies câblées en SDI.

Enfin, le dernier objectif était de découvrir en configuration de production les bonnes pratiques de mise en œuvre de ces nouvelles architectures, leurs limites et les points à surveiller lors de la mise en place d’un système tout IP.

 

Douze constructeurs associés à ce POC

Au départ, les initiateurs du POC avaient prévu d’interconnecter cinq ou six équipements distincts fonctionnant en ST-2110. Mais devant l’intérêt suscité par une telle expérimentation, d’autres constructeurs ont contacté Videlio Media et l’IIFA pour s’y associer. Ce sont en définitive douze constructeurs qui ont participé au POC en mettant à disposition seize équipements distincts, le tout piloté par un orchestrateur Magellan d’Imagine Communications et par un logiciel développé lors du POC, exploitant les API fournies par les constructeurs.

Au cœur du dispositif, se trouve un switch réseau Cisco de la gamme Nexus 9000 avec 48 ports recevant des modules SFP avec un débit de 1, 10 ou 25 Gb/s et six interfaces 40 ou 100 Gb/s compatibles QSFP28. Aja avait fourni deux modules de conversion HDMI <-> ST-2110, l’un en sortie d’une caméra JVC et le second pour afficher des signaux ST-2110 sur un écran JVC. Embrionix a mis à disposition deux modules de conversion SFP équipés l’un d’une double entrée SDI et l’autre en double sortie SDI, eux aussi raccordés à des caméras et à des écrans, Sony et JVC en l’occurrence.

La fonction de playout était assurée par un serveur Harmonic Spectrum X. En plus de l’orchestrateur Magellan déjà cité, Imagine Communications avait fourni un module de monitoring multiviewer Epic, ainsi qu’un processeur de conversion et de traitement vidéo Selenio Network Processeur. Il permet de traiter 32 entrées et 32 sorties HD-SDI depuis et vers du ST-2110 sur un port 100 Gb/s. Sony était également présent avec une caméra HDC-3100 équipée d’une sortie IP ST-2110 et un mélangeur XVS-8000 équipé full IP. Il récupérait des sources via ses interfaces IP et renvoyait un mixage vidéo vers l’installation.

Une passerelle Nevion Virtuoso était affectée à la conversion de la sortie SDI du mélangeur NewTek, mais servait aussi à du monitoring. Un châssis Micron MediorNet de Riedel récupère quatre flux IP via son interface ST-2110, effectue du clean switch et extrait un contenu audio renvoyé vers le PowerCore Audio de Lawo. Malgré ses multiples possibilités de traitement et de conversion audio, ce dernier avait surtout pour fonction d’extraire des signaux audio depuis des flux IP et de les convertir en analogique vers une enceinte amplifiée.

En plus d’un mélangeur TC-1 et d’un TriCaster, NewTek était également présent avec sa passerelle NC1 I/O IP. Avec le NDI, ce constructeur développe son propre protocole vidéo sur IP, basé sur des principes techniques totalement différents de ceux du ST-2110. Mais grâce à cette passerelle les signaux ST-2110 du POC étaient renvoyés vers les mélangeurs NewTek et en retour la sortie mixée repartait vers les équipements du POC. Une première technologique en Europe qui montre avec quelle facilité le passage d’un environnement à l’autre se fait de manière transparente.

Tektronix jouait un rôle central dans la mise en œuvre de ce POC en fournissant un générateur de référence PTP SPG8000A et un outil de mesure Prism pour l’analyse des signaux.

 

Une gestion des workflows totalement inédite

L’ensemble de ces équipements ST-2110 a été déployé en sept jours dans l’espace de formation de Videlio à Gennevilliers sous la coordination de Pascal Souclier et d’Emanuele Di Mauro (respectivement directeur et responsable de projet à l’IIFA) et de Marc Deshayes, directeur technique de l’ingénierie système et Jean Felix Luigi, chef de projet chez Videlio.

L’objectif des organisateurs était de parvenir à configurer six workflows simples et opérationnels correspondant à des configurations de travail habituelles dans les chaînes TV : sélection et contrôle d’une source vers un écran, sélection d’un process vidéo IP vers IP, clean switch entre plusieurs sources (dont une non adressable directement), playout avec habillage et commutation sur une source live, gestion séparée de chaque flux audio et contrôle d’une sélection de sources via une API.

Lors de la présentation des résultats de ce POC, Emanuele Di Mauro est revenu sur quelques éléments essentiels concernant le déploiement d’une infrastructure tout IP : « Dans une installation tout IP, on est un peu démuni car on ne voit pas directement son workflow. En SDI, chaque matériel est équipé d’entrées et de sorties, câblées successivement. On voit physiquement son workflow et c’est très rassurant. Dans une architecture tout IP, tous les équipements sont reliés en étoile sur le switch central (ou dans une topologie arborescente de type Spine Leaf) grâce à des liaisons IP fonctionnant de manière bidirectionnelle. Avec la même infrastructure on peut passer d’un workflow à l’autre sans rien modifier au niveau câblage. Ça donne beaucoup plus de souplesse car on passe alors à une gestion dynamique des workflows. Mais il faut alors un autre outil : l’orchestrateur. »

L’orchestrateur peut fonctionner de deux manières. Soit il contrôle directement les équipements réseau pour aiguiller les paquets entre la source et la destination, soit il pilote les équipements de destination. Dans ce cas, les sources de contenus transmettent des flux émis en mode multicast, et c’est l’orchestrateur qui indique aux destinations sur quels flux elles doivent se connecter.

Dans le premier cas, on utilise des outils de type SDN (Software Defined Network) qui virtualisent les couches réseaux et transforment les switchs réseaux en sorte de gare de triage. Cette approche a l’inconvénient de dépendre de la couche de messagerie utilisée par les switchs. Pour ce POC, la méthode de contrôle des destinations a été choisie, en cohérence avec la tendance actuelle qui privilégie le contrôle des flux au niveau applicatif, en lien avec le standard NMOS. Ce dernier va probablement s’imposer, mais il n’est pas encore totalement implanté et confirmé.

Pour la mise en place du POC, ses responsables ont alors choisi de piloter les équipements grâce au protocole Ember +, créé à l’initiative de Lawo, et choisi par de nombreux constructeurs broadcast. Il offre une structure similaire à celui du SNMP avec des branches de paramètres imbriquées.

L’orchestrateur Magellan d’Imagine Communications contrôlait de manière directe les équipements de ce constructeur (le multiviewer Epic et le processeur Selenio), puis grâce à Ember + les modules SFP d’Embrionix et les convertisseurs AJA. Pour l’outil de mesure Prism de Tektronix, Imagine Communications avait déjà développé un « connecteur » logiciel approprié.

Pour d’autres matériels comme le serveur Spectrum X d’Harmonic ou l’interface audio Lawo, une technique particulière a été adoptée : au lieu de contrôler directement ces destinations par l’orchestrateur Magellan, ce dernier envoyait les commandes via un dispositif central de conversion IP <-> IP, le processeur Selenio qui faisait office de passerelle NAT Multicast.

 

Le rôle essentiel du protocole PTP

Comme dans les architectures de type SDI, l’intersynchronisation des sources est un élément essentiel pour assurer une commutation propre entre les sources d’images. Dans une infrastructure IP, celle-ci est obtenue grâce au protocole PTP (Precision Time Protocol), issu de la norme IEEE-1588, adaptée à la vidéo dans le cadre du ST-2059 et maintenant intégré dans la ST-2110-10. Le signal de référence temporelle est fourni par un équipement « maître » sur lequel tous les autres équipements vont se synchroniser en mode slave.

Dans le cas du POC, le signal de référence était fourni par le générateur Tektronix SPG8000A, renvoyé ensuite vers le switch Cisco et redistribué à tous les équipements qui y sont connectés. L’outil d’analyse Prism de Tektronix est un élément indispensable pour contrôler l’intersynchronisation des signaux entre eux. Le protocole PTP tient compte des temps de propagation aller et retour des signaux sur les liens IP. Lors du POC, il a fallu ajuster la durée de certains tampons pour tenir compte de disparités de latence entre les matériels de divers constructeurs.

La qualité et les performances des modules SFP sont aussi des éléments fondamentaux dans l’exploitation d’un système de production tout IP. Cisco fournit des modèles en conformité avec les spécifications de ces actifs réseaux. Mais il existe de nombreuses autres sources d’approvisionnement plus économiques. Lors du POC, les équipes techniques ont constaté des écarts importants de performances selon leur origine avec parfois des incidences sur les signaux, pas évidentes à diagnostiquer. L’outil d’analyse Prism s’est révélé être d’un grand secours pour détecter l’origine de ces dysfonctionnements.

Plusieurs fois, une manipulation sur un équipement ou même un simple déplacement de câble provoquait une perte d’images ou de signaux, qu’intuitivement il semblait facile à corriger alors qu’en réalité les analyses et les mesures du Prism permettaient d’en déceler la cause sur un autre équipement. Le surcoût engendré par les modules SFP performants et fiables est également un paramètre à prendre en compte dans la mise en place d’un système tout IP.

 

Une grille de commutation fonctionnelle grâce à une API programmée sur place

La plupart des équipements et des applicatifs sont fournis avec des API afin de les piloter par des systèmes externes. Dans le cadre du POC, Emanuele Di Mauro a développé à titre expérimental une interface web tactile pilotant les modules Embrionix de manière à les exploiter dans une configuration de grille de commutation. Ce module de contrôle a été développé en cinq heures en PHP-MySQL. Il démontre ainsi que dans une équipe technique en charge d’un système de production IP, il est fort utile qu’au moins l’un de ses membres possède des compétences en développement pour gérer des API pour des besoins spécifiques et remédier aux limitations des outils de pilotage ou de l’orchestrateur mis en place.

Au cours de la présentation qui a conclu la semaine de tests du POC, Emanuele Di Mauro est revenu sur plusieurs points essentiels à prendre en compte lors du déploiement d’une architecture de production tout IP.

« La mise en place d’un réseau IP pour traiter des flux audiovisuels ne s’improvise pas et exige de solides compétences IT dans l’équipe d’intégration. Les actifs réseau se configurent grâce à de multiples lignes de commande avec lesquelles il est indispensable d’être à l’aise », explique-t-il.

Le POC était organisé autour d’un seul switch réseau, mais pour un vrai système de production, plusieurs switchs seront associés dans des architectures redondantes et complexes comme celle des « Spine Leaf ». Il faut également maîtriser toutes les subtilités de l’adressage multicast et être très rigoureux dans le plan d’adressage des machines.

 

Associer des compétences réseau et métier

Les équipes techniques ont dû faire face également à des difficultés d’accès aux manuels et documentations techniques des matériels. Elles sont soit incomplètes ou pas tenues à jour par rapport aux évolutions des « firmwares ». Plusieurs fois, ils ont dû se faire confirmer des informations techniques via des échanges directs avec les supports techniques des constructeurs.

Encore plus surprenant, certains matériels ont été fournis dans des configurations ou avec des versions logicielles ne correspondant pas à ce qui était annoncé. L’analyseur Prism a été d’un grand secours pour détecter immédiatement les caractéristiques réelles du signal fourni. Ainsi, par exemple, un équipement était annoncé ST-2110 alors que les signaux fournis étaient en 2022-6.

Mais pour Emanuele Di Mauro, « Le plus gros challenge lors du déploiement d’un système de production tout IP se situe au niveau de la constitution de l’équipe technique. Trois pôles de compétences doivent être réunis. Bien sûr un chef de projet avec une vraie expérience métier du broadcast, et au même niveau, un second responsable avec une véritable vision IT de l’installation et en complément un ou plusieurs développeurs selon la taille du projet. Ces derniers prendront en charge la conception des IHM pour piloter et centraliser l’interface utilisateur avec les API fournies par les équipements. »

 

Article paru pour la première fois dans Mediakwest #33, dans le cadre de notre dossier « Les nouvelles architectures des chaînes de télévision », p.50/52. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 13 octobre 2019 à 16:03

NextRadioTV, prêt pour le futur

Les moyens techniques des régies sont uniformisés le plus possible. Il y a pour le moment sept régies, qui peuvent gérer les différents plateaux. © DR

Inauguré officiellement il y a quelques mois, le nouveau siège de NextRadioTV est une réalisation exemplaire qui associe des outils de pointe sur une infrastructure hybride. L’une des difficultés du projet fut de maintenir une activité de continuité alors que progressivement le site du nouveau Campus montait en charge. Cela a été rendu possible notamment grâce à la solution Riedel, permettant un maillage étroit facilitant la migration. Entretien avec Antoine Robelin, directeur technique broadcast, et Steven Robert, chef de projets broadcast au sein de NextRadioTV.

 

Le site historique de NextRadioTV de la rue d’Oradour-sur-Glane, dans le 15e arrondissement de Paris, était considéré comme trop exigu depuis un certain temps, avec les activités croissantes sur le site de RMC, BFMTV, BFM Business, puis le lancement des chaînes sport. En recherche d’un nouveau site, le projet s’est arrêté avec le rachat par le groupe Altice.

Une fois cette acquisition opérée, le projet est revenu sur le devant de la scène. Ce projet consistait, pour les chaînes du groupe, à intégrer le Campus Altice (siuté en face de France Télévisions) qui comprend quatre bâtiments. NextRadioTV devait être ainsi constitué de la partie Media Radio, Télévision et digital au sein du bâtiment Est qui comprend également quelques titres de presse comme Libération et L’Express.

Il a fallu redimensionner, en cours de rédaction du cahier des charges, les infrastructures, comme le souligne Antoine Robelin. « Nous avions défini les moyens techniques sur le site pour accueillir BFMTV, BFM Business, RMC Radio, RMC Découverte et RMC Story, et pendant que nous étions dans l’écriture du cahier des charges, le groupe a acquis les droits de la Ligue Europa et de la Ligue des Champions. Nous avons modifié pendant le projet une grosse partie du cahier des charges et des spécifications techniques. Cela a conduit à la création de chaînes et d’un rebranding complet de toute l’offre sport. Le projet à l’origine comprenait cinq plateaux, cinq régies et au final nous nous sommes retrouvés avec sept plateaux et sept régies. Toutes les continuités TV et Radio ont été intégrées pour l’ensemble du groupe. »

Pour simplifier les process de travail pour les techniciens, et rendre plus aisé le travail entre les différentes régies, les moyens techniques sont les plus uniformes possible. Ainsi, des mélangeurs Kahuna Grass Valley ont été choisis pour les régies 1, 2, 3 et des mélangeurs plus compacts Kula pour les régies de 4 à 7. Pour les moyens audio, ce sont des consoles Studer Vista, y compris sur les radios. Les routings vidéo et audio sont basés sur un système Riedel mediornet et sur des routers audio studer et le tout piloté par Cerebrum d’Axon.

Une régie finale unique assure la continuité pour l’ensemble des chaînes de TV et radios du groupe. Quelque 13 départs TV premiums sont opérés, dont 1 en UHD, 10 chaînes évènementielles pour les évènements sportifs, ainsi que 2 radios nationales. Le trafic unique gère le routing de l’ensemble des signaux de contribution entrants et sortants ainsi que l’ingest.

 

Une expansion rendue possible grâce à la modularité du système

Toutefois, malgré l’arrivée des nouvelles chaînes, il reste encore du potentiel de croissance ; le groupe travaille d’ailleurs sur le projet de déploiement régional. Récemment, Altice a fait l’acquisition de la chaîne locale TLM (Télé Lyon Métropole), qui va devenir BFM Lyon, et une envie d’avoir d’autres chaînes en région se fait sentir.

Trois catégories de chaînes sont développées : des chaînes news (live) avec, entre autres, BFMTV qui est le vaisseau amiral avec vingt heures de direct par jour, 4h30/00h30 en 24/24 sur la production, avec également BFM Business, BFM Paris, et prochainement BFM Lyon. Des chaînes de flux sont également proposées avec RMC Story, RMC Découverte, qui comprennent aussi des tranches de live, notamment avec le direct de Jean-Jacques Bourdin sur RMC Découverte chaque matin, et les Grandes Gueules sur RMC Story.

Le troisième cas de figure, et c’est l’une des spécificités du groupe, ce sont les synchros radio TV : « Faire de la radio, on savait faire ; de la télévision, on savait faire, mais radio et TV dans une plate-forme intégrée, c’est le plus gros challenge du groupe. Chaque plateau, chaque régie est capable de faire de la radio ou de la télévision. Il est possible de prendre l’antenne de n’importe quel endroit – nous ne sommes pas dans quelque chose de connu, il faut donc inventer des process nouveaux avec des responsables d’exploitation qui doivent maîtriser leurs outils. Radio et TV sont à la base deux métiers différents que nous parvenons à fusionner grâce aux synergies souhaitées depuis longtemps par Alain Weill et l’équipe dirigeante du groupe », insiste Antoine Robelin

 

Riedel, le facilitateur

NextRadioTV a fait le choix d’une infrastructure évolutive, hybride ; comme le fait remarquer Steven Robert : « Nous avons commencé à discuter avec Riedel au début du projet. Nous nous sommes posé la question : IP ou pas ? En 2016 l’IP était encore peu développé, les standards pas stabilisés, cela coûtait très cher et notre équipe de R & D n’était pas formée, en termes de compétences réseau, à ces technologies. Nous avons donc mis rapidement de côté l’IP. Nous ne voulions pas forcément non plus une infrastructure très classique avec des grilles SDI qui n’auraient pas été très évolutives. Nous avons cherché une solution décentralisée mais qui puisse progresser dans le temps. Nous souhaitions avoir un câblage “futur proof” entièrement fibre. Pour ne pas avoir à refaire le câblage lors d’une évolution IP, nous avons donc opté pour une solution hybride avec la solution Mediornet de Riedel. »

La plate-forme est constituée d’un ensemble d’éléments MicroN 12 entrées/12 sorties, il y a 190 MicroN qui sont répartis au plus proche des salles des techniques, des équipements. L’avantage avec Riedel, c’est qu’il ne comporte pas de maillage SDI cuivre Complexe à déployer sur un bâtiment de la taille de celui de NextRadioTV, les longueurs de câbles étant très importantes. Les modules sont répartis dans les régies et plateaux pour alimenter les murs d’images en plateau, les mosaïques, les moniteurs de contrôle dans les différentes régies. Le réseau est étendu dans les étages pour les newsroom, cabine speak, contrôle technique, salle de montage, poste QC…

Il y a deux salles techniques. Une au premier étage et l’autre au sous-sol. La majorité des équipements se répartit entre les deux. Ces salles accueillent les équipements production et postproduction des régies.

La solution Riedel permet d’innerver les différentes parties du bâtiment pour échanger des signaux dans l’intégralité des étages, toujours en transportant les signaux en fibre ; le maillage est très important, vu la taille du bâtiment. La technologie Riedel est dédiée à la production et le trafic ; elle est interconnectée avec d’autres grilles pour la diffusion. Pour la diffusion, l’architecture est plus classique, avec deux grilles Grass Valley en SDI.

La migration s’est faite sur plusieurs mois et la technologie Riedel a facilité le processus. Le réseau avait été étendu entre les deux sites. 4 Micron étaient déportés sur le site Oradour, permettant le routage de 48 signaux HD-SDI dans chaque sens « Nous avons étendu le réseau aux deux sites afin que les utilisateurs évoluent dans un environnement unique. Tout le monde travaillait dans un environnement unique ; le NRCS étant le même, en l’occurrence Dalet, les équipes ont travaillé sur le même système ; il n’y avait pas besoin de créer de site miroir avec synchro de base de données, ce qui a permis une transition assez douce. »

« Pareil côté trafic audio et vidéo. Nous avons basculé petit à petit sur toutes les ressources, y compris pour les transmissions. Nous avons pu déménager des antennes satellites d’Oradour au nouveau Campus et en acheter quelques-unes supplémentaires, plutôt que de tout racheter. Le groupe NextRadioTV exploite son propre téléport composé d’antennes fixes et motorisées réparties sur deux sites géographiques distincts. Le premier étant le Campus Altice et le second situé à une quarantaine de kilomètres de Paris. Nous rapatrions par fibre les signaux bande L depuis le téléport distant pour alimenter les IRDs du trafic. Pour l’ensemble des liaisons intersites nécessaires à la double exploitation, ainsi que pour les liaisons du téléport satellite au Campus Altice, nous nous basons sur des fibres déployées par SFR », poursuit Antoine Robelin.

 

Production et postproduction

Pour la prise de vue, tous les plateaux disposent de caméras automatisées, mais il est possible à tout moment de reprendre la main. Des caméras à l’épaule servent pour certaines productions en public. Toutes les caméras, hors plateau 4, sont des caméras Sony 4300 ou P43, excepté BFM Business qui exploite des PTZ H800. Les caméras sont placées sur des têtes Ross VR100 et VR600 (prompteur).

Le MAM est sur la technologie Dalet. Les montages magazines (news et sport) sont effectués sur Adobe Premiere pro avec plug-in Dalet Extend qui permet depuis Adobe d’avoir accès à l’intégralité des contenus du MAM Dalet. Concernant le stockage, il n’y a pas un stockage centralisé, mais plusieurs serveurs de stockage production et stockage plus froid pour les archives. Tout est sur serveur. Pas de bande.

 

Bilan et futur

La transition s’est bien passée. Ce fut un gros changement ; il a fallu former toutes les équipes de maintenance, mais aussi les équipes d’exploitation sur les nouveaux outils, tout en assurant la continuité. Redbee Media, filiale d’Ericsson, est l’intégrateur qui a été choisi pour accompagner NextRadioTV sur cet énorme projet. Les équipes d’ingénierie Redbee ont travaillé main dans la main avec les équipes NextRadioTV afin de construire l’un des plus gros sites de production et de diffusion TV et radio de France. Les équipes support ont été intégrées dès le début du projet afin d’être autonomes lors de la mise en production du site.

Aujourd’hui la technologie est stabilisée, le site est pris en main et l’idée désormais est de passer à l’étape supérieure. Il s’agit notamment de travailler sur le déploiement de décors virtuels plus complexes, de la réalité augmentée en s’appuyant sur des partenaires comme Avid, Zero Density /Dreamwall, ainsi que VizRT.

 

Article paru pour la première fois dans Mediakwest #32, p.92/93. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 octobre 2019 à 17:00

France Télévisions UHD, 8K, 5G sur Roland Garros 2019

Dans le car régie de France Télévisions (Toulouse) qui produisait le signal international. © DR

Dans la continuité de ce qui avait été fait en 2018 sur les expérimentations en Ultra HD, France Télévisions est reparti sur les mêmes bases, mais en enrichissant grandement le dispositif et l’expérience utilisateur. Une chaîne événementielle UHD 4K était disponible en TNT, satellite et IPTV durant la totalité de la quinzaine. Une expérimentation de télévision en 8K et transmission 5G a également été testée, préfigurant l’un des futurs de la télévision. Visite des installations à Roland Garros et à France Télévisions.

 

Pour une fois commençons par l’audio ! Le dispositif était sensiblement le même qu’en 2018, sauf qu’entretemps le court central ayant été reconstruit, il était nécessaire de prendre d’autres repères pour le placement des microphones, notamment pour le système immersif Schoeps ORTF-3D (huit capsules audio) chargé de la captation de l’ambiance générale en 3D.

Placé sous le premier balcon, ce système baignait au milieu des spectateurs. Quant aux microphones directifs disposés autour du court, ils se focalisaient sur les sons du jeu : frappes, cris, courses et annonces arbitrales. Le car-régie a produit le signal international en 9.1 associé à un « objet sonore » optionnel proposant les commentaires en français. Les métadonnées audio nécessaires à la description et le monitoring de ce flux « audio orienté objets » ont été édités grâce un équipement Jünger.

Sur la TNT et le satellite (Fransat), une composante audio orientée objets encodé en Mpeg-H 3D fut proposée, permettant aux téléspectateurs équipés de matériel compatible de bénéficier d’un son immersif et interactif, d’ajuster le niveau sonore du commentaire et profiter de l’ambiance sonore du court en immersion.

À date, les seuls équipements disponibles sur le marché sont des barres de son 3D ou des amplificateurs AV dotés d’un décodeur Mpeg-H. Les fabricants de téléviseurs, lorsqu’ils supportent le Mpeg-H, proposent pour l’instant un simple rendu stéréo et non pas de l’audio 3D. Les premières interfaces Next Generation Audio intégrées dans les TV sont annoncées sur les modèles 2020.

Pour les équipements de réception audio classiques, une version proposant le son d’ambiance 3D du court Philippe Chatrier en binaural a été fabriquée. Cette version a été proposée sur le réseau Orange, en complément d’une version française classique et d’une autre version française dont le niveau des commentaires était renforcé pour les malentendants.

 

Dans le car-régie

Sur place, le signal UHD était produit par un car de production de France Télévisions (Toulouse), également en charge du signal international HD. Si ce car est bien UHD, le monitoring reste toutefois HD, et seuls 2 postes d’ingévision et celui du chef de car permettent de visualiser le signal UHD et vérifier l’intégrité du signal UHD en Haute Dynamique (HDR). La production reste donc principalement en HD, et le signal UHD est considéré comme une couche logique du mélangeur qui est manipulée et habillée en parallèle du signal HD.

Le dispositif de captation était constitué de douze caméras UHD Panasonic AK-UC4000 pour la réalisation principale et d’une caméra Sony HDC-4300 (Spider-cam). Ce dispositif était complété par 5 caméras HD upconverties en UHD (caméras dans le filet, CableCam, chaise-arbitre et entrée des joueurs) et 6 serveurs de ralenti HD upconvertis également.

Ajuster la colorimétrie entre différents modèles et marques de caméras est toujours un challenge, surtout lorsqu’il faut aussi homogénéiser la couleur de la terre battue d’un court à l’autre. Dans le cas de cette production parallèle UHD-HDR et HD-SDR, l’équation se complique à l’extrême. En UHD-HDR, le standard frise le milliard de couleurs, contre 16 millions en HD-SDR. L’usage veut qu’en HD l’image apparaisse flatteuse au prix de quelques exagérations chromatiques, tandis que le réalisme des couleurs UHD-HDR implique de s’en passer au profit des teintes naturelles.

Les caméras Panasonic offrent justement deux réglages de saturation colorimétrique distincts permettant d’adapter les signaux UHD-HDR et HD-SDR à ces deux esthétiques de production. Cette option n’est pas disponible sur les caméras Sony, dont il a fallu réduire l’excès chromatique de l’image UHD-HDR pour obtenir une image HD comparable aux autres caméras, malheureusement sans possibilité d’atteindre la perfection. L’up-conversion UHD-HDR des caméras HD fut confiée à des convertisseurs Cobalt (technologie Technicolor/InterDigital) dont l’algorithme permet une adaptation automatique aux variations de luminosité au cours de la journée. Les ralentis ont été convertis avec la technologie Sony (HDRC-4000).

 

Comment maîtriser le HDR

Produire en UHD-HDR, tout en donnant la priorité à un signal HD-SDR destiné à 99% des téléspectateurs, pose problème. Les ingénieurs vision se focalisent sur leur écran HD-SDR, lequel ne leur permet ni de valider la mise au point d’une caméra en 4K, ni l’évidence d’un raccord de luminosité ou de colorimétrie. Lors des changements importants de luminosité, il est arrivé fréquemment qu’un ingévision considère deux caméras homogènes en HD-SDR, avant de s’apercevoir, plusieurs minutes plus tard, que les signaux présentent une différence notable sur un écran UHD-HDR quatre fois plus précis. Seule solution pour sortir de ce piège : produire en UHD-HDR puis créer les déclinaisons SDR et HD-SDR à partir du HDR. Cette option n’est pas prévue pour le moment à Roland Garros.

Le signal UHD, produit en HLG, et les composantes audio associées ont été transportés en IP par une fibre optique de la porte d’Auteuil au siège de France Télévisions. C’est la régie finale de France Télévisions (le CDE – Centre de diffusion et d’échanges) qui a récupéré le signal afin de réaliser l’habillage de la chaîne (alternance des directs et rediffusions, bandes annonces, publicités, insertion de logos…) et qui a adapté les caractéristiques de cette chaîne événementielle France TV Sport aux différents réseaux de distribution. Les contenus ont été convertis en HDR10 assorties de métadonnées SL-HDR2 (technologie Philips/Technicolor) avec des cartes Cobalt. Ces métadonnées sont interprétées par les téléviseurs HDR.

Le choix de cette technologie a empêché la réception de cette chaîne UHD-HDR par certaines anciennes TV UHD, mais en contrepartie les téléviseurs compatibles ont pu bénéficier d’une meilleure qualité de service et d’un visuel amélioré. En parallèle, le signal UHD-HDR a également été converti en UHD-SDR pour alimenter le réseau IPTV d’Orange.

 

Une régie UHD chez France Télévisions

Désormais, France Télévisions dispose d’une régie de diffusion UHD. Le projet a été initié au mois de février, porté par la cellule Innovations & Développements de la direction des Technologies. Tout a été fait en un mois, l’appel d’offres lancé fin mars, avec la réception des équipements fin avril.

« Nous voulions à l’origine une régie en SMPTE 2110, mais les constructeurs n’étaient pas capables de fournir dans les temps pour Roland Garros. L’appel d’offres est constitué de trois parties : une partie pour les liaisons de contribution entre RG et la régie, une partie pour l’enregistrement des matches et playout et une partie pour l’infrastructure réseau. La société Harmonic a gagné l’AO sur les deux premiers lots. Ils n’étaient pas en capacité de livrer dans les temps pour RG. Ils ont livré en 4 x 3G SDI sur une base Spectrum X, et durant l’été nous avons eu la livraison de la version Spectrum X2 en SMPTE 2110 », souligne Claire Mérienne-Santoni, chef de projets Technologies au sein de la Direction Innovations & Développements de France Télévisions.

France Télévisions envisage de réaliser des productions futures sur le sport, mais aussi sur des événements de divertissement. Dans les prochains projets, il devrait y avoir la captation et la transmission de la course cycliste Paris-Tours en octobre 2019 où s’effectueront des tests HF en UHD avec Euromedia.

 

 

FRANCE TV LAB PREMIÈRE MONDIALE TV 8K & 5G

La Fédération Française de Tennis (FFT) a une nouvelle fois challengé les équipes du Lab de France Télévisions pour mener une expérimentation autour de technologies avancées, comme la production TV en 8K et la diffusion en direct et en 5G avec Orange, son fournisseur officiel, avec plus de 100 heures de programmes en direct.

« Le nouveau court Philippe Chatrier préfigure le futur du tennis ; il s’agissait de donner notre vision du futur de la télévision dans ce stade rénové. Nous pensons que la 5G et le 8K seront des technologies très complémentaires qui auront un rôle important dans la décennie à venir », souligne Bernard Fontaine, directeur d’Innovations technologiques à France Télévisions, en charge du projet.

France Télévisions a ainsi réuni et piloté 20 partenaires venus du monde entier pour cette opération. Objectif : reproduire en 8K tous les usages actuels de la TV qu’elle soit en Live, Replay ou VOD ! Les caméras 8K Sharp reliées par fibre par Ereca avec Synoptics Broadcast sur un mélangeur de Blackmagic Design pour commuter les sources live et y faire l’habillage du programme. Trois encodeurs retenus, NEC et Advantech (hard et l’autre hard et soft), et un prototype Intel, tous encodaient en parallèle pour y tester différentes stratégies d’encodage.

Tous ces produits arrivent très vite sur le marché professionnel pas seulement par la demande japonaise, mais aussi par l’arrivée sur tous les continents des téléviseurs 8K qui vont avoir besoin de contenus encodé dans ce format.

La plateforme de traitement 8K était signée Harmonic et Intel. Elle permettait d’y traiter les formats de type 8K HDR, les transcodages temps réel multi résolutions adaptés à tous types d’écrans et de besoins. Un dispositif original réalisé par TiledMedia était testé pour permettre l’accès à un contenu 8K sur un écran HD de tablette en se déplaçant dans l’image du programme UHD 8K. La diffusion fut confiée par Orange à Nokia via son cœur de réseau 5G associé à des antennes 3.6 Ghz.

La réception des flux de streaming d’une centaine de Mb a été rendue possible par les modems Qualcomm 5G des mobiles Oppo (Reno) via un partage de connexion sur des PC Intel équipés des cartes nVidia et de players logiciels, comme Spin Digital ou Open Source, avec la participation très active de VLC à cette opération.

L’affichage des programmes 8K en 5G était, lui, effectué sur des dalles Sharp 8K HDR (75’) pilotées par l’app France TV réalisée par Videolabs et aussi une dalle 85’ Samsung qui, elle, était chargée de recevoir en fin de quinzaine les flux 8K testés et transmis par Eutelsat.

 

Merci aux équipes de France Télévisions, en particulier Matthieu Parmentier, pour la visite des infrastructures.

Article paru pour la première fois dans Mediakwest #33, p.84/86. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

  • 9 octobre 2019 à 17:00

IBC 2019 : NewTek et 3D Storm, l'aventure NDI ne fait que commencer !

IBC 2019 : NewTek et 3D Storm, l’aventure NDI ne fait que commencer ! © Nathalie Klimberg

Il s’agissait du premier IBC de Newtek sous l’étendard de Vizrt, l’acquisition ayant été officialisée sur le NAB…

 

Une version 4 de NDI, Live Story Creator (un outil disruptif proposé dans la suite Premium Access), un nouveau Tricaster, toute une famille de convertisseurs NDI, des updates dans la famille Live Expert… Voilà les principales nouveautés que l’on pouvait retrouver sur les stands Newtek et 3DStorm (le distributeur de Newtek pour l’Europe) de cet IBC 2019.

 

NDI entre dans l’ère de sa version 4…

NDI, désormais marque du groupe Vizrt, est aujourd’hui une norme IP dominante pour l’industrie des médias utilisant les réseaux Ethernet standards et des environnements mobiles.

Apparu il y a 4 ans et implémentée dans des milliards d'appareils du monde entier, Ce protocole annonce une version 4 qui repousse les limites de sa flexibilité…

Avec cette mise à jour, NDI peut sur une connexion WiFi véhiculer un signal vidéo avec une résolution jusqu'à 4K UHD, via un appareil mobile iOS et tout autre système compatible NDI…

"Notre mission est de rendre la vidéo accessible au plus grand nombre et agréable à produire et à diffuser. Il est clair que l’approche Vidéo software–defined est en train de changer la façon de produire et la quatrième génération de technologies NDI en profite pour combler le fossé entre le live et la post production en favorisant la création de workflows jusqu’à présent inenvisageables » explique Dr Andrew Cross, président de R & D pour le groupe Vizrt et inventeur du NDI.

 

Les principales nouveautés de NDI version 4…

- Prise en charge du canal alpha et data path 16 bits. Prise en prise en charge de l'UHD et au-delà

- Prise en charge de plus de 64 canaux audios, à toutes les fréquences d'échantillonnage

- Prise en charge de métadonnées extensibles

- Codecs audio et vidéo intégrés pour une utilisation dans des environnements sans fil et en remote

  

Live Story Creator

Sur le salon, NewTek exposait Premium Access, son nouveau pack logiciel d’utilitaires pour les régies NewTek VMC1 et TriCaster TC1. Parmi ces utilitaires, Live Story Creator s’appuie sur une intelligence artificielle pour proposer une automation de programmes plutôt révolutionnaire… Conçu comme un simple script intégré à Microsoft Word et doté de déclencheurs d’actions, ce Live Story Creator permet, une fois installé sur un TriCaster ou un VMC1, d’exécuter le script souhaité sans expérience de programmation.

NewTek Premium Access à partir de 2 299€ HT

 

 

La régie de direct TriCaster 410 Plus, dévoilée au printemps dernier, était aussi sous le feu de la rampe…

Celui-ci dispose de 8 entrées externes, 4 sorties M/Es, 4 sorties mixtes, ainsi que d’une intégration NDI pour la transmission de la vidéo, de l’audio et de données sur IP. Très complet, le système propose de multiples fonctionnalités : une publication en temps réel sur les réseaux sociaux, l’enregistrement multicanal, la lecture vidéo, des templates graphiques, des fonctionnalités de compositing…

La solution a notamment déjà été adoptée en Europe par le Wanda Stadium de Madrid...

TriCaster TC410 Plus à partir de 9 995€ HT

 

 

Une gamme de convertisseurs NDI plus que complète !

3D Storm présentait également toute la gamme des convertisseurs video NDI Spark de NewTek : Connect Spark SDI, Connect Spark HDMI, Spark Plus 4K et Connect Spark Pro… Et DELTA-neo N2H, sont petit boîtier conçu pour décoder et de visualiser tout flux NDI sur les périphériques d’affichage HDMI, les écrans de télévision et les projecteurs vidéo. Ce décodeur NDI haut débit de Deltacast détecte automatiquement le format de flux, le décode et le convertit au format HDMI avec audio intégré en observant une grande stabilité et une très faible latence.

DELTA-neo N2H prix de vente conseillé : 495€ HT

 

 

Retrouvez 3D Storm et les produits Newtek sur le SATIS Screen4ALL, les 5 et 6 Novembre prochains aux Docks de Paris >> https://buff.ly/328I9M0

  • 9 octobre 2019 à 17:00

TF1 étend son usage de ContentAgent pour ses workflows

TF1 étend son usage de ContentAgent pour ses workflows © Nathalie Klimberg

Le Groupe TF1 optimise une partie de ses workflows d’acquisition et de livraison grâce à la solution ContentAgent développée par Root6 dont les intérêts sont représentés en France et en Belgique par la société IVORY.

 

Premier groupe de télévision français, le Groupe TF1 s’est engagé depuis plusieurs années dans une transformation en profondeur autour de 3 pôles stratégiques pour devenir un groupe leader de contenus médias, TV et digital, intégré de la production à la distribution. Le Groupe opère et développe notamment 5 chaînes en clair et des chaînes thématiques payantes ainsi que leurs déclinaisons digitales.

 

Le Groupe TF1 souhaitait faire évoluer leur dispositif de traitement de fichiers vers une solution plus performante et plus ergonomique, capable de décider automatiquement du traitement à appliquer à un nombre croissant de médias et les livrer dans des formats et codecs très variés.

C’est dans cet esprit que le Groupe TF1 a choisi d’étendre son usage de ContentAgent à une partie de ses workflows d’acquisition et de livraison. ContentAgent est une plateforme innovante d’acquisition, d’orchestration de tâches techniques et de transcodage puissante développée par l’éditeur britannique Root6.

 

ContentAgent était déjà utilisée au sein du Groupe pour automatiser les échanges de fichiers entre l’archive et les systèmes Avid de post-production. Après cette première collaboration fructueuse, le Groupe TF1 s’est à nouveau tourné vers leur partenaire CTM Solutions pour intégrer l’outil au sein de 3 pôles d’activités : post-production, bandes annonces et laboratoire.

 

ContentAgent est désormais exploité au quotidien et gère notamment l’orchestration des workflows et la normalisation pour le laboratoire du Groupe. Le laboratoire sert de hub centralisé pour l’acquisition et la mise à disposition des fichiers médias dématérialisés aux différentes équipes internes de TF1. Très efficace dans la manipulation d’images au format 4K, ContentAgent est particulièrement adapté au développement ambitieux de TF1 dans ce domaine.

 

Yves Bouillon Directeur Adjoint de la Diffusion des Chaînes et Responsable du Pôle Préparation des Médias explique que « l’ergonomie, les fonctionnalités avancées et la performance du moteur de workflow nous ont motivées dans le choix de cet outil pour le Groupe. En automatisant de nombreuses tâches complexes et répétitives, ContentAgent permet un véritable gain de productivité et une optimisation des coûts. Les équipes éditoriales peuvent se concentrer sur les processus créatifs et non sur l’orchestration des tâches techniques. »

  • 7 octobre 2019 à 17:32

IBC 2019 : KVM, encodage 4K et gestion de murs vidéo au menu chez Matrox

IBC 2019 : KVM, encodage 4K et gestion de murs vidéo au menu chez Matrox © Nathalie Klimberg

Sur cet IBC, Matrox avait déployé la totalité de son portfolio de produits destinés aux industries audiovisuelles : encodeurs et décodeurs HD, 4K, cartes d’entrées / sorties vidéo SMPTE ST 2110 et SDI, extensions IP KVM, cartes vidéo... Parmi tous ces produits, les KVM IP Matrox Extio 3, le Monarch Edge, qui faisait sa première sortie sur IBC et sa toute nouvelle solution dédiée aux murs d’images QuadHead2Go retenaient plus particulièrement l’attention…

 

Un nouveau mode agrégateur pour les KVM IP Matrox Extio 3…

Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. Cet environnement de commutation matriciel KVM évolutif est économique puisqu’il utilise des commutateurs de réseaux standards. Conçus pour des applications hautes performances, les KVM IP de la série Matrox Extio 3 offrent des performances 4Kp60 4: 4: 4 ou quadruples 1080p60 4: 4: 4 sur un réseau Ethernet Gigabit standard (fibre optique ou cuivre). Le nouveau mode agrégateur permet de surveiller et contrôler simultanément plusieurs systèmes à partir d'un espace de travail multi-écrans distant avec un seul clavier et une seule souris, l’application de configuration et de gestion est très intuitive…

Cette nouvelle génération de KVM est disponible en deux modèles… Extio 3 N3208, pour une prise en charge du double signal 1920x1200 à 60Hz et Extio 3 N3408 qui prend en charge jusqu’à quatre signaux 1920x1080 à 60Hz, deux 2560x1600 à 60Hz ou un seul signal 4K UHD 3840x2160 à 60Hz.

  

Premier IBC pour l’encodeur Matrox Monarch Edge…

Récompensé sur le NAB en tant que meilleur produit de l’année dans la catégorie « Remote Production », le Monarch Edge est un encodeur 4K/multi-HD à faible latence (50ms). Dévolu aux applications de webcasting et de production remote (REMI, pour Remote Integration), cet encodeur H.264 est capable de transporter de la vidéo en 10 bit 4: 2: 2 pour de la diffusion de directs multicanal à des résolutions allant jusqu'à 3840x2160 à 60 i/s.

Utilisé comme encodeur de contribution Web 4K « classique » ou en déporté, il pourra prendre en charge les principaux protocoles de transport permettant de diffuser des vidéos sur des réseaux GigE (MPEG-2 TS, RTP/RTSP, SRT, RTMP).

 

QuadHead2Go, la réponse de Matrox à la gestion murs d’images…

QuadHead2Go est une gamme de contrôleurs multi-écrans conçus pour offrir un moyen plus simple et pratique de déployer des installations de murs vidéo artistiques. Dévoilés sur InfoComm, ces contrôleurs peuvent gérer une source vidéo unique sur quatre écrans maximum dans des configurations rectangulaires ou artistiques, ou les utilisateurs peuvent combiner plusieurs unités QuadHead2Go avec des cartes graphiques Matrox ou tierces pour créer des murs vidéo à très grande échelle. Un boîtier dispose de 4 sorties HDMI, d’une mémoire de 1GB, d’une entrée standard supportant des flux jusqu’à 7680x1080 @60Hz. Ses processeurs lui permettent un affichage RGB: 8:8:8 (24 bits par pixel).

  • 7 octobre 2019 à 17:00

IBC 2019 : HDR-EVIE, la conversion HDR/SDR en temps réel devient une réalité !

HDR-EVIE, la conversion HDR/SDR en temps réel devient possible ! © DR

HDR Evie de Lynx Technik est le premier système au monde à utiliser des algorithmes permettant l’analyse automatique du contenu d’une image vidéo et l'application de corrections optimales, en temps réel et image par image. Cette capacité unique en fait un de outil de production idéal pour les applications sportives ou tout événement de diffusion en direct souhaitant produire une conversion HDR en temps réel de qualité.

 

Beaucoup d'outils de conversion temps réel HDR vers SDR utilisent une table de conversion statique de type LUT qui applique une correction globale et uniforme sur tout le contenu. LYNX Technik propose aussi ce type de solution «HDR Static», qui produit des résultats impressionnants et est idéal pour les environnements contrôlés, tels que : studios de télévision et production off-line. 

Toutefois, pour obtenir des résultats vraiment exceptionnels, capables de s’adapter automatiquement aux modifications brutales des niveaux de luminosité, un traitement image par image est nécessaire.

S'il existe aussi des solutions de conversion HDR vers SDR «image par image»  déjà disponibles sur le marché, elles offre un post-traitement nécessitant un ajustement et une définition des «métadonnées» pour chaque image, qui sont ensuite utilisées lors de la lecture en temps réel du contenu : ce processus, long et coûteux,  est finalement peu adéquate pour des applications de diffusion en direct.

Avec ses algorithmes propriétaires développés en coopération avec l'Université de Sciences Appliquées à Wiesbaden (Allemagne), HDR Evie propose des résultats exceptionnels et prrésentés commesupérieurs à toutes les autres solutions de conversion SDR vers HDR disponibles à ce jour.

 

 

Les caractéristiques...

- Analyse et correction «image par image» en temps réel

- 1 canal 4K UHD ou 4 canaux 3G HD (commutable)

- Synchroniseur d'images intégré avec cross conversion (up / down)

- Entrées 12G SDI 4K UHD ou 2SI (quadruple 3G)

- Options d’I/O pour Fibre 12G SDI

- Compatible avec les normes HLG, PQ, SDR et SLog3

- Contrôle en face avant ou interface graphique intuitive

- Fonctionne sur greenMachine "Titan"

 

 

  • 3 octobre 2019 à 17:00
❌