Collanews

🔒
☐ ☆ ✇ Mediakwest - Broadcast

Century Link renforce son déploiement en Europe

— 12 janvier 2020 à 16:00
François Collobert, directeur commercial Emea Century Link © Nathalie Klimberg

Avec un déploiement de 700 000 kilomètres de fibre et 120 PoP dans le monde, Century Link représente le deuxième opérateur réseau américain. La société, qui propose des services CDN capacité de pointe dépassant 120 Tbit/s, a depuis deux ans investi 700 millions de dollars pour renforcer la capacité de ses nœuds CDN ; elle a aussi étoffé ses ressources humaines en Europe, avec l’ambition de renforcer sa présence auprès de clients tels que les fournisseurs, broadcasters, opérateurs OTT…

 

« Notre proposition économique s’appuie sur la flexibilité et l’adaptation aux modèles économiques de nos clients, cela peut prendre parfois la forme d’un « flat fee » par exemple, c’est-à-dire sur un prix négocié d’avance, quelle que soit l’audience, il n’y a donc pas de mauvaise surprise au moment du règlement de la facture, ce qui séduit. Pour preuve, nous comptons déjà parmi nos clients neuf des dix plus grandes sociétés médias au monde en 2019 », souligne François Collobert, récemment nommé directeur commercial Emea.

Sur IBC, CenturyLink a annoncé l’acquisition de la société française Streamroot, leader de technologies de diffusion dans des zones à bande passante limitée. Cette acquisition va permettre à CenturyLink de conforter sa place en tant de leader dans les univers du CDN et du Edge Computing.

« Streamroot propose une approche axée sur les données pour améliorer l’expérience utilisateur, en particulier pendant les heures de pointe du trafic Internet. Les clients de Streamroot ont une approche multi-CDN qui se démarque de la concurrence. Cette technologie et cette approche de diffusion hybride nous aidera à offrir des expériences de visionnage de haute qualité, en particulier sur les zones difficiles à desservir », précise François Collobert.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction

— 14 janvier 2020 à 18:15
NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction. © DR

NCam propose une solution de suivi de mouvement sans marqueur pour des applications de réalité augmentée et de préviz. Baptisée Camera Bar MK2, elle met en œuvre un périphérique de tracking d’une vingtaine de centimètres, qui ne pèse que 200 g (au lieu de 1,2 kg pour le modèle précédent) et qui se fixe facilement sur n’importe quelle caméra (sur pied, grue, stabilisateur, rig, à l’épaule, caméra sur câble…).

 

Plus petit, léger et robuste que la version précédente, le système s’appuie sur la technologie Intel RealSense adaptée par NCam aux besoins du broadcast (news, sport…) et de la fiction télé et cinéma (previz temps réel).

Pour une utilisation optimale, l’optique de la caméra nécessitera d’être calibrée (mapping) avec les informations réelles de longueur de focale, de distorsions… pour permettre une synchronisation parfaite des éléments CG avec l’image filmée. Le logiciel NCam fonctionne sur une station de travail standard Z2 Mini et Z4 HP.

La partie tracking envoie au logiciel de manière très précise 300 fois par seconde la position et l’orientation de la caméra. Toutes ces informations sont transférées à un moteur de rendu (Vizrt, Brainstorm, Unreal Engine…) pour le traitement des éléments CG en synchronisation avec les plans live.

La Camera Bar a notamment été utilisée sur steadicam et sans fil lors du dernier Superbowl d’Atlanta mais aussi sur le long-métrage Solo a Star Wars Story.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

La modernisation des plateaux de tournage au programme du CNC

— 22 janvier 2020 à 17:00
Dominique Boutonnat, Président du CNC présente un « plan studios » d’1 million d’euros © DR
Ce jeudi, en ouverture d’une conférence sur l’état des lieux des plateaux de tournage en France dans le cadre de Paris Image Location Expo, Dominique Boutonnat, Président du Centre national du cinéma et de l’image animée (CNC), a dévoilé un ambitieux « plan studios » destiné à impulser davantage d’attractivité à la filière des plateaux de tournage. Ce plan s’appuie sur 4 socles : un appel à projets, une politique régionale, une stratégie de promotion internationale et une politique de formation...
 
 
"La France est reconnue dans le monde entier pour l’excellence de ses industries techniques la qualité de ses talents et pour ses savoir-faire. L’attractivité internationale de cette filière est un enjeu majeur de la politique publique menée par le CNC et les plateaux de tournages en sont un élément central. Néanmoins dans un rapport remis au CNC et à Film France par Serge Siritzky pointe un sous-dimensionnement des équipements français par rapport à ceux des autres pays européens : moins de surface totale pas de grands plateaux et une prise en compte insuffisante des nouveaux enjeux numériques. De plus ces plateaux disposent rarement de  « backlots », des terrains adjacents où fabriquer et stocker de très grands décors. Nous avons décidé de réagir avec un « plan studios » doté d’une enveloppe de 1M€... Le plateau du XXIème siècle doit être numérique et durable et le CNC accompagnera cette mutation » a annoncé le Président du Centre national du cinéma et de l’image animée (CNC). 

 

Le « plan studios » s’articule autour de 4 axes :

Une aide à la modernisation, numérique et durable, sous la forme d’un appel à projet doté d’1M€ au sein du soutien financier aux industries techniques. Une attention particulière sera portée aux enjeux numériques, d’une part, et aux projets éco-responsables, d’autre part. La Commission Supérieure Technique de l’image (CST), en lien avec Ecoprod, formulera des recommandations au CNC pour faire évoluer les pratiques dans le secteur.

Un accompagnement et un soutien aux structures à travers les conventions Etat-Région : le CNC proposera aux régions porteuses de projets de plateaux de tournages à rayonnement international d’intégrer cet enjeu dans les conventions de coopération.

La promotion de l’attractivité française à l’international, en partenariat avec Film France : le président du CNC se rendra en Californie, au mois de mars prochain, pour rencontrer les dirigeants des plateformes et majors américaines et envisager, à terme, la création d’un représentation permanente à Los Angeles pour valoriser au plus près des décideurs les savoir-faire français et les dispositifs d’incitation.

Une attention particulière à la formation : la pratique du tournage en studio fait appel à de nouvelles compétences liées notamment au développement des effets visuels. Les établissements accompagnés par le CNC, notamment La fémis, devront intégrer ces enjeux dans leurs pédagogies afin de former les nouvelles générations à tous les types de tournages.

Au-delà de la portée directe de ces mesures, le lancement de ce plan a l’ambition decatalyser un mouvement collectif impliquant les professionnels, les collectivités et les partenaires du financement.

☐ ☆ ✇ Mediakwest - Broadcast

KVM : les tendances 2020

— 19 janvier 2020 à 17:49
Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. © Nathalie Klimberg

Le nec plus ultra des KVM est aujourd’hui l’AdderLink Infinity 4000, mais on trouve désormais chez Matrox un nouveau mode agrégateur pour les KVM IP Extio 3 disponible en deux modèles.

 

ADDER

Adder Technology, spécialiste mondial de la connectivité et des KVM sur IP, lance la première matrice KVM sur IP, Dual-Head 4K, haute performance au monde, ceci via une seule fibre optique, une caractéristique séduisante pour l’industrie des médias habituée à travailler sur des doubles écrans… Totalement compatibles avec la gamme Adder Infinity, les Alif4000 peuvent être intégrés dans un réseau existant sans temps d’arrêt et surtout sans opérations coûteuses de dépose et remplacement de l’existant. Compatibles avec des réseaux mixtes 1 gigabit et 10 GB/s ils offrent la possibilité d’évoluer vers un contenu 4K avec flexibilité avec également une prise en charge audio analogique bidirectionnelle.

Sur le stand Adder de l’IBC, l’Alif4000 était présenté en démonstration avec une station Flame Autodesk pour démontrer toute sa pertinence dans les environnements de postproduction, très exigeants en termes précision de pixels et de colorimétrie d’images (les KVM Infinity proposent un échantillonnage 24 bits)… On retrouve les produits KVM sur IP d’Adder Technology, déjà bien implantés en France, chez plusieurs chaînes de télévision, TF1, M6, Canal Plus… Et la société compte bien continuer à développer sa présence sur le territoire…

 

 

MATROX

Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. Cet environnement de commutation matriciel KVM évolutif est économique puisqu’il utilise des commutateurs de réseaux standard. Conçus pour des applications hautes performances, les KVM IP de la série Matrox Extio 3 offrent des performances 4Kp60 4:4:4 ou quadruples 1080p60 4:4:4 sur un réseau Ethernet Gigabit standard (fibre optique ou cuivre). Le nouveau mode agrégateur permet de surveiller et contrôler simultanément plusieurs systèmes à partir d’un espace de travail multi-écrans distant avec un seul clavier et une seule souris, l’application de configuration et de gestion est très intuitive…

Cette nouvelle génération de KVM est disponible en deux modèles… Extio 3 N3208, pour une prise en charge du double signal 1 920 x 1 200 à 60 Hz et Extio 3 N3408 qui prend en charge jusqu’à quatre signaux 1 920 x 1 080 à 60 Hz, deux 2 560 x 1 600 à 60 Hz ou un seul signal 4K UHD 3 840 x 2 160 à 60 Hz.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

La 5G, taillée pour les workflows de captation live…

— 21 janvier 2020 à 17:00
La 5G, taillée pour les workflows de captation live… © DR

Sony Imaging Products & Solutions, Sony Mobile Communications et Verizon ont, en décembre dernier, fourni leurs services et matériels à NBC Sports pour démontrer comment la 5G pouvait changer la façon dont les retransmissions de sport en direct peuvent être produites.

À l’occasion du match de football américain qui opposait les Texans de Houston aux Patriots de la Nouvelle-Angleterre au stade NRG, un caméraman de NBC Sports a capturé les images de l’événement à l’aide de la caméra d’épaule PXW-Z450 de Sony. Ces images vidéo ont été diffusées sur le réseau à très large bande 5G de Verizon, à l’aide d’un prototype d’émetteur Sony et 5G, vers une salle de production située dans le stade.

Associée au savoir-faire de Sony en matière d’appareil mobile, de vidéo et d’encodage, la très large bande 5G de Verizon, avec sa faible latence et sa bande passante élevée, a permis de transmettre, quasiment en temps réel, un signal vidéo haute qualité à faible latence. Grâce à la connectivité sans fil quasi instantanée de la 5G, les caméras peuvent être plus mobiles, ce qui permet plus de créativité dans les positions et les angles de vue utilisés au cours du match et réduit le délai d’installation ainsi que les coûts nécessaires à l’intégration du système…

D’ailleurs Sony et Verizon entendent poursuivre leurs efforts pour mettre au point d’autres solutions et workflows de production plus simples et plus flexibles grâce à la 5G…

☐ ☆ ✇ Mediakwest - Broadcast

Orange Prestations TV (OPTV) étend son usage de MatrixStore

— 21 janvier 2020 à 23:34
Orange Prestations TV (OPTV) étend son usage  de MatrixStore © DR

Orange Prestations TV (OPTV) étend son usage de MatrixStore, la plateforme de cloud privé orientée média développée par Object Matrix et représentée en France par IVORY. Ce projet d’extension a été géré par CTM Solutions.

 

Face à un nombre de contenus à gérer de plus en plus important, OPTV a entamé un processus d'évaluation de son infrastructure existante afin d’appréhender au mieux cette croissance. Avec deux clusters MatrixStore déjà opérationnels, OPTV souhaitait déterminer s'il était pertinent d’étendre et optimiser le dispositif de stockage existant, utiliser les services Cloud ou externaliser la gestion de ses archives.

OPTV dispose d’une infrastructure hautement sécurisée, interconnectée par API garantissant un accès immédiat et pérenne à son patrimoine d’œuvres qui s’avère adaptée à ses besoins actuels et à venir, reconnaissant la plus-value apportée par ses partenaires technologiques existants. L’entreprise a donc décidé d’étendre son usage de MatrixStore en ajoutant deux pétaoctets supplémentaires à son dispositif actuel, portant l’empreinte totale à plus de 5,5 pétaoctets répartis sur 3 sites.

 

Olivier le Galloudec, Directeur Général, OPTV, ajoute que "maximiser la valeur de nos archives implique d’avoir les technologies et services appropriés en place. Cependant, il est tout aussi important de pouvoir compter sur une solide expertise de ses partenaires, que nous obtenons grâce à la combinaison d'Object Matrix, d'IVORY et de CTM Solutions. Comme nous utilisions déjà MatrixStore dans ce contexte métier, nous savions que ce serait la meilleure solution pour optimiser nos coûts et faire croitre nos archives."

Nick Pearce-Tomenius, Directeur Commercial et Marketing, Object Matrix, conclut "OPTV a observé une croissance massive de son patrimoine au cours des deux dernières années. En augmentant la capacité de MatrixStore, leur infrastructure peut continuer à évoluer sans modification de leurs workflows en place. Finalement, cet investissement permettra à OPTV d'économiser du temps et de l'argent et l'aidera à continuer à monétiser ses archives."

Demain, Julien Gachot nous livre sa vision de la transformation numérique dans le cadre d'une interview vidéo de la Web TV SATIS...

☑ ☆ ✇ Mediakwest - Broadcast

L’IMF s’installe sur le marché français (Web TV François Abbe)

— 22 janvier 2020 à 17:00
L’IMF s’installe sur le marché français (Web TV François Abbe) © DR

François Abbe, présent sur le Satis en tant que Gouverneur SMPTE, intervenait sur l’une des conférences Satis consacrée à l’IMF (Interoperable Master Format). Ce protocole assez rapidement adopté aux Etats-Unis par les industries créatives et cinématographiques a mis un peu plus de temps a trouver ses marques en France… Mais les temps changent et son utilisation décolle enfin, il était temps car l'IMF a tout pour plaire ! François Abbe nous rappelle sur le plateau de la Web TV Satis-Mediakwest ce qu’est l’IMF et dresse un état des lieux du marché français…

 

« Nous avons utilisé pendant longtemps des cassettes VHS. Nous sommes très vite passés finalement au monde du fichier. Dans le monde du cinéma, cela n’a pas été du tout le cas. Le 35mm a été utilisé pendant longtemps. Les projections en salle sont passées en mode fichiers mais cela a demandé des années. Nous avons appelé cela le format DCP. Les majors américaines ont dit : « Nous voulons la même chose pour arrêter d’envoyer des cassettes d’un point A à un point B. »

Puis, il y a eu l’effet Fukushima en 2011 où Sony a dit : « J’ai une seule usine. Elle est au Japon. Elle n’existe plus. Elle a été détruite par le tsunami. » Les gens ont pris conscience qu’il fallait passer au monde du tout fichier pour passer d’un point A à un point B. De là, est né l’IMF. Interoperable pour qu’il puisse lire tous les formats, Master pour mettre par exemple le film Alice aux Pays des Merveilles sur un réseau de VOD où l’on va recevoir un package comprenant un dossier informatique avec Alice aux Pays des Merveilles en film vidéo avec 2 langues, 4 sous-titres ou un fichier .xml pour jouer le film Alice aux Pays des Merveilles en version originale. Si je veux la version française, je vais utiliser d’autres fichiers qui sont dans ce package… L’intérêt est multiple en termes d’archivage et va permettre d’économiser sur le long terme. C’est Netflix qui a poussé ce format ! »

 

Découvrez dans la suite de l’entretien vidéo pourquoi Netflix impose l’IMF dans ses protocoles de production de contenus UHD... Un choix légitime économiquement dès à présent même si l’avenir de cette norme ouverte est devant lui...

☑ ☆ ✇ Mediakwest - Broadcast

Encodage : les tendances 2020

— 22 janvier 2020 à 17:00
Le Monarch Edge de Matrox est un encodeur 4K/multi-HD à faible latence (50 ms). © Nathalie Klimberg

Vitec tisse sa toile sur le territoire des solutions IPTV et de la latence ultra faible. À suivre également en 2020 : l’encodeur Matrox Monarch Edge présenté pour la première fois à l’IBC 2019, l’intégration de Zixi avec la solution Titan d’Ateme, la nouvelle compatibilité d’Avid Media Composer avec le codec d’Apple ProRes Raw, la plate-forme de streaming StreamShark, les systèmes Titan Playout du spécialiste français de la compression vidéo Ateme et Elemental MediaLive d’AWS.

 

MATROX

Récompensé sur le NAB en tant que meilleur produit de l’année dans la catégorie « Remote Production », le Monarch Edge est un encodeur 4K/multi-HD à faible latence (50 ms). Dévolu aux applications de webcasting et de production remote (REMI, pour Remote Integration), cet encodeur H.264 est capable de transporter de la vidéo en 10 bits 4:2:2 pour de la diffusion de directs multicanal à des résolutions allant jusqu’à 3 840 x 2 160 à 60 i/s. Utilisé comme encodeur de contribution Web 4K « classique » ou en déporté, il pourra prendre en charge les principaux protocoles de transport permettant de diffuser des vidéos sur des réseaux GigE (Mpeg-2 TS, RTP/RTSP, SRT, RTMP).

 

 

VITEC

Avec la nouvelle lame d’encodage MGES 7000 4K/UHD/HD HEVC et H.264 IPTV Vitec offre la plus haute densité proposée sur le marché. Cette lame propose un encodage matériel en temps réel de la vidéo 4K/UHD, haute définition et définition standard, mais aussi des fonctionnalités avancées telles que le canal secondaire, la résolution intégrée et la mise à l’échelle du débit d’images, le cryptage AES 256/128 bits et un mode à faible latence… Un châssis 10 U pourra accueillir jusqu’à treize lames pouvant traiter jusqu’à 104 canaux primaires et 104 canaux secondaires. Les flux traités peuvent être SDI, HDMI et la lame supportera bientôt la norme SMPTE 2110. Cet encodeur lame multicanal sera idéal pour les applications de diffusion d’événements sportifs en temps réel, la distribution cryptée et toutes les applications IPTV.

Lors du salon IBC2019, Vitec présentait aussi les MGW Ace Encoder et MGW Ace Decoder qui transmettent des vidéos glass to glass avec une latence d’environ 16 ms. Ces solutions de contribution HEVC de Vitec qui reposent sur un codec propriétaire GEN2 +, présenté comme le plus performant de sa catégorie pour la vidéo HEVC, conviennent tout particulièrement à la contribution multisites ou à la remote production.

Bonne nouvelle, à l’instar du MGW Ace decoder, le MGW Ace Encoder (encodeur HEVC 4:2:2 10 bits/H.265) est maintenant disponible dans une nouvelle version carte open gear encodeur 4K qui permettra une intégration plus facile dans les studios de production et les installations de diffusion. Dix cartes open gear pourront être être placées dans un châssis 1 RU.

Vitec exposait aussi son nouvel encodeur multicanal dédié à la contribution 4K HDR à faible bande passante, le MGW Diamond présenté dans une démonstration de contribution multisites… Il sera idéal pour de la production remote ou toute application de direct multiflux, l’environnement de codage/décodage Vitec offrant une synchronisation parfaite de plusieurs flux IP indépendants pour la diffusion.

 

 

ZIXI

Zixi a annoncé un élargissement de son partenariat avec Ateme – et le lancement d’une nouvelle intégration de Zixi avec la solution Titan d’Ateme. Solution complète de distribution offrant des fonctions d’encodage, de transcodage, de multiplexage, de multiplexage statistique, de packaging et de serveur d’origine, Titan est une application logicielle pour la compression et la transmission de contenus vidéo de haute qualité et de haute densité, conçue pour la contribution, la distribution et la redistribution d’images en SD, HD et Ultra HD. Basé sur Stream, le moteur de compression d’Ateme de cinquième génération, qui offre une qualité vidéo maximale pour un débit de données minimal grâce au calcul en parallèle accéléré, Titan est une solution logicielle entièrement virtualisée qui ne dépend d’aucun matériel spécifique. Répondant à une demande des plus grands acteurs du broadcast à l’échelle mondiale, l’intégration de la plate-forme Ziki dans Titan permet une transmission de contenus vidéo en direct sur tous les réseaux IP, avec une qualité, une sécurité et un coût optimaux.

 

 

AVID

Avid a annoncé que Media Composer sera nativement compatible avec le codec d’Apple ProRes Raw, et pourra lire et encoder au format ProRes sur Windows. Apple fournira de plus des décodeurs 64 bits pour les codecs DNxHR et DNxHD, dans le package « Pro Video Formats » offert en téléchargement gratuit pour tous les utilisateurs. Grâce à ces intégrations, les créateurs de contenus et les studios de postproduction pourront créer nativement des contenus de haute qualité au format ProRes, indépendamment de leur système d’exploitation, gagnant ainsi du temps dans le processus de création.

ProRes est un codec de montage à haute performance produisant des images multiflux de haute qualité pour un montage professionnel en temps réel de faible complexité. Le codec, qui sera disponible pour les utilisateurs de Media Composer sous Windows, prend en charge des tailles d’images diverses dont les formats SD, HD, 2K, 4K, et plus encore, avec une préservation extraordinaire de la qualité d’image tout en nécessitant moins d’espace de stockage.

De plus, la version 2019 de Media Composer pour Mac OS et Windows, entièrement revue, prendra également en charge le format ProRes Raw de manière native. ProRes Raw applique la compression ProRes aux données brutes du capteur de la caméra, offrant ainsi la flexibilité de la vidéo Raw et la performance de ProRes pour le montage d’images en haute résolution.

Enfin, la disponibilité des décodeurs DNxHD et DNxHR d’Avid sur Mac OS représente un avantage significatif pour les créateurs de contenus qui utilisent les produits Apple et Avid, et elle garantira la longévité des contenus DNx encodés dans des fichiers MXF et QuickTime.

 

 

AWS

Les clients utilisant AWS Elemental MediaLive peuvent encoder leur contenu de diffusion à l’aide de HEVC en définition standard (SD), en haute définition (HD) et en Ultra HD (UHD) en HDR pour des expériences de visionnage plus riches, puis en utilisant le multiplexage statistique pour déplacer le play-out dans le cloud. Les clients peuvent également utiliser le multiplexage statistique pour préserver la qualité tout en fournissant davantage de canaux que les systèmes de distribution traditionnels, réduisant ainsi les coûts de transmission vidéo.

Les groupes de médias, tels que les diffuseurs nationaux, créent des contenus en direct et les partagent simultanément avec leurs partenaires de distribution. Cette contribution se fait traditionnellement par satellite. Ces systèmes nécessitent une ingénierie poussée pour fonctionner de manière fiable, et une fois déployés, ils restent dédiés aux dites chaînes partenaires.

Avec AWS Elemental MediaLive, les clients peuvent créer l’équivalent d’une distribution par satellite en quelques minutes dans le cloud et contourner les retards introduits par les codeurs matériels sur site. La fiabilité et la redondance font partie intégrante du service et ne nécessitent aucun travail supplémentaire de la part du client pour atteindre les objectifs de fiabilité. L’accès continu à plusieurs zones de disponibilité AWS au sein d’une région permet aux clients de structurer et d’exécuter facilement des configurations hautement disponibles sur plusieurs sites. Avec la fonctionnalité AWS Elemental MediaLive Statmux, les clients pourront exploiter la flexibilité et l’élasticité d’AWS, créer ou supprimer rapidement des chaînes et les modifier en fonction de l’évolution des besoins de l’audience et de l’entreprise.

Bien que lié au départ avec la 4K Ultra HD, HEVC améliore également les expériences de visionnage HD et SD. Par exemple, les propriétaires de contenu qui ont migré vers HEVC constatent des avantages pour l’encodage de contenu 720p avec HEVC. En outre, les fournisseurs de vidéos cherchant à réduire simultanément la bande passante et à améliorer la qualité utilisent HEVC, non seulement pour la HD, mais aussi pour certaines résolutions SD.

Auparavant, pour organiser des événements premium live, les clients devaient acheter du matériel. Désormais, avec le modèle d’encodage « pay as you go » avec MediaLive, les clients peuvent diffuser des événements en direct et des diffusions linéaires de qualité qui tirent parti de HEVC sans ajouter de dépenses en capital. Les clients peuvent également utiliser les nouvelles fonctionnalités HEVC ABR pour réaliser des économies substantielles, grâce aux économies de débit de 30 à 50 % apportées par HEVC .

 

 

STREAMSHARK

Utilisable par un opérateur sans connaissances techniques poussées, la plate-forme de streaming StreamShark est destinée aux entreprises ayant des besoins de diffusion vidéo en direct lors d’événementiels : conférence, assemblée générale, lancement de produit, défilé de mode… Streamshark permet de diffuser des événements ouverts à tous ou réservés à un public sélectionné, dans le cadre par exemple d’un événement intra-entreprise. « Nos clients ont une grande confiance en notre plateforme, explique Aakanksha Chhikara, Business Development, Streamshark. L’ensemble des étapes de production est redondé afin de permettre une diffusion live sécurisée de bout en bout et d’une qualité exceptionnelle. » De nouvelles capacités de contrôle et de configuration d’encodeurs à distance sont intégrées à Streamshark via l’interface de la plate-forme, depuis le lieu de l’événement, pour une diffusion en simulcast sur Internet et sur les réseaux sociaux. La technologie Streamshark est accessible via les services AWS Elemental Live dans le cloud et à travers l’encodage matériel Epiphan (Pearl). Une fois téléchargé sur la plate-forme, le flux vidéo peut être rediffusé simultanément vers plusieurs destinations de streaming (Facebook, YouTube, Periscope, Twitch, Steam, etc.), y compris en live 360° VR, mais également vers un serveur FTP dédié ou sur toute plate-forme qui accepte les entrées RTMP. Le démarrage ou l’arrêt de tous les flux sur l’ensemble des plates-formes s’effectue en même temps. La plate-forme donne accès à des outils de gestion de Chat en direct, d’encryptage et de protection DRM, d’accès restrictifs aux lives (SSO), d’analyse de données des connexions, etc.

 

 

ATEME

Ateme, le spécialiste français de la compression vidéo, présentait le système Titan Playout de programmation et de diffusion dynamique des chaînes en continu et à la demande. Titan Playout offre une série de fonctionnalités basées sur l’IT, reposant sur une architecture microservices qui permet de créer des flux évolutifs en termes de diffusion et de gestion de ressources, sur site ou dans le cloud. Associé à la solution Titan Live de compression vidéo, Titan Playout forme un dispositif de bout en bout pour les chaînes linéaires et OTT, mais également dans le cadre de chaînes temporaires, de régionalisation de programmes ou de plan de reprise d’activité (disaster recovery). Titan Playout est capable de s’intégrer facilement à tout écosystème technique grâce à ses interfaces, et réduit d’autant les délais de mise à l’antenne et les coûts d’exploitation. En parallèle, Ateme présentait ses avancées en matière d’amélioration de la qualité vidéo et de réduction de latence. Il faisait le point sur les évolutions de sa famille modulaire Titan permettant de migrer vers des workflows IP grâce aux standards SMPTE ST 2022-5/6 et ST 2110. Ateme intervenait dans le Future Zone de l’IBC dans l’encodage de flux 8K avec Titan et présentait ses avancées en termes de codecs VVC et AV2. Après des mois d’essais avec les solutions Kyrion et Titan, Ateme montrait comment BISS-CA, la norme ouverte, libre de redevance, interopérable et sécurisée d’accès conditionnel de l’UER, permet aux diffuseurs de sécuriser leurs contenus pour faire face au streaming illégal.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Century Link renforce son déploiement en Europe

— 12 janvier 2020 à 16:00
François Collobert, directeur commercial Emea Century Link © Nathalie Klimberg

Avec un déploiement de 700 000 kilomètres de fibre et 120 PoP dans le monde, Century Link représente le deuxième opérateur réseau américain. La société, qui propose des services CDN capacité de pointe dépassant 120 Tbit/s, a depuis deux ans investi 700 millions de dollars pour renforcer la capacité de ses nœuds CDN ; elle a aussi étoffé ses ressources humaines en Europe, avec l’ambition de renforcer sa présence auprès de clients tels que les fournisseurs, broadcasters, opérateurs OTT…

 

« Notre proposition économique s’appuie sur la flexibilité et l’adaptation aux modèles économiques de nos clients, cela peut prendre parfois la forme d’un « flat fee » par exemple, c’est-à-dire sur un prix négocié d’avance, quelle que soit l’audience, il n’y a donc pas de mauvaise surprise au moment du règlement de la facture, ce qui séduit. Pour preuve, nous comptons déjà parmi nos clients neuf des dix plus grandes sociétés médias au monde en 2019 », souligne François Collobert, récemment nommé directeur commercial Emea.

Sur IBC, CenturyLink a annoncé l’acquisition de la société française Streamroot, leader de technologies de diffusion dans des zones à bande passante limitée. Cette acquisition va permettre à CenturyLink de conforter sa place en tant de leader dans les univers du CDN et du Edge Computing.

« Streamroot propose une approche axée sur les données pour améliorer l’expérience utilisateur, en particulier pendant les heures de pointe du trafic Internet. Les clients de Streamroot ont une approche multi-CDN qui se démarque de la concurrence. Cette technologie et cette approche de diffusion hybride nous aidera à offrir des expériences de visionnage de haute qualité, en particulier sur les zones difficiles à desservir », précise François Collobert.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction

— 14 janvier 2020 à 18:15
NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction. © DR

NCam propose une solution de suivi de mouvement sans marqueur pour des applications de réalité augmentée et de préviz. Baptisée Camera Bar MK2, elle met en œuvre un périphérique de tracking d’une vingtaine de centimètres, qui ne pèse que 200 g (au lieu de 1,2 kg pour le modèle précédent) et qui se fixe facilement sur n’importe quelle caméra (sur pied, grue, stabilisateur, rig, à l’épaule, caméra sur câble…).

 

Plus petit, léger et robuste que la version précédente, le système s’appuie sur la technologie Intel RealSense adaptée par NCam aux besoins du broadcast (news, sport…) et de la fiction télé et cinéma (previz temps réel).

Pour une utilisation optimale, l’optique de la caméra nécessitera d’être calibrée (mapping) avec les informations réelles de longueur de focale, de distorsions… pour permettre une synchronisation parfaite des éléments CG avec l’image filmée. Le logiciel NCam fonctionne sur une station de travail standard Z2 Mini et Z4 HP.

La partie tracking envoie au logiciel de manière très précise 300 fois par seconde la position et l’orientation de la caméra. Toutes ces informations sont transférées à un moteur de rendu (Vizrt, Brainstorm, Unreal Engine…) pour le traitement des éléments CG en synchronisation avec les plans live.

La Camera Bar a notamment été utilisée sur steadicam et sans fil lors du dernier Superbowl d’Atlanta mais aussi sur le long-métrage Solo a Star Wars Story.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

KVM : les tendances 2020

— 19 janvier 2020 à 17:49
Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. © Nathalie Klimberg

Le nec plus ultra des KVM est aujourd’hui l’AdderLink Infinity 4000, mais on trouve désormais chez Matrox un nouveau mode agrégateur pour les KVM IP Extio 3 disponible en deux modèles.

 

ADDER

Adder Technology, spécialiste mondial de la connectivité et des KVM sur IP, lance la première matrice KVM sur IP, Dual-Head 4K, haute performance au monde, ceci via une seule fibre optique, une caractéristique séduisante pour l’industrie des médias habituée à travailler sur des doubles écrans… Totalement compatibles avec la gamme Adder Infinity, les Alif4000 peuvent être intégrés dans un réseau existant sans temps d’arrêt et surtout sans opérations coûteuses de dépose et remplacement de l’existant. Compatibles avec des réseaux mixtes 1 gigabit et 10 GB/s ils offrent la possibilité d’évoluer vers un contenu 4K avec flexibilité avec également une prise en charge audio analogique bidirectionnelle.

Sur le stand Adder de l’IBC, l’Alif4000 était présenté en démonstration avec une station Flame Autodesk pour démontrer toute sa pertinence dans les environnements de postproduction, très exigeants en termes précision de pixels et de colorimétrie d’images (les KVM Infinity proposent un échantillonnage 24 bits)… On retrouve les produits KVM sur IP d’Adder Technology, déjà bien implantés en France, chez plusieurs chaînes de télévision, TF1, M6, Canal Plus… Et la société compte bien continuer à développer sa présence sur le territoire…

 

 

MATROX

Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. Cet environnement de commutation matriciel KVM évolutif est économique puisqu’il utilise des commutateurs de réseaux standard. Conçus pour des applications hautes performances, les KVM IP de la série Matrox Extio 3 offrent des performances 4Kp60 4:4:4 ou quadruples 1080p60 4:4:4 sur un réseau Ethernet Gigabit standard (fibre optique ou cuivre). Le nouveau mode agrégateur permet de surveiller et contrôler simultanément plusieurs systèmes à partir d’un espace de travail multi-écrans distant avec un seul clavier et une seule souris, l’application de configuration et de gestion est très intuitive…

Cette nouvelle génération de KVM est disponible en deux modèles… Extio 3 N3208, pour une prise en charge du double signal 1 920 x 1 200 à 60 Hz et Extio 3 N3408 qui prend en charge jusqu’à quatre signaux 1 920 x 1 080 à 60 Hz, deux 2 560 x 1 600 à 60 Hz ou un seul signal 4K UHD 3 840 x 2 160 à 60 Hz.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

La 5G, taillée pour les workflows de captation live…

— 21 janvier 2020 à 17:00
La 5G, taillée pour les workflows de captation live… © DR

Sony Imaging Products & Solutions, Sony Mobile Communications et Verizon ont, en décembre dernier, fourni leurs services et matériels à NBC Sports pour démontrer comment la 5G pouvait changer la façon dont les retransmissions de sport en direct peuvent être produites.

À l’occasion du match de football américain qui opposait les Texans de Houston aux Patriots de la Nouvelle-Angleterre au stade NRG, un caméraman de NBC Sports a capturé les images de l’événement à l’aide de la caméra d’épaule PXW-Z450 de Sony. Ces images vidéo ont été diffusées sur le réseau à très large bande 5G de Verizon, à l’aide d’un prototype d’émetteur Sony et 5G, vers une salle de production située dans le stade.

Associée au savoir-faire de Sony en matière d’appareil mobile, de vidéo et d’encodage, la très large bande 5G de Verizon, avec sa faible latence et sa bande passante élevée, a permis de transmettre, quasiment en temps réel, un signal vidéo haute qualité à faible latence. Grâce à la connectivité sans fil quasi instantanée de la 5G, les caméras peuvent être plus mobiles, ce qui permet plus de créativité dans les positions et les angles de vue utilisés au cours du match et réduit le délai d’installation ainsi que les coûts nécessaires à l’intégration du système…

D’ailleurs Sony et Verizon entendent poursuivre leurs efforts pour mettre au point d’autres solutions et workflows de production plus simples et plus flexibles grâce à la 5G…

☐ ☆ ✇ Mediakwest - Broadcast

Orange Prestations TV (OPTV) étend son usage de MatrixStore

— 21 janvier 2020 à 23:34
Orange Prestations TV (OPTV) étend son usage  de MatrixStore © DR

Orange Prestations TV (OPTV) étend son usage de MatrixStore, la plateforme de cloud privé orientée média développée par Object Matrix et représentée en France par IVORY. Ce projet d’extension a été géré par CTM Solutions.

 

Face à un nombre de contenus à gérer de plus en plus important, OPTV a entamé un processus d'évaluation de son infrastructure existante afin d’appréhender au mieux cette croissance. Avec deux clusters MatrixStore déjà opérationnels, OPTV souhaitait déterminer s'il était pertinent d’étendre et optimiser le dispositif de stockage existant, utiliser les services Cloud ou externaliser la gestion de ses archives.

OPTV dispose d’une infrastructure hautement sécurisée, interconnectée par API garantissant un accès immédiat et pérenne à son patrimoine d’œuvres qui s’avère adaptée à ses besoins actuels et à venir, reconnaissant la plus-value apportée par ses partenaires technologiques existants. L’entreprise a donc décidé d’étendre son usage de MatrixStore en ajoutant deux pétaoctets supplémentaires à son dispositif actuel, portant l’empreinte totale à plus de 5,5 pétaoctets répartis sur 3 sites.

 

Olivier le Galloudec, Directeur Général, OPTV, ajoute que "maximiser la valeur de nos archives implique d’avoir les technologies et services appropriés en place. Cependant, il est tout aussi important de pouvoir compter sur une solide expertise de ses partenaires, que nous obtenons grâce à la combinaison d'Object Matrix, d'IVORY et de CTM Solutions. Comme nous utilisions déjà MatrixStore dans ce contexte métier, nous savions que ce serait la meilleure solution pour optimiser nos coûts et faire croitre nos archives."

Nick Pearce-Tomenius, Directeur Commercial et Marketing, Object Matrix, conclut "OPTV a observé une croissance massive de son patrimoine au cours des deux dernières années. En augmentant la capacité de MatrixStore, leur infrastructure peut continuer à évoluer sans modification de leurs workflows en place. Finalement, cet investissement permettra à OPTV d'économiser du temps et de l'argent et l'aidera à continuer à monétiser ses archives."

Demain, Julien Gachot nous livre sa vision de la transformation numérique dans le cadre d'une interview vidéo de la Web TV SATIS...

☐ ☆ ✇ Mediakwest - Broadcast

Encodage : les tendances 2020

— 22 janvier 2020 à 17:00
Le Monarch Edge de Matrox est un encodeur 4K/multi-HD à faible latence (50 ms). © Nathalie Klimberg

Vitec tisse sa toile sur le territoire des solutions IPTV et de la latence ultra faible. À suivre également en 2020 : l’encodeur Matrox Monarch Edge présenté pour la première fois à l’IBC 2019, l’intégration de Zixi avec la solution Titan d’Ateme, la nouvelle compatibilité d’Avid Media Composer avec le codec d’Apple ProRes Raw, la plate-forme de streaming StreamShark, les systèmes Titan Playout du spécialiste français de la compression vidéo Ateme et Elemental MediaLive d’AWS.

 

MATROX

Récompensé sur le NAB en tant que meilleur produit de l’année dans la catégorie « Remote Production », le Monarch Edge est un encodeur 4K/multi-HD à faible latence (50 ms). Dévolu aux applications de webcasting et de production remote (REMI, pour Remote Integration), cet encodeur H.264 est capable de transporter de la vidéo en 10 bits 4:2:2 pour de la diffusion de directs multicanal à des résolutions allant jusqu’à 3 840 x 2 160 à 60 i/s. Utilisé comme encodeur de contribution Web 4K « classique » ou en déporté, il pourra prendre en charge les principaux protocoles de transport permettant de diffuser des vidéos sur des réseaux GigE (Mpeg-2 TS, RTP/RTSP, SRT, RTMP).

 

 

VITEC

Avec la nouvelle lame d’encodage MGES 7000 4K/UHD/HD HEVC et H.264 IPTV Vitec offre la plus haute densité proposée sur le marché. Cette lame propose un encodage matériel en temps réel de la vidéo 4K/UHD, haute définition et définition standard, mais aussi des fonctionnalités avancées telles que le canal secondaire, la résolution intégrée et la mise à l’échelle du débit d’images, le cryptage AES 256/128 bits et un mode à faible latence… Un châssis 10 U pourra accueillir jusqu’à treize lames pouvant traiter jusqu’à 104 canaux primaires et 104 canaux secondaires. Les flux traités peuvent être SDI, HDMI et la lame supportera bientôt la norme SMPTE 2110. Cet encodeur lame multicanal sera idéal pour les applications de diffusion d’événements sportifs en temps réel, la distribution cryptée et toutes les applications IPTV.

Lors du salon IBC2019, Vitec présentait aussi les MGW Ace Encoder et MGW Ace Decoder qui transmettent des vidéos glass to glass avec une latence d’environ 16 ms. Ces solutions de contribution HEVC de Vitec qui reposent sur un codec propriétaire GEN2 +, présenté comme le plus performant de sa catégorie pour la vidéo HEVC, conviennent tout particulièrement à la contribution multisites ou à la remote production.

Bonne nouvelle, à l’instar du MGW Ace decoder, le MGW Ace Encoder (encodeur HEVC 4:2:2 10 bits/H.265) est maintenant disponible dans une nouvelle version carte open gear encodeur 4K qui permettra une intégration plus facile dans les studios de production et les installations de diffusion. Dix cartes open gear pourront être être placées dans un châssis 1 RU.

Vitec exposait aussi son nouvel encodeur multicanal dédié à la contribution 4K HDR à faible bande passante, le MGW Diamond présenté dans une démonstration de contribution multisites… Il sera idéal pour de la production remote ou toute application de direct multiflux, l’environnement de codage/décodage Vitec offrant une synchronisation parfaite de plusieurs flux IP indépendants pour la diffusion.

 

 

ZIXI

Zixi a annoncé un élargissement de son partenariat avec Ateme – et le lancement d’une nouvelle intégration de Zixi avec la solution Titan d’Ateme. Solution complète de distribution offrant des fonctions d’encodage, de transcodage, de multiplexage, de multiplexage statistique, de packaging et de serveur d’origine, Titan est une application logicielle pour la compression et la transmission de contenus vidéo de haute qualité et de haute densité, conçue pour la contribution, la distribution et la redistribution d’images en SD, HD et Ultra HD. Basé sur Stream, le moteur de compression d’Ateme de cinquième génération, qui offre une qualité vidéo maximale pour un débit de données minimal grâce au calcul en parallèle accéléré, Titan est une solution logicielle entièrement virtualisée qui ne dépend d’aucun matériel spécifique. Répondant à une demande des plus grands acteurs du broadcast à l’échelle mondiale, l’intégration de la plate-forme Ziki dans Titan permet une transmission de contenus vidéo en direct sur tous les réseaux IP, avec une qualité, une sécurité et un coût optimaux.

 

 

AVID

Avid a annoncé que Media Composer sera nativement compatible avec le codec d’Apple ProRes Raw, et pourra lire et encoder au format ProRes sur Windows. Apple fournira de plus des décodeurs 64 bits pour les codecs DNxHR et DNxHD, dans le package « Pro Video Formats » offert en téléchargement gratuit pour tous les utilisateurs. Grâce à ces intégrations, les créateurs de contenus et les studios de postproduction pourront créer nativement des contenus de haute qualité au format ProRes, indépendamment de leur système d’exploitation, gagnant ainsi du temps dans le processus de création.

ProRes est un codec de montage à haute performance produisant des images multiflux de haute qualité pour un montage professionnel en temps réel de faible complexité. Le codec, qui sera disponible pour les utilisateurs de Media Composer sous Windows, prend en charge des tailles d’images diverses dont les formats SD, HD, 2K, 4K, et plus encore, avec une préservation extraordinaire de la qualité d’image tout en nécessitant moins d’espace de stockage.

De plus, la version 2019 de Media Composer pour Mac OS et Windows, entièrement revue, prendra également en charge le format ProRes Raw de manière native. ProRes Raw applique la compression ProRes aux données brutes du capteur de la caméra, offrant ainsi la flexibilité de la vidéo Raw et la performance de ProRes pour le montage d’images en haute résolution.

Enfin, la disponibilité des décodeurs DNxHD et DNxHR d’Avid sur Mac OS représente un avantage significatif pour les créateurs de contenus qui utilisent les produits Apple et Avid, et elle garantira la longévité des contenus DNx encodés dans des fichiers MXF et QuickTime.

 

 

AWS

Les clients utilisant AWS Elemental MediaLive peuvent encoder leur contenu de diffusion à l’aide de HEVC en définition standard (SD), en haute définition (HD) et en Ultra HD (UHD) en HDR pour des expériences de visionnage plus riches, puis en utilisant le multiplexage statistique pour déplacer le play-out dans le cloud. Les clients peuvent également utiliser le multiplexage statistique pour préserver la qualité tout en fournissant davantage de canaux que les systèmes de distribution traditionnels, réduisant ainsi les coûts de transmission vidéo.

Les groupes de médias, tels que les diffuseurs nationaux, créent des contenus en direct et les partagent simultanément avec leurs partenaires de distribution. Cette contribution se fait traditionnellement par satellite. Ces systèmes nécessitent une ingénierie poussée pour fonctionner de manière fiable, et une fois déployés, ils restent dédiés aux dites chaînes partenaires.

Avec AWS Elemental MediaLive, les clients peuvent créer l’équivalent d’une distribution par satellite en quelques minutes dans le cloud et contourner les retards introduits par les codeurs matériels sur site. La fiabilité et la redondance font partie intégrante du service et ne nécessitent aucun travail supplémentaire de la part du client pour atteindre les objectifs de fiabilité. L’accès continu à plusieurs zones de disponibilité AWS au sein d’une région permet aux clients de structurer et d’exécuter facilement des configurations hautement disponibles sur plusieurs sites. Avec la fonctionnalité AWS Elemental MediaLive Statmux, les clients pourront exploiter la flexibilité et l’élasticité d’AWS, créer ou supprimer rapidement des chaînes et les modifier en fonction de l’évolution des besoins de l’audience et de l’entreprise.

Bien que lié au départ avec la 4K Ultra HD, HEVC améliore également les expériences de visionnage HD et SD. Par exemple, les propriétaires de contenu qui ont migré vers HEVC constatent des avantages pour l’encodage de contenu 720p avec HEVC. En outre, les fournisseurs de vidéos cherchant à réduire simultanément la bande passante et à améliorer la qualité utilisent HEVC, non seulement pour la HD, mais aussi pour certaines résolutions SD.

Auparavant, pour organiser des événements premium live, les clients devaient acheter du matériel. Désormais, avec le modèle d’encodage « pay as you go » avec MediaLive, les clients peuvent diffuser des événements en direct et des diffusions linéaires de qualité qui tirent parti de HEVC sans ajouter de dépenses en capital. Les clients peuvent également utiliser les nouvelles fonctionnalités HEVC ABR pour réaliser des économies substantielles, grâce aux économies de débit de 30 à 50 % apportées par HEVC .

 

 

STREAMSHARK

Utilisable par un opérateur sans connaissances techniques poussées, la plate-forme de streaming StreamShark est destinée aux entreprises ayant des besoins de diffusion vidéo en direct lors d’événementiels : conférence, assemblée générale, lancement de produit, défilé de mode… Streamshark permet de diffuser des événements ouverts à tous ou réservés à un public sélectionné, dans le cadre par exemple d’un événement intra-entreprise. « Nos clients ont une grande confiance en notre plateforme, explique Aakanksha Chhikara, Business Development, Streamshark. L’ensemble des étapes de production est redondé afin de permettre une diffusion live sécurisée de bout en bout et d’une qualité exceptionnelle. » De nouvelles capacités de contrôle et de configuration d’encodeurs à distance sont intégrées à Streamshark via l’interface de la plate-forme, depuis le lieu de l’événement, pour une diffusion en simulcast sur Internet et sur les réseaux sociaux. La technologie Streamshark est accessible via les services AWS Elemental Live dans le cloud et à travers l’encodage matériel Epiphan (Pearl). Une fois téléchargé sur la plate-forme, le flux vidéo peut être rediffusé simultanément vers plusieurs destinations de streaming (Facebook, YouTube, Periscope, Twitch, Steam, etc.), y compris en live 360° VR, mais également vers un serveur FTP dédié ou sur toute plate-forme qui accepte les entrées RTMP. Le démarrage ou l’arrêt de tous les flux sur l’ensemble des plates-formes s’effectue en même temps. La plate-forme donne accès à des outils de gestion de Chat en direct, d’encryptage et de protection DRM, d’accès restrictifs aux lives (SSO), d’analyse de données des connexions, etc.

 

 

ATEME

Ateme, le spécialiste français de la compression vidéo, présentait le système Titan Playout de programmation et de diffusion dynamique des chaînes en continu et à la demande. Titan Playout offre une série de fonctionnalités basées sur l’IT, reposant sur une architecture microservices qui permet de créer des flux évolutifs en termes de diffusion et de gestion de ressources, sur site ou dans le cloud. Associé à la solution Titan Live de compression vidéo, Titan Playout forme un dispositif de bout en bout pour les chaînes linéaires et OTT, mais également dans le cadre de chaînes temporaires, de régionalisation de programmes ou de plan de reprise d’activité (disaster recovery). Titan Playout est capable de s’intégrer facilement à tout écosystème technique grâce à ses interfaces, et réduit d’autant les délais de mise à l’antenne et les coûts d’exploitation. En parallèle, Ateme présentait ses avancées en matière d’amélioration de la qualité vidéo et de réduction de latence. Il faisait le point sur les évolutions de sa famille modulaire Titan permettant de migrer vers des workflows IP grâce aux standards SMPTE ST 2022-5/6 et ST 2110. Ateme intervenait dans le Future Zone de l’IBC dans l’encodage de flux 8K avec Titan et présentait ses avancées en termes de codecs VVC et AV2. Après des mois d’essais avec les solutions Kyrion et Titan, Ateme montrait comment BISS-CA, la norme ouverte, libre de redevance, interopérable et sécurisée d’accès conditionnel de l’UER, permet aux diffuseurs de sécuriser leurs contenus pour faire face au streaming illégal.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

La modernisation des plateaux de tournage au programme du CNC

— 22 janvier 2020 à 17:00
Dominique Boutonnat, Président du CNC présente un « plan studios » d’1 million d’euros © DR
Ce jeudi, en ouverture d’une conférence sur l’état des lieux des plateaux de tournage en France dans le cadre de Paris Image Location Expo, Dominique Boutonnat, Président du Centre national du cinéma et de l’image animée (CNC), a dévoilé un ambitieux « plan studios » destiné à impulser davantage d’attractivité à la filière des plateaux de tournage. Ce plan s’appuie sur 4 socles : un appel à projets, une politique régionale, une stratégie de promotion internationale et une politique de formation...
 
 
"La France est reconnue dans le monde entier pour l’excellence de ses industries techniques la qualité de ses talents et pour ses savoir-faire. L’attractivité internationale de cette filière est un enjeu majeur de la politique publique menée par le CNC et les plateaux de tournages en sont un élément central. Néanmoins dans un rapport remis au CNC et à Film France par Serge Siritzky pointe un sous-dimensionnement des équipements français par rapport à ceux des autres pays européens : moins de surface totale pas de grands plateaux et une prise en compte insuffisante des nouveaux enjeux numériques. De plus ces plateaux disposent rarement de  « backlots », des terrains adjacents où fabriquer et stocker de très grands décors. Nous avons décidé de réagir avec un « plan studios » doté d’une enveloppe de 1M€... Le plateau du XXIème siècle doit être numérique et durable et le CNC accompagnera cette mutation » a annoncé le Président du Centre national du cinéma et de l’image animée (CNC). 

 

Le « plan studios » s’articule autour de 4 axes :

Une aide à la modernisation, numérique et durable, sous la forme d’un appel à projet doté d’1M€ au sein du soutien financier aux industries techniques. Une attention particulière sera portée aux enjeux numériques, d’une part, et aux projets éco-responsables, d’autre part. La Commission Supérieure Technique de l’image (CST), en lien avec Ecoprod, formulera des recommandations au CNC pour faire évoluer les pratiques dans le secteur.

Un accompagnement et un soutien aux structures à travers les conventions Etat-Région : le CNC proposera aux régions porteuses de projets de plateaux de tournages à rayonnement international d’intégrer cet enjeu dans les conventions de coopération.

La promotion de l’attractivité française à l’international, en partenariat avec Film France : le président du CNC se rendra en Californie, au mois de mars prochain, pour rencontrer les dirigeants des plateformes et majors américaines et envisager, à terme, la création d’un représentation permanente à Los Angeles pour valoriser au plus près des décideurs les savoir-faire français et les dispositifs d’incitation.

Une attention particulière à la formation : la pratique du tournage en studio fait appel à de nouvelles compétences liées notamment au développement des effets visuels. Les établissements accompagnés par le CNC, notamment La fémis, devront intégrer ces enjeux dans leurs pédagogies afin de former les nouvelles générations à tous les types de tournages.

Au-delà de la portée directe de ces mesures, le lancement de ce plan a l’ambition decatalyser un mouvement collectif impliquant les professionnels, les collectivités et les partenaires du financement.

☐ ☆ ✇ Mediakwest - Broadcast

L’IMF s’installe sur le marché français (Web TV François Abbe)

— 22 janvier 2020 à 17:00
L’IMF s’installe sur le marché français (Web TV François Abbe) © DR

François Abbe, présent sur le Satis en tant que Gouverneur SMPTE, intervenait sur l’une des conférences Satis consacrée à l’IMF (Interoperable Master Format). Ce protocole assez rapidement adopté aux Etats-Unis par les industries créatives et cinématographiques a mis un peu plus de temps a trouver ses marques en France… Mais les temps changent et son utilisation décolle enfin, il était temps car l'IMF a tout pour plaire ! François Abbe nous rappelle sur le plateau de la Web TV Satis-Mediakwest ce qu’est l’IMF et dresse un état des lieux du marché français…

 

« Nous avons utilisé pendant longtemps des cassettes VHS. Nous sommes très vite passés finalement au monde du fichier. Dans le monde du cinéma, cela n’a pas été du tout le cas. Le 35mm a été utilisé pendant longtemps. Les projections en salle sont passées en mode fichiers mais cela a demandé des années. Nous avons appelé cela le format DCP. Les majors américaines ont dit : « Nous voulons la même chose pour arrêter d’envoyer des cassettes d’un point A à un point B. »

Puis, il y a eu l’effet Fukushima en 2011 où Sony a dit : « J’ai une seule usine. Elle est au Japon. Elle n’existe plus. Elle a été détruite par le tsunami. » Les gens ont pris conscience qu’il fallait passer au monde du tout fichier pour passer d’un point A à un point B. De là, est né l’IMF. Interoperable pour qu’il puisse lire tous les formats, Master pour mettre par exemple le film Alice aux Pays des Merveilles sur un réseau de VOD où l’on va recevoir un package comprenant un dossier informatique avec Alice aux Pays des Merveilles en film vidéo avec 2 langues, 4 sous-titres ou un fichier .xml pour jouer le film Alice aux Pays des Merveilles en version originale. Si je veux la version française, je vais utiliser d’autres fichiers qui sont dans ce package… L’intérêt est multiple en termes d’archivage et va permettre d’économiser sur le long terme. C’est Netflix qui a poussé ce format ! »

 

Découvrez dans la suite de l’entretien vidéo pourquoi Netflix impose l’IMF dans ses protocoles de production de contenus UHD... Un choix légitime économiquement dès à présent même si l’avenir de cette norme ouverte est devant lui...

☐ ☆ ✇ Mediakwest - Broadcast

E-Vision lance son service OTT avec Synamedia Infinite Platform

— 30 janvier 2020 à 17:00
E-Vision lance son service OTT avec Synamedia Infinite Platform © DR

E-Vision, filiale du Groupe Etisalat, a choisi la plate-forme Infinite, basée sur les technologies de réseau vidéo de Synamedia, pour son nouveau service OTT multi-pays et multi-opérateur. Cette plate-forme est déjà en service en Egypte et sera bientôt lancée en Arabie Saoudite. D'autres marchés suivront prochainement...

 

Le nouveau service d'E-Vision, entièrement géré et fonctionnant dans le cloud, offre aux opérateurs de la région MENA et du Pakistan une plate-forme innovante pour lancer et exploiter rapidement et à moindre coût des services OTT multi-écrans et multilingues. Il vient compléter l'activité existante d'E-Vision en matière de contenu et de licences de chaînes, comprenant les productions des studios d'Hollywood, de Bollywood et les productions arabes régionales, ainsi que plus de 550 chaînes de télévision.

E-Vision offre aux opérateurs de télécommunications, aux FAI et aux autres fournisseurs OTT une plate-forme clé en main, complète, sécurisée et rentable pour les services de télévision linéaire et de VOD. Tous les coûts (infrastructure, innovation, traitement vidéo, intégrations logicielles et analyse) sont partagés entre opérateurs. Les clients d'E-vision peuvent ainsi disposer d'une base de coûts prévisibles selon la croissance des revenus de leur service.

Les clients d'E-Vision peuvent facilement personnaliser l'interface utilisateur d'Infinite pour donner à chaque service sa propre identité visuelle. La plate-forme offre la possibilité d'enregistrer des vidéos dans le cloud et prend en charge l'agrégation de contenu, la recherche et les recommandations avancées pour une expérience utilisateur personnalisée qui a fait ses preuves dans la fidélisation des spectateurs. Parmi les autres fonctions prises en charge, citons les modèles commerciaux de télévision payante, de VOD par abonnement et de VOD par publicité, ainsi que la plate-forme pré-intégrée Evergent pour un support client complet et une facturation facilitée.

En choisissant Synamedia comme fournisseur global, E-Vision a également déployé des technologies de réseau vidéo de premier plan, comme par exemple une plate-forme CDN privée. La solution de Synamedia permet de réduire les délais à chaque étape du traitement de la vidéo - de l'encodage au CDN au lecteur vidéo. Ceci permettra aux clients OTT d'E-Vision de fournir à leurs abonnés une expérience vidéo de haute qualité, fiable, évolutive, tout en évitant les inconvénients de chargement liés à l'OTT.

 

"Nous avons travaillé en étroite collaboration avec les équipes talentueuses de Synamedia pour développer et déployer le nouveau service OTT d'E-Vision. La plate-forme Infinite est sécurisée et capable de fournir une solution complète de bout en bout garantissant à nos clients un service de premier ordre, évolutif et rentable ", commente Humaid Rashid Sahoo, CEO d'E-Vision.

"Avec son nouveau service OTT multi-opérateur, E-Vision est le pionnier d'une nouvelle approche des services OTT - une approche que nous pensons être la tendance du marché. Avec une concurrence aussi intense dans le domaine OTT, une plate-forme vidéo partagée a du sens pour de nombreux opérateurs. En utilisant notre plate-forme évolutive, fiable et basée sur le cloud, E-Vision libère ses clients OTT de toute préoccupation concernant la technologie sous-jacente et leur permet de se concentrer sur la construction d'une activité durable et rentable plus rapidement", souligne de son côté Yves Padrines, CEO de Synamedia.

☐ ☆ ✇ Mediakwest - Broadcast

Transmission de signaux : Rohde & Schwarz décompose la gigue

— 30 janvier 2020 à 17:00
Rohde & Schwarz décompose la gigue pour ses oscilloscopes © DR

À mesure que les vitesses de transmission de données augmentent et que les variations d’amplitude des signaux diminuent, la gigue occupe, lors de la transmission de signaux via des interfaces numériques, une part significative dans les analyses, et devient une source de pannes potentielles. Les ingénieurs ont donc un besoin accru d'outils leur permettant de caractériser précisément la gigue d’un signal et de connaître les différents éléments qui la composent.

 

La nouvelle option R&S RTO-/ RTP-K133 permet l’analyse avancée de la gigue par la mise en œuvre d’une approche analytique assurant la séparation de ses différents constituants telles que la gigue aléatoire ainsi que ses composantes déterministes (notamment la gigue dépendante des données et la gigue périodique). Cette approche repose sur un modèle de signal paramétrique qui caractérise le comportement complet de la liaison de transmission testée.

L’un des principaux atouts de la méthode développée par Rohde & Schwarz est qu'elle exploite un modèle de gigue qui comprend l’ensemble des caractéristiques de la forme d’onde du signal testé, contrairement aux méthodes traditionnelles qui réduisent les données à un ensemble de mesures d'erreurs d'intervalle temporel. Résultat : ce procédé délivre des mesures cohérentes, même pour des séquences de signaux relativement courtes, ainsi que des informations qui n’étaient jusqu’alors pas accessibles telles que la réponse impulsionnelle ou la possibilité de distinguer la gigue périodique verticale et horizontale. Les ingénieurs disposent d’informations détaillées de la gigue présentées sous différentes formes : diagrammes de l’œil synthétiques, histogrammes de chacune des composantes de la gigue, vues spectrales et des pics de la gigue périodique, et tracé de la courbe en bathtub pour l'estimation du taux d'erreur (Bit Error Rate).

 

Josef Wolf, vice-président senior et responsable de la division oscilloscope de Rohde & Schwarz ne doute pas que l'option R&S RTO-/ RTP-K133 sera très bien accueillie : "Nous sommes fiers de présenter une méthode avancée qui est la première approche réellement nouvelle permettant d’améliorer le processus de séparation de la gigue avec un oscilloscope depuis près de 20 ans. Avec notre nouvelle option de jitter avancée, nous aidons les ingénieurs à accéder à des informations supplémentaires concernant les caractéristiques de la gigue de leur signal qui leurs étaient jusqu'à aujourd’hui inaccessibles".

Cette nouvelle option de séparation de la gigue fournit aux ingénieurs un nouvel outil de débogage de l'intégrité des signaux qui vient en complément de fonctionnalités, uniques sur le marché pour un oscilloscope : ses capacités d’analyse de la propagation des signaux en réflexion (TDR) et en transmission (TDT) dans le domaine temporel, et de la compensation en temps réel de la chaîne de mesure (De-Embedding).

 

L'option R&S RTx-K133 pour les oscilloscopes R&S RTO et R&S RTP est maintenant disponible chez Rohde & Schwarz.

☐ ☆ ✇ Mediakwest - Broadcast

Services : les tendances 2020

— 2 février 2020 à 16:00
Sony regroupe sous l’entité Intelligent Media Services ses différents services avec nombre d’entres eux dans le cloud. © Stephan Faudeux

De nouvelles fonctions pour l’optimisation de la diffusion, la visibilité des performances publicitaires et la personnalisation des contenus sont au programme de Verizon Media. Chez Sony Media Services l’heure est au regroupement. Côté plate-forme, il convient de suivre les avancées de Viaccess-Orca en termes de publicité ciblée avec ses partenaires Smart et VizNet, tout comme le travail de Pixit Media avec Red Bee. Lequel a réalisé à l’IBC 2019 une démonstration de remote production lors d’un match de football en Angleterre.

 

VERIZON MEDIA

Verizon Media a lancé de nouvelles fonctions pour l’optimisation de la diffusion, la visibilité des performances publicitaires, la personnalisation des contenus. Verizon Smartplay : Stream Routing permet la transmission de contenus vidéo sur plusieurs CDN, offrant aux téléspectateurs un démarrage plus rapide de leurs vidéos et réduisant les interruptions : l’expérience de visionnage s’en trouve ainsi améliorée. Nouveauté présentée lors du salon IBC 2019, Smartplay : Stream Routing exploite les données sur les performances – côté serveur et client – obtenues par l’intermédiaire du réseau mondial de Verizon Media, pour organiser la circulation des données de manière dynamique. Ainsi, si un incident survient sur un réseau, le trafic est automatiquement réacheminé, protégeant les diffuseurs contre les pannes catastrophiques sur leur réseau.

La nouvelle version d’Ad Server Debug, développé par Verizon Media, offre aux détenteurs de contenus une visibilité de bout en bout pour leur processus d’insertion publicitaire, mettant en évidence les erreurs, les times-out et les problèmes de tags. Cette solution recueille et stocke automatiquement les données relatives à chaque transaction, y compris les délais de réponse et les times-out de serveurs de publicité tiers. Des données complètes sur les sessions des utilisateurs peuvent être stockées jusqu’à 14 jours : les données sont donc toujours disponibles en quantité suffisante pour des tâches de résolution de problèmes ou d’analyse en profondeur.

La solution Smartplay Content Targeting offre des flux vidéo de qualité TV ultra-personnalisés, grâce à une technologie de manipulation. Les pannes de réseau obligent les distributeurs de contenus à restreindre les contenus en fonction de la localisation de l’utilisateur ou du type d’appareil utilisé ; pour maintenir l’attention des téléspectateurs, les chaînes doivent être en mesure de proposer des contenus de substitution en cas de panne du réseau (plutôt qu’un message statique, qui risque d’entraîner une chute de l’audience). Grâce à une interface facile d’utilisation, les clients peuvent programmer les interruptions de réseau à l’avance et prévoir la diffusion de contenus personnalisés, afin de mieux contrôler l’expérience du spectateur. Ils peuvent ainsi cerner des publics, créer des ensembles de règles, puis appliquer ces critères aux contenus concernés. La Media Platform de Verizon permet également la programmation par l’intermédiaire d’une API ou simplement en fournissant un fichier CSV.

Pour continuer d’utiliser les anciens workflows de diffusion, le remplacement des contenus et la gestion de l’audience peuvent être automatisés pour tous les workflows utilisant le système ESNI (Event Scheduling and Notification Interface), ce qui permet de gagner du temps et d’attendre un public plus large tout en assurant l’intégration avec les workflows existants. Une fois configuré, Smartplay Content Targeting est capable de déterminer la localisation d’un spectateur, l’appareil qu’il utilise ou encore son environnement de visionnage, tout cela dans le but de lui offrir l’expérience qui correspond le mieux à sa situation tout en veillant à ce que les contenus appropriés soient diffusés pour le bon public au bon moment, dans toutes les régions du monde.

Verizon Media a annoncé que sa plate-forme de streaming est à présent disponible sur Microsoft Azure, prête à être testée en version bêta par ses clients. Cette intégration permet des workflows simplifiés, une échelle mondiale et l’accès à différentes ressources d’Azure dont Azure Media Services: Video Indexer et à Azure Blob Storage, avec lequel les diffuseurs et les fournisseurs de contenus peuvent entrer dans une nouvelle ère des médias.

Avec la gamme de fonctions de Verizon Media Streaming sur Azure, chaque étape du streaming OTT se trouve simplifiée, de l’encodage et de la distribution à la personnalisation et à l’analyse. La solution vidéo professionnelle intégrée de Verizon Media inclut des fonctions de DRM, d’insertion publicitaire, de personnalisation des sessions individuelles, de remplacement dynamique des contenus et de diffusion vidéo.

Azure est disponible dans plus de régions du monde que n’importe quel autre acteur du cloud : les utilisateurs de Verizon Media Streaming peuvent donc facilement distribuer leurs contenus aux quatre coins du globe. Les clients profiteront également de l’intégration prévue avec Azure Media Services : Video Indexer, qui permettra une analyse approfondie des contenus nouveaux et archivés ; les détenteurs de contenus pourront ainsi ajouter des métadonnées à d’énormes bibliothèques de contenus.

Ce faisant, ils peuvent créer de nouvelles expériences pour le spectateur, par exemple des chaînes personnalisées, ce qui se traduit par des sessions plus longues et des recettes publicitaires accrues. Les clients pourront également profiter de Azure Blob Storage, une solution de stockage dans le cloud offrant une disponibilité et une extensibilité élevées.

Verizon Media Streaming sur Microsoft Azure est actuellement en version bêta. Les clients peuvent s’inscrire pour profiter immédiatement des dernières nouveautés et améliorations apportées à la plate-forme. Aucun coût d’installation ou d’accès à la plate-forme. Le service est conçu de manière à ce que l’utilisateur moyen puisse commencer son déploiement avec une assistance minimale. Il n’y a également aucun coût lié à la migration ou, généralement, à l’assistance d’un ingénieur ; et des ingénieurs experts sont joignables par e-mail 24 heures sur 24 et 7 jours sur 7.

 

 

RED BEE

Lors de l’IBC, Red Bee Media a réalisé une démonstration de remote production lors d’un match de football en Angleterre. Les signaux en 4K du car régie et les caméras individuelles de Leyton Orient FC étaient transmis jusqu’aux installations de Red Bee Media à Londres et aux Pays-Bas. Les flux de caméra étaient intégrés dans la production à l’aide des nouvelles capacités de production à distance de Red Bee, avec commentaires en direct. Le dispositif permettait également de produire des contenus personnalisés destinés aux médias sociaux à partir des images du match en direct. Lors de l’opération, était inséré un flux audio de commentaires et envoi à l’équipe Access Services de Red Bee pour un sous-titrage en direct du match. L’équipe Playout de Red Bee crée, à partir des images produites en direct, un flux personnalisé de contenus promotionnels à diffuser en cours de match pendant les arrêts de jeu. Le programme principal était présenté sur le stand de Red Bee lors du salon IBC en même temps que le flux était envoyé à l’équipe de distribution pour être compressé en vue d’une diffusion en aval, et diffusion simultanée d’un flux à basse latence sur la plate-forme OTT de Red Bee.

 

 

SONY MEDIA SERVICES

Même si les services proposés ne sont pas tous récents, Sony les regroupe sous l’entité Intelligent Media Services. De la production, acquisition jusqu’à la distribution de contenus Sony veut se positionner sur toutes les étapes de la vie des contenus. Elle s’appuie sur Media Backbone Hive, Virtual Production, XDCAM Air, Ven.ue, CI. Le but est d’utiliser majoritairement des services dans le cloud pour raccourcir les délais, de pouvoir produire partout dans le monde, d’obtenir un niveau de fiabilité plus élevé grâce à des fonctionnalités de prototypage rapides et à un système de production de news basé sur le cloud. Il s’agit de remplacer la dépense en capital en coûts de fonctionnement. Les technologies déployées par Sony sont simples d’usage. Il suffit de glisser/déposer des fichiers pour créer, tester et déployer des workflows en quelques heures seulement, et non en plusieurs jours ou semaines. L’intégration d’une bibliothèque de contenus est rapide et vous pouvez profiter d’une solution d’automatisation et d’outils qui raccourcissent les délais de mise sur le marché tout en vous faisant bénéficier d’un meilleur accès aux contenus. En bout de chaîne, les contenus sont sécurisés dans le cloud ou sur les disques optiques proposés par Sony.

 

 

VIACCESS ORCA

Filiale du groupe Orange, Viaccess-Orca est spécialisée dans la protection du contenu pour les opérateurs de TV payante et les plates-formes de distribution OTT. Elle intervient sur deux segments : sécurisation du contenu avec la partie DRM, accès conditionnel, cryptage de données, player sécurisé, services anti-piratage, d’un côté ; et de l’autre, plate-forme de distribution avec une interface utilisateur permettant une expérience homogène d’un équipement à un autre, des solutions de recommandation de contenus, de data-analytics, predictive-analytics, churn-prediction (le risque de perdre des abonnés), etc. Son architecture TV Plateform Solution est présente sur site chez les diffuseurs, mais également dans le cloud (TvaaS) pour des infrastructures plus légères.

Côté plate-forme, Viaccess-Orca faisait état de ses avancées en termes de publicité ciblée pour les services de VoD et de live streaming avec ses partenaires français Smart et VizNet. « Protection des contenus et anti-piratage sont au cœur du développement de Viaccess-Orca depuis son origine, explique Atika Boulgaz, directrice de la communication globale, Viaccess-Orca. Nous avons lancé notre “Anti-Piracy Center”, de la cyber-sécurité au service des diffuseurs afin de les accompagner dans la mise en œuvre de toutes ces technologies. » Cette boîte à outils « anti-pirates » offre plusieurs services tels que l’identification des liens redistribués illégalement (afin d’accumuler des preuves pour la justice), la prévention du partage de mots de passe, ou des technologies de watermarking avancées. Viaccess-Orca est partenaire de b<>com, un institut de recherche français installé à Rennes, et travaille sur le « dynamique watermarking » afin de générer plusieurs algorithmes de marquage difficilement crackables par les pirates. Une technologie qui a valu à Viaccess-Orca un Award CSI dans la catégorie « Best Content Protection Technology », lors de cet IBC.

 

 

PIXIT

Red Bee Media, l’un des leaders mondiaux des services médias, a annoncé la conclusion d’un partenariat stratégique avec Pixit Media, pionnier des solutions logicielles d’infrastructure pour les secteurs des médias et du divertissement, pour offrir des services d’infogérance dans toutes ses installations multirégionales de play-out.

Les services logiciels de play-out offerts par Red Bee permettent une configuration et un déploiement rapides de nouveaux services TV, donnant aux acteurs de la télévision la possibilité de lancer rapidement de nouvelles chaînes et fonctions. Pour améliorer les workflows et protéger les contenus à haute valeur pour répondre aux normes de sécurité les plus strictes, Red Bee a déployé PixStor, la plate-forme de stockage de Pixit Media, pour son infrastructure de play-out.

Basé sur Ethernet et offrant une API, PixStor met à disposition un environnement de données qui réunit différents appareils, applications et systèmes en un unique workflow – garantissant des performances stables, une extensibilité illimitée, un contrôle des données et un accès collaboratif sécurisé pour tous les utilisateurs, où qu’ils se trouvent.

Pixit Media a travaillé avec Red Bee pour répondre au mieux à ses besoins spécifiques, apportant les améliorations nécessaires à la plate-forme PixStor pour offrir des fonctions de mutualisation dans un espace de noms unique. Cela permet de réduire les coûts importants liés à la gestion d’une infrastructure complexe divisée en plusieurs parties pour séparer et protéger les données des clients. Avec PixStor, Red Bee peut désormais séparer et isoler les données rapidement et modifier ses capacités en fonction des volumes à traiter, le tout au sein de l’environnement unifié de PixStor, sans pertes de performance ou de baisse du niveau de service offert aux clients.

PixStor a été déployé dans les centres de play-out de Red Bee Media en Suède et au Royaume-Uni, y compris dans son installation londonienne de R&D ; d’autres sites suivront prochainement.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Tout sur la SMPTE avec Barbara Lange, sa directrice générale ! (Web TV SATIS)

— 5 février 2020 à 17:00
Présentation de la SMPTE, association interprofessionnelle internationale (Web TV Barbara Lange) © DR

François Abbe, gouverneur de la Society of Motion Picture and Television Engineers (SMPTE) pour l’Europe, le Moyen-Orient et l’Afrique, a reçu sur notre plateau de Web TV Satis, Barbara Lange qui dirige la SMPTE et le HPA qui est le Hollywood Post Alliance. Elle nous présente cette entité…

 

« La SMPTE est une organisation internationale qui est visible à travers le monde. Elle a 103 ans et est née avec le cinéma. La SMPTE travaille sur tout ce qui est interopérabilité, comment échanger les formats etc… Il y a une grosse communauté de 7000 membres à l’international. Il y a également toute une partie éducation pour faire avancer les technologies dans les médias… »

 

Barbara Lange revient dans un second temps sur le format de l’IMF…

« La norme IMF permet de faciliter l’échange de master en différentes langues ou formats (séries, films…). Le mot d’ordre, c’est l’efficacité lorsque nous distribuons des programmes audiovisuels. Il permet également de réaliser des économies pour la distribution. »

 

En fin d’interview, Barbara Lange revient sur le rôle central de la SMPTE pour accompagner la transition des infrastructures vers le tout IP…

 

POUR EN SAVOIR PLUS, VISIONNEZ L’INTEGRALITE DE L’INTERVIEW VIDEO !

 

Pour en apprendre davantage sur le sujet de l'IMF, consultez l'article L’IMF s’installe sur le marché français (Web TV François Abbe)

☐ ☆ ✇ Mediakwest - Broadcast

Tendances 2020 : quoi de neuf en réalité virtuelle ?

— 5 février 2020 à 17:00
Chez Insta360, l’imposante caméra Titan impressionne les visiteurs. À droite, utilisation surprenante pour l’Insta360 One X. © DR

Nouveaux entrants, acteurs historiques, ils étaient tous à l’IBC 2019 pour présenter leurs produits et services d’avant-garde. Découvrez ici certaines des innovations proposées dans le domaine de la cinématique VR sur le salon. Sauront-elles vous convaincre que la réalité virtuelle est toujours d’actualité ?

 

Du côté de la captation, les fabricants misent sur la débauche de pixels. Tout d’abord chez INSTA360, de retour en force cette année avec un très grand stand tout de jaune vêtu. La nouvelle caméra Titan y trouve une place de choix. Une grosse sphère (de 5 kg) qui est constituée de huit optiques et nous promet une résolution finale d’image 11K (après l’étape de l’assemblage des sources) en monoscopie et 10K en stéréoscopie ! Ce qui en fait à ce jour la championne incontestée de la taille d’image pour la cinématique VR, catégorie caméra tout-en-un.

D’autres caractéristiques sont bien sûr là pour satisfaire les professionnels de l’image : les capteurs Sony Micro 4/3 utilisés par exemple, devraient permettre une utilisation plus confortable de la caméra dans les situations de basses lumières. Le traitement de l’image sur 10 bits est également là pour améliorer le rendu des couleurs. La Titan hérite aussi des technologies déjà implantées sur les caméras Insta Pro2 : la stabilisation « flowstate » très performante et l’option « farsight » qui permet un monitoring et un accès aux fonctions principales à grande distance. Une caméra qui a donc tout pour plaire.

On regrettera juste l’absence d’optiques à ouverture variable, mais c’est un défaut commun à toutes les caméras VR all-in-one du marché (sauf chez Z Cam). Bien sûr Insta360 assoit également sa position de leader sur le marché des caméras 360 « prosumer » avec le succès de la Insta One X, petite caméra aux grandes capacités. Attention tout de même à la sortie prochaine de la GoPro Max, nouvelle caméra 360 de GoPro qui succèdera à la Fusion.

Nouvelle venue, la caméra Pilot Era du fabricant PISOFTTECH semble assez pratique d’utilisation. Ses quatre optiques permettent de produire des images monoscopiques en 8K. Tout l’intérêt réside dans le fait que la caméra est entièrement autonome : elle se charge de stitcher (assembler) automatiquement les images, y compris dans le cas d’une diffusion live. Pas besoin d’ordinateur pour finaliser ses contenus ! Elle est compatible Google Street View, ce qui permet à l’utilisateur d’envoyer ses images sur la plate-forme en un clic. Pilot Era dispose aussi d’un slot Sim, qui peut être utilisé pour la transmission live. Nul doute que la 5G trouvera ici un cas d’usage intéressant...

Pas de grosse nouveauté VR sur le stand de Z CAM qui fait cette année son retour. Il semble que le constructeur mise tout sur sa nouvelle E2 prête à concurrencer les caméras Blackmagic et autres DSLR. Néanmoins, en insistant un peu, nous découvrons un prototype particulièrement intéressant : la Z Cam K2 Pro. Futur successeur de la K1 Pro, caméra professionnelle au format VR180 plébiscité par Google, ce modèle de caméra compacte reprend l’électronique des E2 dans un boîtier à l’avant duquel viennent se positionner deux optiques fisheye, pour une captation stéréoscopique synchronisée en 6K et à 60 images par seconde grâce à deux capteurs micro 4/3. Cette caméra annonce une amplitude possible de 15 diaphs dans certains modes, ce qui permettra aux professionnels de travailler dans toutes sortes de conditions de lumière.

Si on s’intéresse aux optiques, on remarque que celles qui équipent la K2 Pro sont particulièrement qualitatives. Ce sont les toutes nouvelles MKX200 du fabricant IZUGAR, ces optiques de 200 degrés de champ angulaire et de 3,8 mm de focale permettent de s’affranchir des distorsions et des aberrations chromatiques grâce à leur conception asphérique. Elles permettent une ouverture variable de f2,8 à f11. Toutes ces caractéristiques, associées à une taille compacte, en font un choix très intéressant dans le segment de la cinématique VR.

Autre nouveau venu, META CAMERA nous propose la Meta One, une caméra VR tout-en-un qui a la particularité d’avoir été conçue par des créateurs de contenu. Elle devrait donc apporter un vrai plus aux utilisateurs. Voilà donc une nouvelle « back2back » (deux optiques dos à dos), à l’aspect robuste, équipée de lentilles proéminentes de la marque Entaniya (250 degrés de champ angulaire par lentille). Elle ne s’impose pas dans la bataille du plus grand nombre de pixels (5,5K annoncés), mais propose par exemple un enregistrement en ProRes 422 HQ garantissant une compression tout à fait compatible avec une postproduction exigeante (étalonnage complexe, utilisation « fond vert » par exemple), et surtout une possibilité de filmer à une cadence de 120 images par seconde, avec quelques concessions sur le nadir (bas de la sphère 360) et le zénith (haut de la sphère 360) dans ces conditions.

Pas de stand pour KANDAO cette année. Le constructeur des caméras VR professionnelles Obsidian continue à améliorer ses outils pour une utilisation live. Surfant sur la 5G, Kandao présente en collaboration avec Huawei un pipeline complet de captation/diffusion d’images 8K stéréoscopiques à 30 images par seconde ! Un exploit qui augure des contenus immersifs disponibles lors des Jeux Olympiques de Tokyo l’année prochaine.

 

 

En matière de cinématique VR, peu de nouveautés cette année, mais des améliorations de stabilité, de gestion des nouvelles cartes graphiques. Il semble que la 3D temps réel se taille la part du lion dans la réalité virtuelle. C’est paradoxal, car il faut rappeler qu’aujourd’hui les contenus hors gaming les plus consommés dans les casques VR sont les vidéos 360. Malgré les progrès de l’intelligence artificielle, l’étape du stitching (couture des sources entre elles) n’a pas disparu. Elle subit une évolution à travers les mises à jour des logiciels utilisés. INSTA 360 implémente le profil Titan dans la version 3.0 de son logiciel Stitcher. Il est aussi possible pour les utilisateurs des caméras du constructeur chinois d’alléger le travail de couture en recourant aux plugs-in prévus pour Adobe Premiere. Ils vont permettre un « stitch virtuel » des plans montés dans la timeline qui peut être lue en temps réel. Dans ce cas, le stitching est calculé uniquement au moment de l’export du montage final.

Si on veut avoir accès à plus de réglages pendant cette étape d’assemblage propre aux vidéos 360, il faut choisir des logiciels tels que Mistika VR. Cette année encore, l’incontournable outil édité par la société espagnole SGO est plébiscité par une grande majorité de professionnels de la cinématique VR (plus de 2 000 utilisateurs actifs), et est disponible dans sa version 8.10.

Avec toujours plus de profils caméras disponibles, Mistika VR nous propose d’intéressantes améliorations, comme par exemple la possibilité d’agir sur la largeur des zones de recouvrement individuellement par caméra, et également une amélioration significative des temps de rendu. SGO propose aussi un outil plus complet de postproduction dérivé de son logiciel phare Ultima : c’est Mistika Boutique. Une solution logicielle tout-en-un qui permet de finaliser une cinématique VR du stitching à l’export, en passant par l’étalonnage, le tout avec des options de traitement de la stéréoscopie très abouties.

 

 

Côté montage, ADOBE PREMIERE reste leader depuis 2017, date de l’intégration des outils Skybox Suite. Le logiciel facilite le traitement des images équirectangulaires, en reconnaissant par exemple automatiquement les formats sources, qu’ils soient 360 monoscopiques ou 180 stéréoscopiques. L’interface de montage en réalité virtuelle, compatible avec la plupart des casques filaires du marché via Steam VR, permet de visualiser directement son montage en immersion et donc de mieux appréhender rythme, transitions et effets. À noter dans la suite Creative Cloud du même éditeur les récentes mises à jour de AdobeCamera Raw et Lightroom, qui permettent de traiter plus facilement les photos 360 issues des caméras prosumer et professionnelles intégrant un mode de prise de vues Raw, comme l’Insta 360 One X ou la Kandao Qoocam.

De belles innovations concernant le son immersif présentées sur le stand SENNHEISER, avec Dear Reality et un ensemble de plugs-in rassemblés sous la bannière DearVR Pro. Il est ainsi possible de spatialiser et de mixer l’audio multicanal directement en VR dans un studio virtuel (option DearVR Spatial Connect) à travers un casque VR de type Oculus Rift S, et de visualiser ses sources sonores représentées par des objets. Le travail devient alors très intuitif et permet de produire des expériences sonores d’une qualité et d’une précision jamais vues auparavant. Juste à côté, le VR Mic de l’écosystème Ambeo tient toujours une position dominante parmi les matériels de captation 3D audio. Sennheiser fournit le plug-in de conversion du format A de captation vers le format B de postproduction, étape à laquelle la sphère ambisonique pourra être retravaillée.

On remarque cette année que le FRAUNHOFER INSTITUTE reste très actif sur le sujet de la réalité virtuelle, avec une démonstration impressionnante des possibilités de son Player Video 360 : intégré au programme de développement Fame Fokus, ce player permet aux diffuseurs et producteurs de contenus de proposer aux spectateurs une expérience de visionnage à 360 degrés directement sur leur téléviseur (compatible smart TV). Une application mobile ajoute une fonction de « smart remote » qui permet de piloter le lecteur, et de modifier l’angle de vue du programme grâce aux fonctions tactiles du téléphone de l’utilisateur. Côté qualité, le lecteur est capable de recevoir des flux 360 allant jusqu’à 24K ! Seul le champ de vision sélectionné par le spectateur est streamé en résolution UHD, ce qui diminue fortement les besoins en bande passante, tout en augmentant la qualité perçue au final. Une application qui pourrait bien populariser encore plus la 360 !  

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Broadcast Live : les tendances 2020

— 5 février 2020 à 17:00
Le plein de nouveautés sur le stand Newtek et 3D Storm. © Nathalie Klimberg

Depuis peu sous l’étendard de Vizrt, Newtek s’appuie sur une intelligence artificielle pour proposer une automation de programmes plutôt révolutionnaire. Lora réinvente la régie mobile. Dejero sort la nouvelle version de son transmetteur portable EnGo 260. Le français Aviwest présente son protocole SST (Safe Streams Transport) disponible en tant que service cloud et maintenant comme conteneur logiciel utilisable par d’autres fabricants. Enfin, LiveU met en avant sa première unité d’agrégation cellulaire en technologie 5G pour la transmission des images en direct.

 

NEWTEK / 3D STORM

Une version 4 de NDI, Live Story Creator (un outil disruptif proposé dans la suite Premium Access), un nouveau Tricaster, toute une famille de convertisseurs NDI, des updates dans la famille Live Expert… Voilà les principales nouveautés que l’on pouvait retrouver sur les stands Newtek et 3DStorm (le distributeur de Newtek pour l’Europe) de cet IBC 2019. Il s’agissait du premier IBC de Newtek sous l’étendard de Vizrt, l’acquisition ayant été officialisée sur le NAB…

• Live Story Creator

Sur le salon, NewTek exposait Premium Access, son nouveau pack logiciel d’utilitaires pour les régies NewTek VMC1 et TriCaster TC1. Parmi ces utilitaires, Live Story Creator s’appuie sur une intelligence artificielle pour proposer une automation de programmes plutôt révolutionnaire… Conçu comme un simple script intégré à Microsoft Word et doté de déclencheurs d’actions, ce Live Story Creator permet, une fois installé sur un TriCaster ou sur un VMC1, d’exécuter le script souhaité sans expérience de programmation. À partir de 2 299 € HT.

La régie de direct TriCaster 410 Plus, dévoilée au printemps dernier, était aussi sous le feu de la rampe… Elle dispose de huit entrées externes, quatre sorties M/E, quatre sorties mixtes, ainsi que d’une intégration NDI pour la transmission de la vidéo, de l’audio et de données sur IP. Très complet, le système propose de multiples fonctionnalités : une publication en temps réel sur les réseaux sociaux, l’enregistrement multicanal, la lecture vidéo, des templates graphiques, des fonctionnalités de compositing… La solution a notamment déjà été adoptée en Europe par le Wanda Stadium de Madrid… À partir de 9 995 € HT.

• Une gamme de convertisseurs NDI plus que complète !

3D Storm présentait également toute la gamme des convertisseurs vidéo NDI Spark de NewTek : Connect Spark SDI, Connect Spark HDMI, Spark Plus 4K et Connect Spark Pro… Et Delta-Neo N2H, son petit boîtier conçu pour décoder et visualiser tout flux NDI sur les périphériques d’affichage HDMI, les écrans de télévision et les projecteurs vidéo. Ce décodeur NDI haut débit de Deltacast détecte automatiquement le format de flux, le décode et le convertit au format HDMI avec audio intégré en observant une grande stabilité et une très faible latence. Delta-Neo N2H, prix de vente conseillé : 495 € HT.

Les solutions de productions live LiveCG Broadcast et Delta-Stadium continuent d’évoluer… On retrouve ces deux solutions de production graphiques au rapport qualité prix imbattable dans des environnements de plus en plus nombreux. Elles sont distribuées par 3Dstorm.

• LiveCG Broadcast est un générateur de caractères (titreur) professionnel en rack 1U reconnu pour son efficacité et sa simplicité. Très utilisé pour l’habillage graphique de chaînes TV ou web TV et l’affichage sur écran géant, il peut, lorsqu’on lui implémente le module logiciel Social Hub, être connecté aux réseaux sociaux tels que Facebook, Twitter, Instagram et d’autres pour une diffusion de messages en temps réel. LiveCG Broadcast est le titreur graphique professionnel hybride SDI/NDI le plus polyvalent et économique du marché. Prix de vente conseillé : à partir de 2 995 € HT.

Delta-Stadium est une solution clé en main complète permettant de générer et d’afficher des graphiques 2D et 3D pour les animations et les présentations d’avant-match, les horloges, les partitions animées, la gestion des statistiques, les actions, les décisions des arbitres, etc. 3D Storm et Deltacast ont développé une interface dédiée, Delta-Stadium Perimeter, pour gérer l’affichage sur les panneaux led du stade. Cette solution est notamment utilisée au Stade Groupama de Lyon, en France. Prix de vente conseillé : à partir de 7 995 € HT.

 

 

LORA SOLUTIONS

Lora Solutions réinvente la régie mobile, la solution Lora PopCast peut travailler en mode local ou distant. Lora PopCast propose des outils de réalisation, de prévisualisation à distance qui permettent de prendre en charge des flux externes, mais également de gérer un live depuis n’importe quel endroit. L’ensemble est très compact (34 cm de profondeur et 20 cm x 21 cm), facile à intégrer, puisqu’il suffit de brancher est c’est prêt. Aucune configuration n’est nécessaire. Il s’agit d’un serveur qui peut accepter jusqu’à trois entrées SDI, trois flux IP et une sortie PGM ; il bénéficie d’un stockage interne avec accès FTP, CIFS ou OneDrive. Le Lora PopCast se pilote en local ou à distance depuis un PC ou une tablette, il est possible de modifier dynamiquement et instantanément des données à l’antenne et il est multi-client. La solution peut agréger des flux SDI, IP ou de visioconférence, insérer des fichiers multimédia avec la transparence, réaliser de l’habillage dynamique et du PIP.

L’interface graphique est très simple sur le principe du Push Button (un clic pour mettre à l’antenne et un clic pour enlever), avec un accès direct aux données dynamiques liées au bouton. Le serveur est accessible depuis n’importe quel navigateur web. Les boutons sont personnalisables en couleur, ordre, groupe… Via une interface unique vous accédez à la librairie de contenu (sélection, fonction de lecture en boucle…), vous gérez vos sources (adresses des sources externe : vidéo IP, Site Web… Vous pouvez éditer les textes des synthés, changer les paramètres de sortie des flux IP, contrôler des effets.

La combinaison des flux (SDI, IP, Page Web, Skype, Iphone en NDI…) permet de s’adapter à toutes les situations. Les sources se contrôlent dans un mode multiview en réseau local sur un moniteur informatique, en NDI ou SDI, mais aussi à distance en streaming. De nombreux formats de fichiers sont acceptés en import (H.264, Mpeg-2, ProRes, DNxHD, DVCPRO HD…). Il est possible d’incruster un sujet filmé sur fond vert, d’animer un logo… La sortie est en SDI, mais peut être en IP ou NDI ; il est possible d’envoyer du contenu vers les réseaux sociaux. Le signal peut être enregistré dans plusieurs formats. Il peut également être transféré via les outils de transfert Aspera. Outre ces fonctions déjà très complètes, Lora Solutions peut personnaliser Lora PopCast à la demande en ajoutant des effets supplémentaires, en s’interfaçant avec des API tierces… Le pack Alto proposé à partir de 8 000 € HT

 

 

DEJERO

La nouvelle version du transmetteur portable Dejero EnGo 260 pour les contributions mobiles en direct dispose de capacité « 5G ready » et permet l’encodage adaptatif et la compression HEVC des flux vidéo. EnGo prend en charge l’encodage automatique des images selon leur complexité quelles que soient les conditions de tournage avec un débit annoncé jusqu’à 20 Mb/s pour les transmissions en direct 1080p 50/60.

Le système de retour vidéo en châssis 1RU, CuePoint 100 de Dejero a la capacité d’envoyer jusqu’à huit flux vidéo avec l’audio et le téléprompteur depuis une régie de production vers les équipes de tournage avec une latence annoncée d’à peine 250 millisecondes. Le retour vidéo et le téléprompteur peuvent être visualisés sur le terrain par les journalistes, la technique et la réalisation sur un moniteur, une tablette ou un smartphone. La régie peut paramétrer le nombre de retours vidéo nécessaires pour une synchronisation temps réel entre le plateau et les reporters lors d’un multiplex.

WayPoint 204 est le premier serveur 1RU Dejero à prendre en charge les standards SMPTE ST 2110. En plus de recomposer la vidéo transportée sur plusieurs connexions IP à partir d’émetteurs Dejero, WayPoint auto-détecte et décode les flux HEVC ou AVC, fournit quatre canaux IFB symétriques et quatre sorties compatibles SMPTE ST 2110.

IronRoute est une solution de diffusion qui permet d’agréger les liaisons cellulaires et satellites (Intelsat) pour proposer un service centralisé dans le cloud. La solution vise à simplifier la diffusion simultanée des images en direct et sous forme de fichiers vers plusieurs lieux de réception – une chaîne TV et ses bureaux en région par exemple –, via des transmissions point à point, point à multipoint et multipoint à multipoint avec une simple interface dans un navigateur web.

Disponible à présent en Europe, le service de connectivité mixte cellulaire et satellitaire CellSat permet de résoudre des problèmes d’encombrement ou de manque de connectivité pour des directs, en mélangeant toutes les liaisons 3G/4G/5G disponibles avec le réseau satellite en bande Ku d’Intelsat pour garantir une fiabilité et une qualité des images.

 

 

AVIWEST

Le français Aviwest présentait son protocole SST (Safe Streams Transport) permettant d’agréger plusieurs flux IP pour des liaisons de contribution en direct des chaînes TV. Disponible en tant que service cloud et maintenant en tant que conteneur logiciel utilisable par d’autres fabricants, cette technologie a reçu le prix Emmy Award 2019 de la National Academy of Television en 2019. Elle a été mise en œuvre par Turner Sports lors de la diffusion en direct de la Ryder Cup de golf fin 2018 à Paris. Des images qui transitaient depuis Paris vers Atlanta via un simple Internet public et la technologie Safe Streams. « Des liaisons dédiées très coûteuses étaient auparavant utilisées par Turner Sports pour ses directs. En passant par les solutions Aviwest, la chaîne a divisé par mille ses coûts de diffusion avec une qualité d’image excellente sans perte de paquets ! », s’enthousiasme Erwan Gasc, directeur général Aviwest.

La société se concentre actuellement sur l’adaptation de ses produits au réseau 5G et les modems à intégrer. Via une mise à jour logicielle, les émetteurs DMNG Pro3 et AIR disposent d’un mode data Hotspot qui permet de les transformer en borne Internet à haut débit. « L’accès à Internet est disponible en wi-fi ou en LAN Ethernet et permet à des journalistes ou à n’importe quelle société d’avoir une connexion Internet haut débit, quelle que soit sa situation géographique », explique Cyril Hamelin, directeur des ventes Europe Asie du sud. Les huit cartes SIM des émetteurs Aviwest se connectent au réseau 4G et permettent des débits allant jusqu’à 70 Mb/sec. « Nos produits habituellement utilisés dans un sac à dos pour faire du direct pourront être installés dans un véhicule de reportage ou un car-régie et servir de routeur Internet, ajoute Cyril Hamelin, Aviwest. Pour les événements de dernière minute, c’est la solution idéale qui permet d’avoir une connexion web fiable sans les coûts d’une liaison dédiée facturée par un opérateur filaire ou satellitaire. »

Aviwest était au cœur d’une démonstration technique avec son partenaire rennais b<>com dans la Future Zone de l’IBC mettant en avant les capacités de transmission de ses émetteurs cellulaires AIR dans le cas d’un réseau virtuel 5G dégradé. Aviwest expérimentait également avec EVS une solution de gestion de métadatas de bout en bout avec sa plate-forme de gestion Manager et ses serveurs StreamHub qui se connectent aux principaux outils de newsroom et de diffusion et qui automatise l’indexation des clips vidéo et la remontée des métadatas. Grâce à une approche basée sur l’intelligence artificielle, la solution Aviwest permet d’accéder et de trier une multitude de clips provenant du terrain afin de finaliser des sujets beaucoup plus rapidement avant leur insertion dans un conducteur d’antenne.

Vodalys.studio propose une application de régie vidéo multicam dans le cloud pour la diffusion en direct sur le web de petits événements, et qui permet d’enrichir les flux de streaming avec de l’habillage, de l’ajout de logo, du picture-in-picture... Aviwest a développé un docker capable de s’intégrer à ce type de plate-forme et qui remplace un récepteur Aviwest. N’importe quel client utilisant un émetteur App Mojopro, PRO3 ou AIR se connectera directement avec la régie vidéo dans le cloud pour accéder à ses fonctionnalités. Les flux live provenant des émetteurs Aviwest sont à présent intégrés directement dans le MAM de Newsbridge permettant la transcription speech-to-text et la reconnaissance automatique de plans à partir d’une base d’images de plus de 200 000 personnalités.

 

 

LIVE U

L’émetteur 4K HEVC LU600 5G est la première unité d’agrégation cellulaire en technologie 5G de LiveU pour la transmission des images en direct (news, sport…). Il incorpore des modems 5G et des antennes couvrant toutes les fréquences jusqu’au 6 GHz (4G/5G), assurant la transmission d’événements live de manière ininterrompue même dans des zones difficiles. « Une mise à jour 5G est prévue pour le parc de boîtiers LiveU déjà en service », indique Jean-Christophe Albou, responsable développement commercial LiveU en Europe du sud et Benelux.

LiveU participe régulièrement à des tests 5G avec les opérateurs, dont AT&T aux États-Unis, Vodafone en Italie, et KT Corporation en Corée du Sud. En juillet dernier à Las Vegas, LiveU et l’opérateur AT&T se sont associés à la chaîne ESPN et Ericsson pour tester avec succès un tournage et une transmission 5G en direct avec des smartphones – à l’aide de l’application mobile LU-Smart –, lors des rencontres de la NBA Summer League, avec des débits sur place de plus de 1,5 Gbps. En avril dernier, LiveU a participé en Corée du Sud à la diffusion en direct (via le réseau 5G de SK Telecom) du concert du 100e anniversaire de l’établissement du gouvernement provisoire de Corée en Chine, lors de cette cérémonie diffusée dans cinq pays. À noter que LiveU a passé récemment un partenariat avec Griiip, le fabricant de voitures de course de Formule G1, afin de mélanger les solutions de transmission en direct de LiveU avec les outils de statistiques de course (vitesse, chronos…) de Griiip pour offrir aux chaînes des images inédites des compétitions.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Les solutions clés en main de Multicam Systems (Web TV Arnaud Anchelergue)

— 11 février 2020 à 20:35
Les solutions clés en main de Multicam Systems (Web TV Arnaud Anchelergue) © DR

Radio France et France Télévisions ont multiplié dernièrement les projets communs pour proposer à leurs publics une meilleure offre de proximité. Ainsi, d’ici 2022, les 44 matinales (7h-9h) de France Bleu seront diffusées sur France 3… Une mutualisation des deux groupes du service public qui permettra également une meilleure visibilité sur tous supports.

 

Multicam Systems va accompagner ce déploiement puisque vous retrouverez bientôt une quarantaine de leurs solutions sur les plateaux des matinales de France Bleu… Nous avons reçu à cette occasion pendant le Satis, Arnaud Anchelergue, Directeur général de Multicam Systems…

« L’objectif pour les matinales de France Bleu était d’équiper chaque équipe par un système de captation très simplifiée pour pouvoir diffuser les matinales France Bleu sur le réseau France 3. Nous sommes un peu dans de la radio filmée mais un peu évoluée avec beaucoup d’enrichissements pour faire des news. C’est un système avec une personne qui va faire 2 heures de live par jour pour alimenter les France 3. C’est donc un beau projet ! »

 

Arnaud Anchelergue revient sur la force des solutions Multicam Systems…

« La grosse force de nos produits, c’est une interface très intuitive, très ergonomique qui s’adresse à des éditeurs visuels. Ces opérateurs ne sont pas des techniciens mais ont plus un profil de journaliste. Ce sont vraiment ces gens-là qui vont exploiter la solution. Dans un secteur qui est très porté sur la technique, nous essayons d’avoir une approche qui est plus portée sur l’utilisateur et donc de faire des interfaces faciles à utiliser. »

 

POUR EN SAVOIR PLUS ET DECOUVRIR LES FUTURES SOLUTIONS DEVELOPPEES PAR MULTICAM SYSTEMS A VENIR, VISIONNEZ L’INTEGRALITE DE L’INTERVIEW VIDEO !

☐ ☆ ✇ Mediakwest - Broadcast

Workflow Production & Automation : les tendances 2020

— 16 février 2020 à 17:30
Avid permet aux créateurs et chaînes de télévision de pousser plus facilement les contenus sur les réseaux sociaux via MediaCentral l Publisher, basé sur la technologie de Wildmoka. © Stephan Faudeux

Signé il y a quelques mois, l’accord Sony/Nevion AS donne lieu à la création de solutions sur mesure pour des environnements de production live modernes, tout comme en broadcast le partenariat technologique entre Woody Ingest Live et Libero Systems. Le nouveau MediaCentral l Publisher d’Avid devrait permettre aux entreprises du secteur des médias d’attirer de nouveaux publics et sources de revenus. Scisys a, lui, déjà annoncé le déploiement de la technologie OpenMedia par France Télévisions. À cela s’ajoute une pléthore de nouveautés et mises à jour à suivre en 2020 chez Axle, Grass Valley, Dalet et Pebble Beach Systems.

 

SONY

Il y a quelques mois, Sony et Nevion AS, l’un des principaux fournisseurs de solutions de production multimédia virtuelles, ont signé un accord de partenariat stratégique. Nevion et Sony entendent ainsi offrir aux clients le savoir-faire et les produits (équipements et systèmes) dont ils ont besoin, afin de créer des solutions sur mesure pour des environnements de production live modernes et performants. À l’occasion du salon IBC, avec l’aide de United Broadcast, une filiale d’Euro Media Group (EMG) et de CenturyLink, Sony a présenté un exemple de solution IP Live complète reliant le stand Sony, le stand Nevion et un studio de production à distance IP situé à Hilversum.

 

 

AVID

Avid a dévoilé le nouveau MediaCentral l Publisher, basé sur Wildmoka, avec lequel les entreprises du secteur des médias peuvent créer des contenus, ajouter des graphismes, leur identité visuelle, ou encore publier des vidéos d’information ou de sports sur les médias sociaux avec une réactivité bien plus rapide qu’auparavant, attirant ainsi de nouveaux publics et de nouvelles sources de revenus. Selon le Pew Research Center, 68 % des personnes aux États-Unis s’informent sur des plates-formes sociales comme Facebook, Twitter, Instagram, YouTube ou encore LinkedIn. Pour les acteurs de l’information et des sports, il faut créer le buzz sur ces médias sociaux en étant le premier à diffuser les contenus sur différentes plates-formes.

MediaCentral l Publisher est une nouvelle solution SaaS utilisant Wildmoka, qui sera disponible avec la plate-forme MediaCentral 2019 d’Avid ; celle-ci offre aux organisations d’information, de contenus sportifs et de postproduction des outils puissants grâce auxquels elles peuvent rapidement publier leurs contenus dans les différentes plates-formes de l’univers numérique. Les utilisateurs de MediaCentral peuvent désormais enregistrer des logs, rechercher et utiliser des contenus, créer une séquence des moments importants dans la ligne temporelle, ajouter des graphismes, puis publier le résultat sur toutes les plates-formes sociales et numériques à l’aide de MediaCentral | Publisher.

Avid a annoncé la prise en charge du protocole de transfert vidéo SRT (Secure Reliable Transport), qui permet une transmission fiable de contenus vidéo en direct sur l’Internet public pour les programmes sportifs et d’information. Avid a également annoncé de nouvelles intégrations avec le SRT Hub de Haivision, qui permet un routage intelligent en direct sur IP de flux en direct et de fichiers à travers tout le réseau Microsoft Azure, pour une distribution de contenus économique et de haute qualité vers le cloud d’Avid, ainsi que des workflows éditoriaux. Mis au point par Haivision, le SRT Hub permet un routage sécurisé, de haute qualité et à faible latence, pour transmettre des contenus en direct ou des fichiers depuis le terrain jusqu’au studio ou dans le cloud. Avid, Haivision et Microsoft ont présenté des workflows locaux et dans le cloud qui font appel au SRT Hub de Haivision et à la solution FastServe | Stream d’Avid pour transférer et ingérer des flux SRT sur IP depuis n’importe où dans le monde, sans nécessiter de coûteuses liaisons par satellite ou en fibre optique. Avid est membre de la SRT Alliance, une communauté collaborative d’entreprises et de développeurs du secteur dont le but est de permettre la transmission à faible latence de contenus vidéo en améliorant sans cesse le protocole libre SRT.

 

 

SCISYS

Scisys Media Solutions (anciennement Annova Systems), fournisseur de systèmes de salles de rédaction, a annoncé le déploiement de la technologie OpenMedia par France Télévisions, dans le cadre d’une grande campagne de remplacement des systèmes de salle de rédaction du groupe français. Portant sur deux chaînes généralistes nationales, une chaîne d’information, 24 chaînes régionales, 10 chaînes outre-mer et un ensemble de stations de radio, une offre numérique d’information multiplateforme et environ 3 000 utilisateurs, ce nouvel accord s’élève à plusieurs millions d’euros et assurera la transition des opérations de France Télévisions vers OpenMedia Infinity, le système phare de salle de rédaction de Scisys Media Solutions. Le système fonctionnera en tandem avec l’interface web unifiée Newsboard, utilisée aussi bien par les journalistes que par les équipes éditoriales.

OpenMedia Infinity permet la prise en charge de workflows complexes pour l’information télévisée, de la recherche de dépêches à la rédaction de scripts en passant par la gestion du temps d’antenne. L’architecture personnalisable et ouverte de Newsboard, basée sur les widgets, est pensée pour aider les organisations à s’adapter aux nouveaux workflows tout en relevant les défis d’un paysage des médias en constante évolution. Les deux autres grands acteurs publics de la diffusion en France – Radio France et France Media Monde – utilisent déjà OpenMedia pour leurs salles de rédaction : Scisys Media Solutions détient donc désormais le monopole des systèmes informatiques de salle de rédaction chez les opérateurs publics français.

Scisys s’est rallié à l’Avid Alliance Partner Program. La nouvelle extension du système de salle de rédaction (NRCS) OpenMedia de SCISYS offrira une intégration unifiée avec la plate-forme Avid MediaCentral | Cloud UX, simplifiant même les workflows les plus complexes pour la production de programmes d’information et permettant aux équipes éditoriales d’aborder avec facilité les projets les plus divers.

En offrant un environnement unifié pour la production de programmes d’informations, le logiciel Scisys OpenMedia permet aux journalistes, opérateurs de prises de vues et responsables de salles de rédaction d’obtenir des informations immédiates sur tous les sujets en cours de production, ainsi que de mettre ceux-ci à jour et de voir les calendriers d’actualités, tout en gardant un œil sur les dépêches d’informations et les flux de médias sociaux. Avec l’intégration dans la solution MediaCentral | Cloud UX d’Avid, les utilisateurs pourront accéder aux plates-formes de diffusion depuis le monde entier, à l’aide d’une interface simple et conviviale disponible sous forme de client web et d’application mobile pour iOS et Android.

L’ouverture de la plate-forme de Scisys aux fournisseurs tiers offrira la vitesse et l’extensibilité des outils OpenMedia de planification et de production de programmes d’information d’une part, et la puissance et la flexibilité de MediaCentral | Cloud UX d’Avid d’autre part, répondant ainsi aux besoins les plus pointus des salles de rédaction professionnelles, notamment avec de nombreux outils pour la recherche d’informations, la programmation éditoriale et la gestion du temps d’antenne. Scisys fournira également aux utilisateurs d’Avid le module OpenMedia Connector, qui sera disponible par l’intermédiaire du réseau de partenaires et de distribution d’Avid.

 

 

WOODY

Woody Ingest Live est le résultat d’une forte expérience dans la fourniture de solutions logicielles d’acquisition pour les grands acteurs du secteur et d’un partenariat technologique avec Libero Systems, un acteur qui a fait ses preuves dans les domaines du play-out et de l’ingest en direct. Woody Ingest Live permet aux clients dans le domaine du broadcast d’ingérer des flux en SDI, NDI et IP directement dans leur environnement de postproduction, grâce à une interface intuitive. L’outil web de planification donne également à des utilisateurs multiples la possibilité de programmer des tâches d’ingestion, qui sont alors exécutées sur une série de canaux d’ingestion répartis entre plusieurs serveurs physiques. Woody Ingest Live utilise le moteur Woody de traitement de médias, qui peut être intégré dans différentes plates-formes de gestion des contenus et permet le montage en cours.

 

 

AXLE

Axle ai Connectr est un nouvel outil d’automation de workflows multiplateformes agnostique qui permet de copier ou déplacer des fichiers sur le stockage, transcoder des médias avec la bibliothèque de logiciels FFMpeg, d’envoyer des e-mails et des textes, ou des lignes de commandes à un large éventail d’applications via des API Rest. De nombreuses actions sont automatisées et permettent de gagner beaucoup de temps sur des tâches répétitives pour se concentrer sur la partie créative de la production.

 

 

GRASS VALLEY

Grass Valley présentait GV Pace, sa solution de contrôle et d’automatisation des workflows de production pour la réalisation de directs tels que les news, le sport ou les émissions politiques. Spécialement adapté aux événements de dernière minute, GV Pace peut être utilisé par un opérateur unique qui assure depuis sa tablette la mise en œuvre et le contrôle d’un direct multicouches grâce à une interface tactile qui gère les fonctions d’automation d’Ignite (GV). Solution par abonnement, GV Pace ne nécessite pas l’usage d’un système de contrôle de newsroom (Newsroom Computer System). Elle est compatible avec les produits GV et ceux d’autres fabricants et interagit directement avec les workflows existants.

 

 

DALET

Dalet, le spécialiste de solutions logicielles de gestion et de distribution de contenus, accueillait Ooyala sur son stand suite à l’acquisition en juillet dernier de son activité Flex Media Platform. Complémentaire de l’offre Dalet Galaxy Five, Flex Media Platform permet à l’entreprise française d’accéder à de nouveaux marchés dans le sport (fédérations, clubs de sport…), chez les opérateurs télécoms, diffuseurs… Parmi les clients d’Ooyala figurent les entreprises Fox Sports Australia, HBO Asia, Media Prima, National Rugby League, Turner Asia, TV2 Denmark, Zomin.TV, The Picture Production Company, Audi, Sky Sports et Smoke and Mirrors…

Côté News, Dalet présentait son environnement Unified News Operation qui combine la partie NRCS et la partie NPS (News Production System) comme le montage, la diffusion et l’archivage et permet de couvrir des workflows de bout en bout dans une chaîne TV. Dalet Remote Editing permet de préparer et de monter ses sujets sur le terrain de manière fluide comme dans une salle de rédaction et d’accéder avec une simple connexion 3G et un laptop à d’autres médias stockés à distance.

La plate-forme Dalet CubeNG (Next Generation) de gestion des graphiques, s’appuie sur un processing poussé et des interfaces utilisateur conviviales. Intégrée à l’environnement Unified News Operations, Dalet CubeNG tire profit du moteur de rendu temps réel de Brainstorm (mais également VizRT, Orad, etc.) pour créer rapidement des habillages graphiques 2D et 3D.

La plate-forme Dalet Galaxy Five de Media Asset Management (MAM) et d’orchestration des workflows dispose d’un agrégateur de réseaux sociaux (tweeter, RSS…) baptisé Social Media Agregator permettant de récupérer des images, vidéo et audio, dans une timeline et de créer par drag & drop des objets graphiques diffusables en quelques secondes à l’antenne.

Dalet présentait la nouvelle version Media Cortex (SaaS dans le cloud) basée sur l’IA (intelligence artificielle) au service des workflows de programmes et de news, accessible dans l’environnement de production Dalet Galaxy Five et Ooyala Flex Media. « Media Cortex automatise et enrichit de nombreuses étapes de fabrication, explique Raoul Cospen, directeur du portfolio produit chez Dalet, notamment la génération de sous-titres, la transcription speech-to-text avec un séquençage très précis des lignes de texte au plus près des préconisations éditées par la BBC ». La partie recommandation contextuelle du moteur Media Cortex permet par exemple à un journaliste qui traite d’un sujet de trouver facilement dans sa base de données éditoriale tous types de médias (vidéo, audio, fil d’agence…) s’y rapportant pour étoffer son sujet.

 

 

PEBBLE BEACH

Pebble Beach Systems, spécialiste de l’automatisation et du play-out, a récemment implémenté un plug-in de pré-rendering After Effects (Adobe) pour la création de graphiques 3D, en lien avec ses outils de diffusion Dolphin et le contrôle d’automation Marina. L’idée consiste à simplifier la production des éléments 3D (logos, promos…) sous AE en supprimant leur conversion dans des formats spécifiques aux différents fabricants. « Cette nouvelle intégration gère le rendu automatique des modèles After Effects et leur disponibilité immédiate à l’antenne, explique Manuel Brouard, sales engineering manager, Pebble Beach. Le graphiste accède à un template After Effects pour créer ses modèles 3D qui sont pré-calculés dans la playlist et transférés sur nos serveurs avant leur mise à l’antenne. » L’opérateur-graphiste est ainsi dégagé des tâches laborieuses de traitement multiple, grâce à l’automation en tâche de fond. La solution s’adresse aux chaînes thématiques ou régionales qui n’ont pas forcément le budget pour investir dans un dispositif d’habillage antenne complexe et onéreux. Pebble Beach annonçait également l’intégration du moteur de rendu Viz Engine (Vizrt) dans ses solutions de diffusion Dolphin et Orca.

L’IBC était aussi l’occasion pour Miroslav Jeras, directeur technique de Pebble Beach, de parler de la spécification IS-07 NMOS développée par l’AMWA en vue du remplacement des interfaces GPI dans un environnement IP. Les systèmes Pebble Beach sont présents en France chez NextRadioTv, Arte, Bein Sport, Arkena, Martinique la 1ère…

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Mélangeurs : les tendances 2020

— 17 février 2020 à 17:00
Le prochain mélangeur 4K de Panasonic dispose de huit entrées et cinq sorties 12G-SDI i/o, mais est aussi compatible 3G. © Nathalie Klimberg

Disponible en février 2020, le mélangeur 4K Panasonic AV-UHS5000 sera compatible 3G et sa future plate-forme de production tirant pleinement parti des toutes dernières technologies IP verra le jour au prochain NAB. Pour sa part, JVC permettra d’implémenter un décodeur H265 dans l’emplacement carte mémoire SSD des Connected Cam 500, 550 et 900 et Datavideo annonce l’arrivée du KMU 200 et de l’OBV-3200, sa troisième régie mobile plug and play. D’ores et déjà, la version 3.0 du Carbonite Ultra de Ross inclut un lecteur de clips monocanal pour le play-out de contenus compressés en Mpeg-4 AVC directement depuis un support USB. Chez Grass Valley, la solution tout-en-un Kula AV 1M/E SD/HD-SDI est utilisable par un opérateur unique multitâches et chez Lawo la flexibilité devient un maître-mot.

 

PANASONIC

L’AV-UHS5000, le nouveau mélangeur 4K de Panasonic, dispose de huit entrées et cinq sorties 12G-SDI i/o, mais est aussi compatible 3G. Ce mélangeur 1ME est équipé de cinq keyers, comprenant deux canaux Chromakey et deux canaux PiP. Il est doté de la même ergonomie que le HS410 et peut accepter des cartes additionnelles via deux slots qui lui permettent de passer à seize entrées et quinze sorties 4K 12G SDI, et il possède également des entrées et sorties HDMI. Le mélangeur est également équipé de fonctions de conversion up/down, de conversion HDR/SDR et de conversion ITU-R BT.2020/BT.709 et un slot de carte SD devrait lui permettre un enregistrement ou un play-back de longue capacité. L’AV-UHS5000 sera disponible en février 2020.

Le constructeur a aussi présenté sa prochaine plate-forme de production IP compatible 4K/8K qui représentera un véritable changement de paradigme et les premiers pas de Panasonic dans l’univers de la virtualisation. Cette régie de production live 12G SDI, compatible NDI et conforme à la norme IP SMPTE 2110, change l’approche de l’architecture vidéo des organisations puisque cette plate-forme logicielle ouverte pourra faire office de serveur centralisé et ainsi recevoir puis redistribuer tous types de flux de caméras ou studios virtuels vers des serveurs de processing vidéo, des murs d’affichage led, des vidéoprojecteurs, des stations de montage non linéaires tout en pilotant les sources de captation (caméra et automation), solutions ROI, solution d’auto tracking qu’elle reçoit… Elle offrira de vraies entrées 4K non compressées et une prise en charge totale des signaux IP et en bande de base (tels que ST2110 et NDI) simultanément.

Tirant pleinement parti des toutes dernières technologies IP et offrant un traitement de l’image avec un temps de latence très faible, la plate-forme sera idéale pour la production remote. Elle acceptera pratiquement tous les types de signaux et son interface sera entièrement personnalisable. Flexible et évolutive, cette nouvelle solution permettra d’économiser beaucoup de temps en termes de déploiement, et donc de l’argent !

Lancement prévu sur le NAB 2020...

 

 

JVC

La gamme Connected Cam Studio, lancée cet été, propose deux modèles : le KM-IP4100 et le KM-IP6000 adaptés aux univers de la captation culturelle, de l’éducation, mais aussi du sport (ils peuvent générer des ralentis)… Ils disposent aussi d’un mélangeur audio, d’un générateur de caractère interne avec templates, de quatre couches DSK et d’une librairie de clips. Ces régies HD-SDI et HDMI sont dotées respectivement de quatre ou six entrées IP HD-SDI prenant en charge le protocole NDI, ainsi que le protocole de streaming SRT (Secure Reliable Transport). Elles intègrent un encodeur H.264 intégré et peuvent gérer jusqu’à 10 Mbps de streaming en 1080p, avec une sortie simultanée RTMP et Mpeg-TS et une intégration en streaming direct à Facebook Live et à d’autres CDN…

On notera que JVC annonce pour 2020, la possibilité d’implémenter un décodeur H265 dans l’emplacement carte mémoire SSD des Connected Cam 500, 550 et 900. Le décodeur IP HEVC/H264 BR-DE900 deviendra l’année prochaine lui aussi compatible H265.

 

 

ROSS

Carbonite de Ross est la gamme de mélangeurs de production intermédiaires la plus vendue au monde, et la nouvelle version 3.0 du logiciel dédié à la famille Carbonite Ultra inclut un lecteur de clips monocanal pour le play-out de contenus compressés en Mpeg-4 AVC directement depuis un support USB. Les utilisateurs peuvent enregistrer des vidéos de n’importe quelle durée sur une clé ou un disque USB, brancher celui-ci dans le Carbonite Ultra et inclure les séquences dans leur production. Le lecteur vidéo interne peut être affecté en tant que source à n’importe quel bus du mélangeur, et le play-out peut être contrôlé à l’aide d’une interface DashBoard dédiée, de commandes personnalisées ou de commandes AMP.

Pour les formats UHD, la version 3.0 du Carbonite Ultra permet une conversion bidirectionnelle entre les contenus SDR et HDR (HLG, PQ et S-LOG3), ainsi qu’une conversion bidirectionnelle WCG (Rec.709 ↔ Rec.2020). Capable de prendre en charge les contenus UHD et HDR/WCG, le Carbonite Ultra permet de proposer au public des images d’une qualité exceptionnelle.

Dans la version 3.0 du Carbonite Ultra, l’intégration directe avec le système de commande Ultritouch et le panneau de monitoring est plus fluide que jamais auparavant. Lorsqu’un Ultritouch est pointé vers un Carbonite Ultra, le mélangeur affiche un menu spécial qui inclut le statut du mélangeur, les affectations des bus, l’outil Custom Control Shotbox, et plus encore. Les utilisateurs pourront toujours créer leurs propres interfaces Ultritouch personnalisées afin de simplifier les contrôles de leurs contenus, mais avec les menus prédéfinis, il est possible de commencer immédiatement à prendre en main Ultritouch et le Carbonite Ultra.

 

 

DATAVIDEO

Datavideo annonce l’arrivée du RMC-300A, un pupitre de contrôle IP qui peut prendre en charge jusqu’à vingt-quatre Caméras PTZ/Blocs via huit ports série et seize ports DVIP et mémoriser quatorze positions par caméras (prix : 965 euros).

Par ailleurs, Datavideo annonce l’arrivée prochaine de l’OBV-3200, sa troisième régie mobile plug and play. Cette solution complète de production intégrée dans un pupitre dispose d’un mélangeur SE-3200 HD douze canaux (deux racks).

Le constructeur annonce aussi l’arrivée du KMU 200. Cet outil de production streaming 4K polyvalent permet de mixage vidéo et audio, le contrôle de caméra et la gestion. Comme son prédécesseur, le KMU 100, il peut aussi générer une conversion depuis deux caméras 4K SDI ou HDMI vers huit sorties vidéo 3G-SDI, son contrôleur RMC-185 permet d’utiliser le « pan, tilt, zoom » pour créer en direct quatre découpes dynamiques sur le signal 4K en offrant la possibilité de créer des trajectoires de suivi d’objets mobiles. Le KMU 200 propose en plus un écran tactile et peut enregistrer le flux de streaming H264 sur carte SD. Très simple d’utilisation, cette solution pourra notamment être utilisée par les bloggers… Le KMU 100 est disponible au prix de 915 euros. Le KMU 200 sera disponible en 2020 (prix non communiqué).

 

 

GRASS VALLEY

Grass Valley présentait le mélangeur intégré Kula AV 1M/E SD/HD-SDI avec sa surface de contrôle 19 pouces, utilisable par un opérateur unique multitâches. Solution tout-en-un, il offre des fonctions multiviewers, de conversion de format, de mixage audio dans un cœur de traitement 2RU. Kula AV s’adresse aux petites productions, aux associations sportives, aux universités… Il peut s’installer dans un fly-pack ou dans un car de production léger. L’extension audio Mav de huit faders complète le mélangeur Kula AV.

 

 

LAWO

Lawo présentait sa gamme de consoles de mixage audio MC2 (MC2 36-56-96) destinées aux émissions en direct (radio-télé), aux représentations musicales ou tout autre événementiel, pour des régies fixes, mobiles ou cars de production. La version MC2 56 dispose d’un nouveau bac double fader permettant d’augmenter le nombre de canaux accessibles, jusqu’à 144 faders pour le plus grand modèle. La section centrale de la console MC2 96 dispose à présent de seize faders au lieu de huit précédemment. À noter qu’une nouvelle interface IP Layer-3 a été ajoutée à la gamme MC2 entre le processing et la console facilitant ainsi le partage d’un cœur avec plusieurs surfaces, y compris à travers un LAN ou WAN.

De nouvelles fonctionnalités ont été apportées aux cœurs de traitement AES67 Power Core des consoles de mixage audio de la gamme Ruby. « Lawo introduit une nouvelle gamme de licences baptisée Power Core MAX qui tourne sur le même DSP 1RU existant, mais qui permet de faire fonctionner jusqu’à quatre surfaces audio indépendantes et en parallèle sur la même ressource hardware, explique Joffrey Heyraud, directeur commercial Lawo France. Il existe un petit surcoût pour la licence mais le bénéfice pour le client est sans commune mesure par rapport au nombre de consoles utilisables. » Power Core dispose d’une grande puissance de traitement DSP pour les réseaux AoIP, de multiples fonctions de traitement, de routage et d’E/S analogiques, numériques et AES67.

Dans la série grilles vidéo sur IP, Lawo présente son applicatif V_matrix 1.10 qui s’installe sur le module de traitement Lawo C100, et qui permet d’effectuer toutes les opérations d’un système de grille vidéo, à commencer par le rôle de passerelle vidéo SDI/IP/SDI (up/down/cross conversion SD/HD/3G/UHD), de traitement audio (embedder et desembedder, gain et shuffling audio), de correction de couleur (HDR/SDR) et de génération de mosaïque IP. La version 1.10 vient enrichir les applications V_matrix vm_dmv (multiviewer IP UHD/HDR) et vm_udx (convertisseur up/down/cross UHD/HDR). À noter que vm_dmv supporte à présent le standard SMPTE ST2022-7 pour la redondance de flux. Lawo présentait son nouveau châssis V_matrix Silent Frame pour les serveurs lame V-matrix C100, qui est conçu pour les environnements sensibles au bruit tels que les salles de contrôle, les régies audio ou cabines d’enregistrement.

The Wall v.2.0 est la nouvelle version du logiciel d’agencement des mosaïques de Lawo qui permet de manipuler librement des objets comme éléments d’affichage, sans grille prédéfinie. « The Wall v.2.0 apporte beaucoup plus de flexibilité que la version précédente, il est possible de positionner selon ses choix les éléments de sa mosaïque, en définissant la taille des fenêtres, en choisissant quels éléments afficher sans passer par un modèle prédéfini », indique Joffrey Heyraud, directeur commercial, Lawo France.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Orchestration-Monitoring-Réseau : les tendances 2020

— 18 février 2020 à 17:16
Rhode & Schwarz avait réuni sur son stand toutes ses technologies broadcast et média dans la supervision des réseaux à distance, la contribution et diffusion, mesure et test, production et post-production. © Lionel Ollier

Alors que Connect complémente son système Kybio Media d’une API qui permet d’intégrer sa plate-forme avec les principaux systèmes présents chez les diffuseurs, la solution Smart de Lawo allie la supervision du réseau et l’analyse des flux média avec de nouvelles fonctionnalités. Grass Valley facilite la configuration des workflows IP avec sa suite logiciels et de plugs-in GV Orbit, Rohde & Schwarz prend en charge (via Prismon.cloud) pléthore de normes et de formats pour le transport audio-vidéo et Applicaster mise sur sa plate-forme Zapp qui a permis de lancer l’application officielle de la Copa America 2019 de football au Brésil.

 

CONNECT

Créée en 2017, la société française Connect n’est pas partie de zéro pour développer ses solutions de contrôle et de monitoring de réseaux pour les chaînes et centres de diffusion, puisqu’elle a pu s’appuyer sur l’équipe d’ingénieurs de sa société sœur Worldcast Systems (Audemat, APT, Ecreso) connue pour les équipements de diffusion radio et créée, elle, dans les années 50.

Connect présentait son système Kybio Media de supervision, de gestion et contrôle des équipements et infrastructures techniques multimarques, de l’arrivée des flux, en passant par leur traitement et leur diffusion. « Notre nouveau moteur de corrélation pour la détection et la résolution des incidents réseau a été complémenté d’une API qui permet d’intégrer notre plate-forme avec les principaux systèmes présents chez les diffuseurs, de type ERP/CRM, automation, programmation, PAM/MAM, explique Mathieu Yerle, directeur commercial et stratégie produit, Connect. Nos interfaces-drivers permettent d’interroger les systèmes installés chez les diffuseurs (Evertz, Grass Valley, Riedel, Avid, Quantum…) et de faire remonter des statuts pour contrôler l’état de santé du réseau avec des alarmes en cas d’anomalies. » Kybio Media se présente comme une plate-forme de surveillance et de contrôle agnostique de bout en bout flexible et adaptable qui facilite la supervision des opérations sans être expert en la matière.

 

 

LAWO

La solution Smart de Lawo allie la supervision du réseau et l’analyse des flux média (décodage du contenu des flux audio et vidéo compressés ou non) avec de nouvelles fonctionnalités comme la découverte automatique de la topologie réseau. Applicatif installé sur le serveur, Smart se connecte à une infrastructure réseau à analyser. En quelques minutes, l’application va « scanner » la topologie du réseau c’est-à-dire l’ensemble des éléments qui le compose et leur connexion, en représentant chaque port, chaque appareil présents. L’application permet de découvrir grâce à une interface graphique très intuitive la totalité des flux média qui transitent sur ce réseau, quels chemins ils empruntent, et de traiter les incidents qui pourraient apparaître.

Le nouveau logiciel de contrôle AES67 Stream Monitor de Lawo permet une surveillance des signaux audio AES67 sur le réseau IP. Jusqu’à seize flux audio (mono, stéréo, multicanaux) peuvent s’afficher à l’écran sous forme de vumètres et être écoutés à travers le PC qui héberge l’application. « Il s’agit d’une solution de contrôle autonome qui convient aux petites et moyennes structures qui installent un premier réseau sur IP. C’est une solution très facile à exploiter et efficace pour le contrôle des flux AES67, à un tarif très abordable », indique Joffrey Heyraud, Lawo France.

 

 

GRASS VALLEY

Grass Valley Orbit est une suite logiciels et de plugs-in pour la configuration, le contrôle et le monitoring des équipements dans le cas d’orchestration des réseaux SDI, hybrides ou purement IP. Via une interface graphique, GV Orbit offre une gamme d’outils de diagnostic et de contrôle des matériels (Grass Valley et tierce partie) connectés au réseau, depuis les mosaïques jusqu’aux routeurs. Grâce aux capacités dynamiques de l’interface, l’utilisateur peut aisément ajouter ou supprimer des équipements, changer les panneaux de contrôle ou renommer à la volée les signaux, sans perte de temps.

« Notre but avec le produit GV Orbit est de faciliter la configuration des workflows IP, résume Boromy Ung, VP Marketing Produits. La communication avec nos produits ou ceux de fabricants tiers se fait en automatique en important les presets par défaut qu’il est ensuite possible d’adapter à vos besoins. » GV Orbit utilise le service d’échange de données middleware DDS (Data Distribution Service) pour afficher automatiquement tout nouvel équipement avec ses paramètres de contrôle. GV Orbit s’appuie sur le standard NMOS pour la partie IS-04 et IS-05 permettant d’identifier et de connecter sur le réseau des produits entre eux.

Grass Valley Technology Alliance (GVTA) est une alliance accessible à chaque fabricant et qui regroupe déjà les sociétés Frankly Media, Net Insight, RT Software, Telemetrics et ChyronHego. Le but est de fournir une large gamme de systèmes (graphique, streaming, caméra robotisée…) pré-validés et associés aux solutions Grass Valley dans un écosystème de production interopérable.

 

 

ROHDE & SCHWARZ

Prismon.cloud de Rohde & Schwarz (R&S) est un service sur base logicielle de surveillance et visualisation (Monitoring-as-a-Service) de contenus dans le cloud. Il prend en charge la pléthore de normes et de formats pour le transport audio-vidéo dans un environnement de diffusions OTT, DVB, SMPTE 2022-1/2-6/7, ST 2110-20/21/30/40, ASI, SDI, AIMS, ANWA NMOS. Il offre une supervision de l’ensemble du réseau à distance et sur site, signale les incidents par e-mail et fournit des données de statuts, via une API compatible Rest. Les fonctionnalités de monitoring et de mosaïque IP ont été étendues pour les interfaces SDI/ASI, la configuration PTP et le contrôle des espaces colorimétriques ST 2110 améliorés.

Rohde & Schwarz a ajouté à son système de stockage SpycerNode un nouveau modèle compact 2RU et plusieurs unités d’extension de capacité JBOD. Le nouveau PAM de gestion des fichiers SpycerPAM facilite le travail en réseau des équipes de postproduction sur les principales plates-formes de montage et de mastering, telles que Premiere (Adobe), Media Composer (Avid), Final Cut Pro (Apple) et Clipster (R&S). La dernière version du système de mastering Clipster intègre un iCMU Dolby Vision (Content Mapping Unit intégré – ou unité d’organisation du contenu) qui facilite la conversion SDR et HDR en temps réel. Clipster bénéficie également de la prise en charge des workflows Dolby Atmos pour les équipements grand public. De nouveaux développements concernant le traitement du HDR ont aussi été apportés au serveur de production R&S Venice.

R&S est très en pointe dans ses recherches sur la 5G et propose aujourd’hui son système de transmission LTE/5G en mode broadcast BSCC1.0 et ses transmetteurs Tx9 compatibles 3GPP v.14. Ce qui fait dire à R&S qu’il est « le premier fournisseur de technologie au monde à proposer une solution broadcast 5G complète ».

 

 

APPLICASTER

La plate-forme Zapp d’Applicaster est une solution logicielle cloud (SaaS) de conception et de gestion d’applications mobiles pour les entreprises média cherchant à étendre leur audience auprès d’un public connecté (smartphones, tablettes, TV connectées…). « Zapp offre un ensemble d’outils accessibles via le cloud permettant de développer et de gérer des apps possédant un design et des niveaux de navigation élaborés dans le but d’améliorer l’expérience utilisateur et d’attirer le public sur les plates-formes web et mobile », explique Estibaliz Rodero, responsable des ventes, Applicaster. La plate-forme Zapp a permis de lancer l’application officielle de la Copa America 2019 de football au Brésil. Les fans pouvaient y accéder directement par téléchargement (iOS et Androïd) ou via Twitter et Instagram, partager et annoter les meilleurs moments de la compétition. Ils pouvaient aussi recevoir des notifications personnalisées sur les équipes, les joueurs...

Tout récemment, la plate-forme OTT de vidéo à la demande ZEE5 (Inde) a opté pour Zapp afin d’améliorer la navigation de ses 76 millions d’utilisateurs devant leurs télés connectées et smartphones. Parmi les autres clients Applicaster, figurent de grands acteurs des médias : ProSiebenSat.1, Televisa, DirecTV, Fox TV stations, Time Warner, Mediaset, etc.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Technologies de stockage : et si l’avenir c’était la bande ?

— 19 février 2020 à 17:00
Julien Demeulenaer, expert de la bande magnétique IBM. © Loïc Gagnant

Nous avons découvert Julien Demeulenaere au détour d’un salon et avons été happés par sa passion communicatrice et son don de vulgarisateur. Il dresse pour nous l’état des lieux des technologies de stockage au sens large, et de la bande magnétique en particulier.

 

Mediakwest : Julien, peux-tu te présenter à nos lecteurs ?

Julien Demeulenaere : J’ai 34 ans et je suis expert de la tape (bande magnétique) chez IBM, responsable du chiffre d’affaires (de l’ordre de 100 millions d’euros) et brand manager pour l’Europe depuis 2018. À la base technicien avant-vente, j’ai travaillé avec plusieurs grands de l’informatique avant de rejoindre IBM. Chez Dell j’ai beaucoup appris sur le stockage et les serveurs, j’étais expert virtualisation certifié pour VMware et j’ai travaillé chez Veeam qui a envahi le marché de la protection de données.

Je me suis interrogé il y a cinq/six ans sur le prochain big bang informatique. La réponse est facile c’est le quantique, qui arrivera au minimum dans dix à quinze ans. C’est alors que j’ai pris conscience des énormes qualités de la bande magnétique et de sa grande capacité d’amélioration alors que la mort du disque dur magnétique est annoncée sous une échéance de dix à quinze ans. Les besoins en volumétrie de stockage sont en perpétuelle augmentation, l’unique solution pour conserver des données à un prix contenu est « la tape ». La technologie des disques durs SSD coûte dix à vingt fois plus cher.

Depuis cinquante ans on annonce la fin de la bande magnétique, pourtant son chiffre d’affaires augmente depuis quatre ans chez IBM. Depuis les cassettes VHS, la tape a disparu chez les particuliers. Elle disparaît également dans les petites entreprises, remplacée pour les petites sauvegardes par les disques durs, les clés USB ou encore le cloud.

Par contre les entreprises de grande taille qui centralisent les données, les spécialistes du stockage en ligne vont tous y passer. La majorité d’entre eux ayant déjà amorcé la transition avec des fermes de dizaines de milliers de lecteurs et de millions de cartouches. Les nouveaux grands acteurs sont d’accord avec l’analyse technologique du marché faite par IBM : la bande magnétique est la seule technologie envisageable pour de larges quantités de données.

 

M. : Peux-tu nous préciser ta fonction chez IBM ?

J. D. : J’ai un rôle hyper hybride : je fais du business management et du commercial et je fais le lien avec la R&D en tant que spécialiste technique. Nous sommes un petit écosystème comparativement à des projets générant des millions d’euros. Localisé en France, mon rôle est européen avec une vision mondiale pour IBM. Il y a vingt ans, le public de la bande magnétique était beaucoup plus large. Aujourd’hui uniquement les gros acteurs sont concernés ; des compétences beaucoup plus profondes sont nécessaires. Le labo de recherche est à Zurich, le labo de développement à Tucson en Arizona. Mes homologues américains, japonais et chinois s’appuient sur les équipes commerciales d’IBM hardware.

 

M. : Peux-tu nous présenter les différents types de stockage du marché ?

J. D. : Il y en a trois : le disque SSD à mémoire flash, le disque dur magnétique et la bande magnétique. Le flash est le plus performant avec une latence très basse et un très grand nombre d’IO (échanges entrées-sorties) possibles surtout avec le nouveau protocole NVMe qui remplace le SCSI existant depuis vingt à trente ans. Le grand public se soucie principalement du débit des disques, qui est important lorsqu’on télécharge de gros fichiers. Mais lorsque de très nombreux clients commandent simultanément un même article, une base de données mondiale est interrogée. Les débits en jeu sont ridicules : quelques octets environ. Par contre l’opération engendre des millions de requêtes.

Une recherche faite sur Google est partagée par des milliards d’êtres humains, cela nécessite une architecture IT et une solution de stockage capable de supporter des millions d’IO. Si vous disposez d’un débit important avec des possibilités d’entrées-sorties limitées, vous créez un énorme « goulot d’étranglement ». Le protocole ouvert NVMe, sorti il y a quelques années maintenant et qui se démocratise depuis 2018 permet de multiples opérations en parallèle (64 000). C’est une vraie révolution désormais disponible pour les particuliers ; certaines cartes mères supportent des disques ressemblant à des barrettes de mémoires flash avec des coûts de 2 à 300 euros.

Pour répondre à une requête, la tête d’un disque dur magnétique doit l’explorer pour récupérer tous les blocs un par un. Il n’y a que la multiplication des plateaux qui permet de multiples opérations sur ces disques (jusqu’à neuf plateaux). La technologie NVMe est donc arrivée pour répondre aux possibilités des disques « flash ». Pour tous les besoins de performance le flash s’impose. Pour les bases de données, le débit des disques durs magnétiques suffit, c’est la rapidité de réponse à une quantité de requête qui compte ; c’est la force des disques « flash » NVMe.

 

M. : Peux-tu nous illustrer ces propos dans le domaine qui nous intéresse, celui des médias ?

J. D. : Si on étudie la mise en place d’un portail de VOD ; à l’occasion de la diffusion d’une série à succès des millions de personnes peuvent vouloir visualiser le même épisode. Même s’ils n’accèderont pas au programme au même instant, il faut pouvoir répondre à des milliers de requêtes à la seconde. C’est pour cela que des groupes de médias peuvent être intéressé par les nouveaux serveurs ultra rapides NVMe d’IBM capables d’assumer simultanément un très grand nombre de requêtes.

 

M. : On parle de solutions internes ; qu’en est-il des solutions « cloud » ?

J. D. : Il est possible de faire des économies d’échelle importantes avec des systèmes cloud surdimensionnés grâce aux partages de moyens entre les différents clients. C’est une question de rationalisation des coûts et de politique interne : est-il envisageable de déposer des données sensibles sur des serveurs qui ne vous appartiennent pas ! Ce n’est plus de la technique !

 

M. : Que représentent en termes de coûts ces différentes technologies de stockage ?

J. D. : En informatique les prix évoluent très vite ; il y a dix/quinze ans, un ordinateur de moyenne gamme, accessible à tous aujourd’hui, coûtait environ 1500 €. Les besoins n’augmentent pas aussi vite que l’évolution de la technologie. Seules les grandes sociétés internationales sont toujours plus demandeuses de puissance ; soit pour la France 40 structures.

Jusqu’en 2010 environ, les disques durs magnétiques gagnaient tous les ans à peu près 30 % de capacité à tarif équivalent en renforçant leur densité surfacique. Aujourd’hui pour y arriver on doit changer de technologie, les coûts ne baissent plus que de 7 à 10 % par an. Alors que les besoins en puissance se stabilisent, ceux en stockage augmentent de 30 % par an au niveau mondial.

Pour continuer à augmenter la capacité des disques durs de 3,5 pouces, possiblement jusqu’à 40 à 45 To, il faut changer les têtes de lecture, le coût baissera alors de 5 % par an uniquement. La solution existant depuis 70 ans maintenant c’est la bande magnétique. Comme sur les dix années précédentes, sur les dix prochaines, ce marché va croître de 25 à 30 % avec une diminution équivalente des coûts. Habituellement en informatique, les laboratoires possèdent des prototypes avec deux ou trois ans d’avance ; chez IBM, nous disposons d’un prototype de « tape » prévu pour une échéance de dix ans.

 

M. : Quels sont les différents types de bandes magnétiques ?

J. D. : La LTO (Linear-Tape Open) est un format ouvert géré par un consortium dont IBM est un acteur très actif. La LTO v8 est sortie fin 2017 avec une capacité de 12 To. IBM propose également le format Jaguar, un peu plus cher et beaucoup plus performant. Les lecteurs IBM TS1160 permettent aux cartouches JE (5e génération) d’avoir une capacité de 20 To. Les deux types de cartouches ne sont pas interchangeables entre lecteurs, mais il est possible de mixer les technologies au sein d’une même solution.

 

M. : Quel est l’intérêt de pouvoir les mixer ?

J. D. : Cela permet de profiter des performances du Jaguar et du prix du LTO. On mixe aujourd’hui les trois systèmes : la bande magnétique, les disques durs magnétiques et la technologie flash. Étant déconnectée par nature, la bande possède l’avantage d’être imperméable aux attaques informatiques. On est même amenés à utiliser la bande en production, malgré son débit restreint, grâce aux systèmes de fichiers distribués (comme Spectrum Scale) ou aux logiciels « HSM » (hierarchical storage management). On utilise la « tape » dans « le tiers le moins performant » (la partie du stockage la plus lente) avec une gestion logicielle très performante. Pour les solutions de production, la technologie Jaguar est bien plus performante avec des débits en lecture/écriture de 400 Mb/sec. Lorsqu’on doit accéder à de nombreux fichiers, on perd naturellement en performance à cause des temps d’accès. La gestion logicielle permet de les abaisser sensiblement.

Aujourd’hui on accède en trois secondes à un fichier au hasard dans une cassette Jaguar. Dans l’industrie des médias, le Jaguar est préféré pour la production grâce à des solutions de Media asset management (MAM) et de Content storage management (CSM) un peu à la manière d’un HSM. Pour les particuliers, la technologie bande n’est pas intéressante au vu du coût des lecteurs ; même si depuis dix ans ces derniers peuvent être connectés en USB.

La plate-forme externe n’a subi aucun changement, mais la qualité de la bande a fortement évolué. On est passé de la LTO 1 à 8 qui fait 12 To non compressés pour un prix de 130 € (en quantité) soit 11 €/To. Un disque dur de capacité équivalente se négocie un peu plus de 400 €, soit un facteur 3 entre les deux. Pour les gros systèmes de plusieurs Po (pétaoctets), les médias représentent 50 % du prix final. La bande est alors avantageuse. En matière de performances, le disque magnétique se fait distancer par la technologie « flash ».

Ce sont les raisons de la mort certaine du disque dur magnétique. C’est aujourd’hui une question d’acceptation par le marché, toujours plus lent que la technologie. Récemment, IBM a acheté sur une large volumétrie de la « flash » avec un prix au Téraoctet (To) moins cher que le disque dur magnétique ; on pensait que cela n’arriverait pas avant 2022. D’ici peu de temps, en standard, la technologie flash sera moins chère que les disques durs magnétiques.

 

M. : Un des sujets à aborder est la durée de vie de ces technologies

J. D. : Pas de débats : les bandes proposent de longues durées de vie qui augmentent année après année ; elles sont maintenant composées d’un alliage Baryum Ferrite (BaFe) extrêmement résilient garanti dix ans avec des durées de vie estimées de 25 à 30 ans. C’est un chiffre peu représentatif car vous ne conserverez pas des médias sur des bandes pendant cette durée sans risquer de perdre les lecteurs en capacité de les relire.

Une génération matérielle dure trois à quatre ans ; un nouveau lecteur est rétro-compatible sur deux générations, donc les bandes sont utilisées dix ans en pratique. La durée de vie d’un disque dur est de sept ans environ, dépendant de nombreux facteurs dont la marque et la vitesse, ramenée à trois/quatre ans pour une utilisation quotidienne. Dans ces conditions, ils sont changés régulièrement.

 

M. : Les médias archivés sur des disques durs mécaniques risquent-ils d’être perdus au bout de quelques années ?

J. D. : C’est la roulette russe ! Il y a deux types de pannes : les casses mécaniques du moteur ou de la tête. Dans ce cas, la seule possibilité de récupération des médias consiste à confier le disque à un réparateur spécialisé : le coût est important et les délais longs.

Le deuxième problème est la corruption des secteurs. L’enregistrement des données se fait par orientation de particules métalliques grâce à un champ magnétique. Avec le temps les secteurs, même non utilisés, vont se démagnétiser. Pour des films vidéo cela aboutit à la génération d’artefacts aléatoires et complètement imprévisibles. En seulement deux années quelques artefacts peuvent être visibles.

On se moque d’un pixel mort rattrapable par les logiciels de récupération de données, mais après quatre ans le risque augmente de manière non linéaire selon la qualité du matériel, le stockage et l’utilisation. On est sur des interactions moléculaires et magnétiques ; il est impossible de gérer au cas par cas toutes les cellules. Aujourd’hui il est conseillé de copier régulièrement ses données sur de nouveaux médias en vérifiant leur intégrité. Une fois que ses secteurs sont corrompus, le disque dur les marque et la capacité du disque diminue.

 

M. : Et pour les disques SSD ?

J. D. : Sur les disques SSD, les cellules sont des sortes de condensateurs. Au moment du « flash » les cellules HS vont être neutralisées et la capacité du disque va diminuer. Au fur et à mesure des copies, le système va déplacer les données depuis les cellules défectueuses vers des secteurs sains. Les pertes potentielles sont généralement compensées par des logiciels de correction d’erreurs. Les entreprises « critiques » disposent toujours d’une redondance complète des médias. Utilisé intensément un disque peut être détruit en trois à quatre ans ; généralement il dure sept à huit ans, voire plus.

 

M. : Peux-tu nous préciser les différentes technologies de disques SSD ?

J. D. : Les disques SSD (Solid state drive) sont composés de cellules de flash qui peuvent être de plusieurs types. La cellule SLC (Single level cell) est une cellule à deux états : du courant = 1, peu de courant = 0. Pour augmenter la capacité des disques, on augmente la densité de gravure. La durée de vie de la SLC est sensiblement équivalente à celle des disques durs magnétiques, environ dix ans.

Pour augmenter la capacité, la technologie MLC (Multi level cell) est apparue en 2010. Dans une cellule, on enregistre deux niveaux, soit quatre valeurs de tensions, c’est-à-dire 2 bits. La capacité des disques augmente au carré (pour la même taille) avec une division des coûts par deux. Les cellules sont utilisées de manière beaucoup plus intense. La technologie TLC (Triple level cell) utilise trois niveaux, huit valeurs de tensions ou 3 bits. Il y a trois ou quatre mois est sortie la Quad level cell (QLC - 16 niveaux pour 4 bits) avec une durée de vie encore écourtée.

C’est pour ces raisons que le prix des disques flash s’écroule parallèlement à l’augmentation de la densité, et que l’on peut stocker des petabytes de données dans des serveurs de quelques unités de hauteur seulement. Samsung et d’autres fondeurs travaillent sur des cellules à cinq niveaux PLC (pinta level cell). Les disques durs durent de moins en moins longtemps : dur, dur ! Mais combien de temps ?

Aujourd’hui en moyenne un SSD va durer quatre ans, durée suffisante pour le grand public et les professionnels. IBM a breveté un super logiciel intelligent à l’aide duquel on peut pousser cette durée jusqu’à cinq/six ans. Même si IBM ne développe pas de disques flash, cela ne nous empêche pas de breveter des logiciels pour de nombreuses technologies. En 2018, IBM a vendu pour plus d’un milliard de dollars d’utilisation de brevets

 

M. : Pourquoi les disques flash s’appellent-ils ainsi ?

J. D. : Sur les disques SSD, les données sont enregistrées par modulation d’un courant enregistré dans les cellules. Une fois le disque entièrement écrit, les cellules qui ont été libérées par l’utilisateur sont marquées mais pas supprimées (il est donc possible de retrouver les données sur un disque dur flash effacé). Il faut alors « reseter » l’ensemble des cellules avant d’écrire dessus à nouveau (les cellules marquées libres n’étant pas vidées). On va alors envoyer la foudre ! ou un flash !

À l’échelle d’un disque dur, la tension d’une douzaine de volts que l’on envoie est équivalente à une mini bombe atomique ! Cela génère tellement de perturbations électromagnétiques qu’on ne peut plus lire ni écrire sur toutes les cellules autour de la cellule flashée pendant deux microsecondes ; c’est de là que viennent les problèmes de durée de vie : à force, les cellules crament.

 

M. : Ne pourrait-on pas les flasher un peu moins fort ?

J. D. : Le but du jeu c’est de baisser au maximum la puissance du flash, mais il faut un minimum de puissance pour éviter toute corruption. Pour augmenter leur durée de vie, des logiciels intégrés dans les firmwares des disques font de la prévision des zones qui devront être lues ou écrites pour réduire les flashs.

 

M. : Est-ce le même principe pour les clés USB ?

J. D. : Oui, c’est également de la technologie flash. Aujourd’hui, la durée de vie de ces matériels se compte en nombre de flashs. La SLC est la meilleure, elle peut supporter environ 100 000 cycles de lecture/écriture par cellule quand les cellules multi-niveau n’en supportent que 10 000. D’autres technologies flash arrivent avec d’autres types de firmware.

 

M. : Est-ce que la mémoire RAM repose sur la même technologie ?

J. D. : Les mémoires RAM sont flashées si elles sont remplies pendant la session de travail. Avec les quantités de RAM actuelles, elles sont très rarement saturées. Quand un ordinateur est éteint, sa mémoire RAM se vide, il y a donc un reset « naturel » sans flash. Si les ordinateurs ne sont jamais éteints comme les serveurs, la durée de vie des mémoires RAM va baisser ; elles sont en pratique changées tous les trois/quatre ans, parallèlement aux processeurs.

 

M. : On dit souvent qu’il faut éviter de remplir à plus de 80 % un disque dur magnétique. Est-ce vrai ? Et qu’en est-il des disques SSD ?

J. D. : C’est vrai pour le disque dur magnétique. Il utilise un espace temporaire pour la maintenance en récupérant des données utiles afin d’effacer des espaces où sont présents des secteurs entiers de données obsolètes. Sans cet espace libre temporaire les opérations de maintenance sont impossibles.

Les disques durs flash s’en moquent ! De plus les ordinateurs comportent une quantité de RAM de plus en plus importante dans laquelle peuvent être stockées les données pour les opérations de maintenance ; les logiciels ont également évolué. Je dirais qu’on peut aujourd’hui remplir les disques durs magnétiques à environ 90 %. Sur les disques SSD, les systèmes de récupération des données sont gérés directement par leurs firmwares.

 

M. : Peux-tu nous parler des concepts de stockage online, near-online et stockages froids ?

J. D. : Il s’agit d’une méthodologie en silo utilisée depuis 50-60 ans. On scinde les types de stockage par besoins en performances et coûts. Cela n’a plus lieu d’être aujourd’hui grâce à l’architecture des systèmes, la virtualisation du stockage et les stockages unifiés apparus il y a plus de vingt ans. Le but est de disposer d’un pool de stockage unique visible par l’utilisateur avec un pilotage logiciel des différents stockages adressés en fonction des besoins en stockage chaud (utilisable rapidement avec un bon débit), ou froid (nécessitant un délai pour être rapatrié vers le stockage chaud). Aujourd’hui toutes les entités disposant d’un budget suffisant utilisent cette technologie ; parfois avec leurs propres solutions. C’est le principe du HSM (hierarchical storage management). Les « outsourceurs » (fournisseurs cloud) proposent des services moins chers, mais il y a des choix politiques en fonction de la sensibilité des données. Des entreprises sont prêtes à payer plus cher pour conserver les données chez elles.

 

M. : Quel est l’impact du stockage au niveau écologique ?

J. D. : Il y a moins de machines dans un data center, vu qu’elles sont virtualisées, distribuées et partagées. Dans tous les cas, l’informatique consomme énormément d’énergie.

 

M. : La vraie question à se poser est peut-être : pourquoi conserve-t-on autant de données, notamment des médias qui, au final, servent très peu ?

J. D. : La donnée est le nouveau pétrole. En conservant un maximum de données, on peut les analyser via des solutions d’intelligence artificielle de plus en plus performantes. C’est le modèle économique de Google : 90 % de son chiffre d’affaires est issu de la publicité. Ils offrent le meilleur profilage des individus en conservant et analysant toutes les données qui transitent chez eux. Une fois les résultats des analyses obtenues, on conserve les données parce que de futurs logiciels offriront des analyses encore plus poussées. Les données brutes sont comme le pétrole, sauf que ce dernier une fois raffiné n’est plus utilisable.

 

M. : En quoi la bande est-elle une solution écologique ?

J. D. : D’abord, les cartouches ne consomment pas d’électricité en dehors des phases d’écriture et de lecture, alors que tous les téléviseurs, les boxes et les disques durs consomment lorsqu’ils sont en veille. À petite échelle c’est négligeable, pour des centaines de millions de cartouches qui remplaceraient potentiellement des millions de disques durs, cela représente des millions de kWh. Les bandes magnétiques économisent 95 à 98 % d’énergie par rapport à une baie de disques équivalente ; c’est la technologie qui consomme le moins d’électricité, et de loin. En termes de construction, la technologie des bandes et des lecteurs représente un peu de métal assemblé, beaucoup plus économique que le cobalt et les autres terres rares des processeurs et des technologies « silicium ».

 

M. : IBM est-il le seul acteur de la bande ?

J. D. : Les librairies sont des grandes armoires automatisées avec des robots qui introduisent les cassettes dans les lecteurs : IBM représente plus de la moitié du marché. L’intelligence de cette technologie se trouve dans les lecteurs. IBM les vend directement ou sous forme OEM.

Parmi nos concurrents qui fabriquent d’autres librairies, certains utilisent des lecteurs IBM avec leurs logos. Pas de débat : à ce niveau les lecteurs sont 100 % IBM. Concernant les cartouches, IBM travaille en collaboration avec Fujifilm et Sony qui ont permis d’énormes avancées.

Aujourd’hui l’évolution est freinée par les limitations d’investissements. Dans de nombreux secteurs, même si vous investissez plus vous ne pourrez pas aller beaucoup plus vite à cause de limites physiques ; ce n’est pas le cas pour la « tape ». IBM pourrait développer des Tapes plus performantes plus vite avec un budget R&D plus élevé. Il faut néanmoins prendre en compte l’équation économique qui nous permet d’être rentable pour pérenniser la technologie.

 

Article paru pour la première fois dans Mediakwest #34, p.100/105. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Coup d’arrêt pour le wi-fi ?

— 24 février 2020 à 17:00
© DR

Déployé massivement dans les stades au cours de ces dernières années et présenté comme un symbole de leur modernité, le wi-fi marquerait aujourd’hui le pas des deux côtés de l’Atlantique, à en croire certains professionnels présents au Sportel de Monaco...

 

« Les implantations dans les stades européens sont actuellement sur un palier, notamment pour des questions de sécurité et de droits. On ne peut pas montrer tout ce qu’on veut », illustre ainsi Xavier De Vynck, senior vice-président, en charge des grands événements chez EVS. Quant aux stades américains, pionniers en la matière, « le wi-fi, semble-t-il, n’est pas utilisé par les fans pour revoir des scènes de jeu, mais plutôt pour échanger avec des amis ou pour des services à la place (commandes de boissons, par exemple). Pourquoi ? Parce que les stades américains, dans leur ensemble, disposent d’écrans géants d’une qualité remarquable sur lesquels sont projetées des productions adaptées à l’événement du moment. » Du coup, embraye le représentant d’EVS, « les fans n’ont pas besoin d’utiliser leur smartphone, d’autant qu’ils craignent que leur batterie ne se décharge. »

Ce constat peut néanmoins surprendre quand, simultanément, des stades, comme celui des Jeux de Londres, devenu depuis 2012 le terrain de jeu du club de West Ham, se dotent d’un wi-fi haute densité et d’autres, comme celui de Marseille (Orange Vélodrome), testent la 5G.

 

Article extrait de notre compte-rendu du Sportel 2019, paru pour la première fois dans Mediakwest #35, p.94/99. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Conversion : les tendances 2020

— 2 mars 2020 à 17:00
La société Omnitek a récemment été rachetée par Intel pour ses avancées en termes de solutions de contrôle vidéo sur IP. © Nathalie Klimberg

Partis s’entretenir avec les exposants de l’IBC 2019, nos journalistes se sont rendus sur les stands de Multidyne, BFE, Omnitek, Ross, Aja et Embrionix pour découvrir, en matière de conversion, les nouveautés qui font l’actualité.

 

MULTIDYNE

Le Silver Back V permet de convertir n’importe quelle caméra 4K 12G, Dual-Link ou Quad-Link en caméra 4K de direct via une connexion à la station de base avec une fibre optique unique. Il fournit une liaison à largeur de bande complète entre la caméra 12G, Quad-Link ou Dual-Link 4K et la régie, qu’elle soit fixe ou itinérante. Le système peut transmettre les signaux 4K/UHDTV via un câble fibré ou hybride normalisé SMPTE. Il transportera des signaux 12G ou 3 Gb/s de la caméra à la station de base avec un retour dans l’autre sens. Le contrôle de la caméra et la communication - Genlock, Intercom, Tally et audio - s’obtient via le panneau de commande du fabricant de la caméra avec un port série ou Ethernet 10/100/GigE. Un câble hybride alimentera, en plus, la caméra. Modulaire, le SilverBack V peut être fournit avec différents types d’E/S, il est disponible sous la forme d’un boîtier 2RU standard avec des voyants lumineux pour chaque signal, ainsi qu’un écran LCD couleur affichant l’état du système.

Multidyne présentait aussi sa série VB… VB prend la forme d’un petit boîtier compact qui autorise toutes les combinaisons de transport de signal sur fibre : vidéo, audio, interface de contrôle, commande remote… L’unité peut être personnalisée selon les spécifications de l’utilisateur via des cartes VB. Les E/S de chaque carte peuvent être assignées sur une fibre distincte où tous les signaux transitant dans le boîtier peuvent être multiplexés sur une seule fibre. L’unité est prête pour les applications sur le terrain ou peut être montée en rack. La série VB est compatible avec la ligne OpenGear Multidyn. Une surveillance de type DashBoard permet aux utilisateurs de surveiller l’état de santé de l’ensemble du système réseau via un ordinateur…

 

 

BFE

BFE annonce l’arrivée de KSC Appliance, une puissante plate-forme basée sur un serveur Windows et conçue pour intégrer la ligne de solutions software de contrôle et monitoring KSC. L’approche plug and play de l’appareil va permettre de démocratiser le contrôle système dans le secteur des projets broadcast IP et des configurations de diffusion mobiles. Tenant dans un rack 2U cette solution compacte (40 cm de profondeur) sera tout particulièrement adaptée aux exigences des régies Fly DSNG. L’appliance KSC dispose d’un PC avec un CPU Intel Core i5/32 GB RAM, une double alimentation, d’un onduleur, une connectique avec notamment huit ports GPI, deux displayports, deux ports USB 3.0…

Sur IBC, BFE a annoncé la prise en charge des solutions de transmission par fibre optique de la société française Ereca.

 

 

OMNITEK

La société Omnitek a récemment été rachetée par Intel pour ses avancées en termes de solutions de contrôle vidéo sur IP. Omnitek présentait des mises à jour de deux de ses produits phares Ultra : la 4K Tool Box et la XR Tool Box… La 4K Tool Box, analyseur et générateur de tests et de mesures SDI 4K/UHD SDI, qui permet de convertir, de générer et d’analyser les signaux de télévision et de cinéma numérique se dévoile cette année dans une nouvelle version avec un châssis redessiné, il supporte le Dolby et des fonctionnalités HDR. La XR, développée pour le marché de la postproduction, voit aussi son châssis redessiné, celui-ci est plus gros et aussi plus silencieux. Netflix et Amazon ont adopté des outils Ultra XR dans leur pipeline d’étalonnage et HBO vient aussi d’en commander une quarantaine qui seront intégrés dans son nouveau workflow 4K SMPTE ST 2110.

 

 

ROSS

Gator-Toolbox contient tous les outils nécessaires pour adapter les signaux UHD et HD aux workflows pour le broadcast et l’évènementiel, qui exigent une faible latence et des contenus de haute qualité en UHD, HDR et WCG (Wide Color Gamut). Le convertisseur de formats intégré inclut une technologie ultra-rapide de redimensionnement et de désentrelacement qui produit des résultats plutôt spectaculaires. Gator-Toolbox est également un outil de conversion capable de changer le taux d’image et de rééchantillonner la piste audio, ce qui permet d’adapter en toute simplicité dans une production des contenus correspondant à des normes d’autres régions. De plus, les utilisateurs peuvent facilement basculer entre les normes SDR, PQ, HLG et SLOG, tout en profitant de la compatibilité avec les plages de couleurs standard et élargies (BT.2020). Des réglages peuvent également être réalisés à l’aide d’un amplificateur de correction (ProcAmp) et d’outils de correction RGB et audio. Gator-Toolbox offre des entrées et des sorties 12G-SDI et Gearbox (2SI et SDQ), pour une connectique plus aisée.

Les technologies de virtualisation sont un sujet d’actualité dans l’univers du broadcast et de l’évènementiel, en raison des économies et des gains d’efficacité. Ross s’est allié avec VMware et Mellanox Technologies. Les volumes pris en charge dans le monde du broadcast présentent des difficultés particulières pour les plates-formes virtualisées en raison de leurs besoins importants en termes de bande passante, de latence et d’accélération graphique. Ross Video est parvenu à surmonter ces difficultés, et la nouvelle version de XPression Studio Flex peut désormais fonctionner sur VMware vSphere 6.7, utilisant la carte Ethernet (NIC) ConnectX-5 de Mellanox et la bibliothèque de streaming de médias Rivermax. Ross a présenté cette solution lors du salon IBC, avec toutes les fonctions que l’on peut attendre d’une solution traditionnelle de graphismes en direct : vidéo sur IP à l’aide des cartes réseau Mellanox ConnectX-5, certifiées par les fabricants de serveurs dont Dell, Cisco et HPE, – Support SMPTE 2110, avec envoi des paquets en mode « narrow sender » – Prise en charge de la redondance SMPTE 2022-7 en conditions réelles – Support NDI – Synchronisation grâce au Precision Time Protocol avec une précision proche de celle d’un équipement non virtualisé – Acélération graphique entièrement virtualisée.

 

 

AJA

Aja a dévoilé de nouveaux produits et mises à jour conçus pour améliorer les workflows dans les domaines du broadcast, de la production, de la postproduction et de l’audiovisuel professionnel. Pour répondre à des besoins de plus en plus importants en termes de bande passante pour la création et la diffusion de contenus, Aja a présenté cette année le nouveau HDR Image Analyzer 12G, le routeur Kumo 6464-12G et les nouvelles cartes d’E/S Corvid 44 12G. Aja a également annoncé le synchroniseur de trames FS-Mini, ainsi que trois nouvelles cartes compatibles OpenGear : OG-FS-Mini, OG-ROI-DVI et OG-ROI-HDMI. L’entreprise a également présenté les dernières mises à jour de ses logiciels pour Kona, Io et T-TAP, ajouté la prise en charge des formats UltraHD pour les Mini-Converters IPR et amélioré les synchroniseurs de trames FS4.

Le HDR Image Analyzer 12G permet d’utiliser des connexions 12G-SDI à la plate-forme de monitoring et d’analyse d’Aja développée en partenariat avec Colorfront. Ce nouvel appareil offre des possibilités de monitoring et d’analyse sous forme d’oscilloscope, d’histogrammes et de vectorscope pour les contenus en 4K/UltraHD/2K/HD, HDR et WCG pour la production (broadcast ou OTT), la postproduction, le contrôle qualité et le mastering. Il sera disponible à l’automne 2019 au prix conseillé de 19 995 USD.

Avec ses 64 entrées et 64 sorties 12G-SDI, le Kumo 6464-12G est un nouveau routeur SDI compact grâce auquel les professionnels pourront profiter d’une extensibilité, d’une sécurité et d’une largeur de bande accrues grâce aux connexions 12G-SDI. Les routeurs Kumo 6464-12G peuvent être configurés pour un routage combiné dual-port et quad-port pour les workflows Dual Link, 4K, UltraHD et 8K, permettant le routage fluide de contenus non compressés, compressés, ou 4K Raw à travers toute une installation. Il sera disponible à l’automne 2019 au prix conseillé de 8 995 USD.

Disponible sous dix versions différentes, chacune pouvant avoir une ventilation active ou passive, le Corvid 44 12G est une plate-forme vidéo et audio PCIe 3.0 à huit canaux, compatible 12G-SDI. Les Corvid 44 12G comprennent des connexions HD-BNC à haute densité ou des connexions BNC standard, les modèles HD-BNC étant disponibles en hauteur standard et compacte. Tous les Corvid 44 12G sont compatibles avec les workflows en 8K/UltraHD2/4K/UltraHD, avec des taux d’image élevés, des couleurs profondes et en HDR ; ils peuvent également prendre en charge plusieurs flux 4K en entrée ou en sortie. Tous les modèles de Corvid 44 12G sont d’ores et déjà disponibles, y compris avec BNC standard pour 2 895 USD, HD-BNC avec des câbles HD-BNC vers BNC pour 2 995 USD, et HD-BNC sans câbles pour 2 895 USD.

Le FS-Mini est un synchroniseur de trames de qualité broadcast qui offre la fonctionnalité et la fiabilité de la technologie de synchronisation d’Aja au sein d’un appareil portable. Le FS-Mini offre des fonctions de synchronisation de trames et de conversion multidirectionnelle de signaux vidéo 3G-SDI, HD et SD non synchronisés. Les utilisateurs peuvent ainsi synchroniser et convertir une vaste gamme de formats vidéo pour uniformiser les contenus selon leurs besoins, en utilisant une E/S 3G-SDI, une sortie HDMI et une sortie audio RCA à deux canaux. Disponible dès maintenant au prix conseillé de 695 USD.

Le nouveau OG-FS-Mini combine les fonctions du FS-Mini et de l’architecture OpenGear. Les nouvelles cartes OG-ROI-DVI et OG-ROI-HDMI offrent des fonctions de redimensionnement de zones d’intérêt, de conversion de signal et de rotation d’image au format OpenGear. Toutes les cartes sont conçues pour être utilisées dans des appareils OpenGear de 2 U, dont le OG-X-FR d’Aja, et elles peuvent être configurées, surveillées et commandées à distance à l’aide du logiciel Ross DashBoard. Le OG-FS-Mini est disponible dès maintenant au prix conseillé de 695 USD. Le OG-ROI-DVI et le OG-ROI-HDMI seront disponibles à l’automne 2019 au prix conseillé de 995 USD.

La version 15.5 de Desktop Software pour les produits Kona, Io et T-TAP d’Aja, disponible sous forme d’une mise à jour gratuite, offre aux professionnels de la vidéo plus de liberté créative et de flexibilité pour leurs workflows Windows®, Linux® et Mac OS®, avec de nouvelles fonctions comme, entre autres, la prise en charge de trames 2SI SMPTE en 8K, la capture et la lecture en RGB 8K, et de nouvelles mires de test en HDR pour Aja Control Room. Disponible à l’automne 2019.

 

 

EMBRIONIX

Embrionix propose des passerelles de transition SDI/IP sous forme de modules SFP (Small Form-Factor Pluggable) qui peuvent être insérés directement dans les équipements de la marque ou de fabricants tiers. Le convertisseur et processeur IP emSFP est équipé de deux encodeurs/décodeurs J2K. Il permet une connexion directe avec les équipements IP SMPTE ST 2110 pour les flux de contribution vidéo. En éliminant la conversion du signal entrant SDI puis SMPTE ST 2110, la passerelle emSFP facilite le passage du signal d’une technologie à l’autre. Un produit qui s’adapte particulièrement aux prestations de type remote production en tirant avantage de sa petite taille (proche d’une clé USB) et de gains en termes de nombre d’équipements utilisés et de consommation d’énergie. emSFP se connecte aux routeurs standards 10GE ou 25GE IP, boîtiers réseau, ou aux convertisseurs tout-IP emVIRTU d’Embrionix. La fonction de down-convertisseur IP vers SD/HD/3G permet de visualiser et de surveiller un contenu IP 4K UHD sur un écran HDMI avec une résolution inférieure, tout en conservant la netteté du signal original.

Reposant sur une approche modulaire et permettant jusqu’à 64 fonctionnalités de traitement IP virtualisées (synchronisation d’image, conversion up/down/cross, SDR/HDR, génération de mosaïques, etc.) la plate-forme centrale tout-IP emVIRTU d’Embrionix prend place dans un châssis 1RU doté de capacité de traitement capable de faire face à des productions HD-UHD-3G. Compacte et supportant des débits jusqu’à 1,6 Tb/s, emVIRTU permet de réduire les coûts liés au câblage et à la consommation électrique, tout en optimisant l’espace disponible.

Le convertisseur em-QUAD d’Embrionix permet de créer une mosaïque à partir de quatre flux SMPTE ST 2110 et peut être installé facilement à l’arrière d’un moniteur HDMI. Sur le stand, une mosaïque de seize images était générée à partir de flux IP SMPTE ST 2110.

Embrionix présentait le convertisseur IP compact emFUSION-6 SDI vers/depuis IP et IP vers HDMI capable de gérer les signaux HD, 3G et UHD SMPTE ST 2110. Il permet d’interconnecter les signaux SDI à une infrastructure IP via une seule liaison d’agrégation 25GbE ou via deux liaisons (SMPTE ST 2022-7) pour une redondance renforcée. L’emFUSION-6 accepte jusqu’à trois canaux d’encapsulation et trois de désencapsulation. Le Black Burst peut être extrait du signal PTP (Precision Time Protocol) pour synchroniser les caméras.

Le convertisseur emVIEW IP/HDMI 2.0 d’Embrionix offre une prise en charge universelle de tous les formats et résolutions 4K/UHD jusqu’à 60 Hz. S’appuyant sur les capacités des commutateurs IP 25GbE, cette « passerelle » polyvalente permet de conserver l’intégrité de l’image 4K/UHD sur un écran HDMI, qu’il s’agisse d’un flux QHD 1080p ou 4K/UHD ST 2110.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Nomalab, le laboratoire version 3.0

— 3 mars 2020 à 17:00
L’interface de contrôle avec, à gauche, la fenêtre de navigation dans le stockage, au centre, le lecteur vidéo et, à droite, les segments du programme consulté. © Nomalab

Nomalab est un laboratoire vidéo faisant le lien entre producteurs ou détenteurs de programmes TV pour fournir les PAD aux chaînes TV et aux services de VOD. Ses fondateurs ont choisi de déployer intégralement leurs infrastructures dans le cloud avec un accès direct aux contenus via le web. Pari réussi pour la jeune entreprise, car trois ans après sa création, elle compte parmi ses clients et utilisateurs d’importants ayants droit et diffuseurs, en France et à l’étranger.

 

Le laboratoire, au sens audiovisuel du terme, est le trait d’union technique entre la production audiovisuelle et les réseaux de distribution ou de diffusion des films, émissions de TV, documentaires ou autres séries. Le master, une fois validé par l’équipe de réalisation, ou les copies détenues par les ayants droit sont confiés aux laboratoires pour être dupliqués et/ou adaptées aux spécifications du pays ou du réseau de diffusion pour préparer le livrable (ou PAD). À l’époque du cinéma argentique, puis de la cassette vidéo, les processus étaient basés sur la manipulation d’objets physiques avec des caractéristiques et spécifications techniques en nombre limité et bien maîtrisées par l’ensemble de la chaîne technique de distribution. Ils suivaient des cheminements clairement balisés avec des acteurs identifiés et dans un mode d’échange « one to one ».

Le passage à la dématérialisation a largement bouleversé l’organisation de ces processus techniques, d’autant que les deux extrémités de la chaîne ont connu des évolutions majeures au cours de ces dernières années. Du côté de la production, la généralisation d’outils de montage et de postproduction et la baisse de leurs coûts ont démultiplié le nombre d’acteurs en capacité de produire et de finaliser eux-mêmes les contenus vidéo. Le nombre de sociétés de production a explosé face aux acteurs traditionnels comme les grands studios ou les détenteurs de catalogues. Il constitue un monde très divers avec un esprit plus créatif qu’industriel.

 

Les laboratoires face aux évolutions de la production et de la diffusion

Côté diffusion, la multiplication des chaînes TV puis l’émergence de l’OTT et des services de VOD, exigent de démultiplier dans des proportions exponentielles les formats et versions à livrer aux diffuseurs, pour faire face à la diversité des réseaux de distribution et la multiplication des terminaux de réception (smartphones, tablettes, navigateurs web, smart TV…). Du fait de la pluralité des versions linguistiques, de la nécessité d’approvisionner les contenus (séries) en masse et du nombre de canaux de diffusion, les diffuseurs sont obligés de systématiser leurs procédures. Les laboratoires doivent passer à une échelle industrielle pour le traitement des contenus audiovisuels face à l’abondance des sources de programmes avec une extrême variété d’acteurs et de structures aux niveaux de compétences fort variés.

En 2016, Jean Gaillard et son associé Sébastien Crème ont décidé de créer Nomalab en réunissant leurs expériences respectives, pour le premier dans la mise en œuvre de processus de dématérialisation pour la publicité TV, et pour le second dans la construction d’architectures web à grande échelle. En mettant à plat toutes les fonctions du laboratoire numérique, ils ont décidé de repartir d’une feuille blanche pour construire une nouvelle architecture technique en s’appuyant sur la puissance et la flexibilité offertes par les nouveaux services du cloud et du web, afin de dépasser les limites d’une infrastructure matérielle physique et les contraintes des logiciels commerciaux.

Jean Gaillard explique : « Le cœur de notre métier est de garantir aux producteurs du programme que nous serons capables de l’acheminer et de le livrer dans les meilleures conditions à un diffuseur, dans tous les sens du terme. Et pour ce diffuseur, lui garantir qu’il reçoit les bons fichiers en respectant ses spécifications particulières de PAD et avec le minimum d’interactions et d’interventions avant la diffusion et/ou la mise en ligne. En d’autres termes, réduire la complexité et garantir le chemin le plus court et le plus sûr vers la mise à l’antenne et la publication, avec le strict minimum de mouvements de fichiers et uniquement de fichiers corrects. »

 

Des traitements exclusivement dans le cloud

Il poursuit : « Au fil du temps, l’audiovisuel est devenu une industrie qui doit traiter à la fois des éléments unitaires comme des films ou des émissions de prestige, mais aussi des masses de fichiers comme avec les séries à succès. Contrairement aux chaînes linéaires qui diffusent les épisodes avec une chronologie régulière, les services d’OTT mettent en ligne des saisons entières d’un seul coup dès l’ouverture des droits. Sébastien et moi-même sommes arrivés à la conclusion qu’il fallait créer une plate-forme sans contrainte matérielle, ni logicielle. Nous voulons pouvoir traiter instantanément les pointes et les besoins de nos clients. Dans un laboratoire classique, effectuer 500 livraisons d’un coup exige de l’organisation et de la planification pour répartir le travail dans le temps et sur le parc de machines et de licences disponibles. »

Pour répondre à ces défis, les fondateurs de Nomalab ont effectué des choix radicaux en concevant une architecture distribuée et containérisée, implantée à 100 % dans le cloud. D’où le nom de la société, NO MA(chine) LAB. Tous les composants entrant dans le traitement des contenus sont entièrement indépendants les uns des autres, et scalables sans limite. Ce terme de scalabilité, difficilement traduisible en français, signifie que la plate-forme déployée par Nomalab est extensible dans toutes les dimensions pour faire face à des pics de demandes, mais aussi élastique (en termes de souplesse) pour combiner et adapter les outils à des exigences particulières.

Le développement rapide de la SVOD et des services non linéaires des groupes historiques de TV, complique l’approvisionnement et la coordination entre les équipes. Cela rend encore plus indispensable une qualité constante quels que soient les volumes et le matériel fourni par les ayants droit, de plus en plus divers et dispersés géographiquement. Par ailleurs, même si les caractéristiques des fichiers à fournir aux groupes français sont largement communes, ces spécifications ne sont ni universelles, ni interchangeables.

 

Une interface web pour afficher les contenus à tout moment

Tout le fonctionnement de la plate-forme est centré sur le contenu. Pour Nomalab, il est important que les utilisateurs concernés puissent voir directement le contenu réel aussi bien pour les masters que pour les livrables. Il faut également que les parties prenantes puissent interagir avec le contenu, soit en le commentant, soit en enrichissant les métadonnées. Une interface web est l’outil parfaitement adapté pour une consultation à distance des contenus sans devoir effectuer des transferts de fichiers au préalable. Les outils de la plate-forme Nomalab sont donc accessibles depuis un simple navigateur, localement ou à distance. Il faut qu’il puisse interopérer avec les systèmes d’information des diffuseurs et pour cela ils sont complétés par des API.

Il existe déjà de nombreux services de distribution et d’échanges de contenus audiovisuels destinés au broadcast, mais ils sont basés sur des échanges de fichiers qui obligent à stocker les contenus sur place chez le destinataire, avec un temps de transfert non négligeable, et à prévoir un volume de stockage local.

Les fondateurs de Nomalab estiment qu’en 2019 de tels processus séquentiels alourdissent et compliquent les procédures. En faisant le choix d’associer le stockage des masters, les opérations de traitement dans le cloud et une consultation à distance, ils facilitent le travail de tous les intervenants, à la fois pour les équipes techniques de la plate-forme chargées de la préparation des livrables, mais aussi pour les équipes éditoriales des diffuseurs qui n’ont pas besoin d’attendre la fourniture du livrable avant de vérifier un élément de contenu.

Pour la mise en place de la plate-forme, Jean Gaillard résume les exigences qui lui paraissaient essentielles : « Nous ne voulions pas de limites physiques liées à des infrastructures matérielles. D’où le choix d’une infrastructure cloud qui offre des extensions quasiment infinies. Si demain nous avons mille « jobs » à effectuer, nous lançons mille machines. Ce ne sont pas des VM (Virtual Machine) mais des images machines que nous déployons à la volée. Un deuxième corollaire, nous ne voulons pas être limités par des logiciels métiers avec des contraintes de licences. La seule exception, c’est l’outil de QC (Quality Check) Baton que nous utilisons pour certains types de vérifications. Tout le reste de la plate-forme, c’est notre code développé en interne par une équipe technique. »

 

Des process automatisés

Quand un producteur « uploade » un master, la première étape consiste en une analyse du contenu pour répertorier ou vérifier les métadonnées techniques du programme : type de fichier, la cadence, le format d’image, la répartition et le contenu des canaux audio, ainsi que les éléments du début (mire, carton d’identification, décompte…) et de la fin, par exemple les fonds neutres. Selon les cas, cette première analyse technique automatisée est complétée par une vérification profonde du master qui fait intervenir un humain. Jean Gaillard confie que « même si les outils de mesure et de qualité ont fait de réels progrès, et que certains constructeurs ont suscité quelques faux espoirs, l’évaluation substantielle de la qualité nécessite encore pour quelque temps un arbitrage ou une interprétation humaine. »

Pour certains clients particuliers comme les studios d’animation, Nomalab reçoit les éléments séparés du master (animations, pistes audio, générique…) et procède à leur assemblage pour créer les masters définitifs complets.

Le contenu est ensuite stocké sur les infrastructures en fonction d’une structure hiérarchique qui varie selon les clients, le type de contenus et leur mode de répétition. À un moment donné, à l’initiative du vendeur ou de l’acheteur, Nomalab va fabriquer un fichier livrable à partir du master de manière automatique et selon les spécifications de celui qui va l’exploiter.

Après sa fabrication, il sera systématiquement analysé pour vérifier sa conformité par rapport aux spécifications du destinataire. Cette phase de vérification est toujours effectuée de manière automatique avec les outils de Baton. Si une vérification éditoriale du contenu s’avère nécessaire, c’est le destinataire qui l’effectue, mais directement à partir de l’interface web de l’outil Nomalab. Enfin le livrable est transféré vers le destinataire par une multitude de moyens, soit ceux que le distributeur exploite habituellement ou bien ceux proposés par l’équipe technique de Nomalab.

Jean Gaillard explique que « tous ces process sont conçus avec deux principes : une scalabilité sans limites pour pouvoir répondre de manière ultrarapide à des demandes quantitatives tout en restant fiable, et l’immutabilité qui garantit que les mêmes causes produisent les mêmes effets, c’est-à-dire que nos processus sont reproductibles avec un résultat toujours identique. Dans le passé, la qualité des livrables n’était pas garantie dans le temps du fait de la disparité du parc machines avec des niveaux d’usage variables et même parfois des opérateurs qui ne suivaient pas toujours parfaitement les consignes. Une autre grande partie de notre travail, c’est d’assurer la fiabilité des procédures et de la gestion des données associées aux contenus pour assurer au diffuseur que lorsqu’il achète l’épisode 8 de la saison 3 d’une série, il soit sûr de recevoir l’épisode commandé et que ce dernier soit diffusable. »

Certains vendeurs ou distributeurs de programmes ont déjà stocké leurs contenus dans le cloud. Et à l’autre extrémité, des chaînes ont mis en place des procédures de transfert de leurs livrables via le cloud. Pour ces partenaires, Nomalab a déjà effectué des livraisons qui sont déroulées intégralement dans le cloud avec uniquement des déplacements de fichiers à distance. Mais Jean Gaillard met en garde : « Même dans cette configuration intégralement gérée dans le cloud, il est préférable de limiter au minimum les déplacements de fichiers, entre autres à cause de leur poids, mais également pour des raisons évidentes de sécurité. C’est comme pour les supports physiques, moins on bouge les fichiers, mieux on se porte ! »

 

Quelques exemples concrets

Parmi ses clients, Nomalab compte le groupe M6, notamment pour le non-linéaire et son service 6play. Quand une chaîne du groupe M6 attend un programme à livrer par Nomalab, son système d’information envoie un flux de données qui crée une « capsule » dans la plate-forme Nomalab. Celle-ci notifie automatiquement la source du programme, qui déclenche l’upload du fichier master sur les serveurs de Nomalab. Une fois le fichier transmis, le contenu est validé sur la plate-forme, avant la fabrication sur celle-ci d’un livrable aux spécifications exactes du diffuseur. Une fois réalisé, il est vérifié de manière automatique et ensuite transmis vers l’ingest de M6, accompagné des métadonnées nécessaires.

Pour les contenus destinés à 6play, les quantités traitées sont très volumineuses et proviennent de sources très diverses. Les équipes éditoriales de 6play mettent à profit l’accès direct aux contenus effectivement uploadés pour les consulter via un navigateur web et les valider avant le lancement des livraisons. Cela leur permet de ne recevoir effectivement que des contenus et fichiers utilisables et d’éliminer les rejets tardifs et coûteux.

TF1 Studio regroupe l’ensemble des activités cinéma et fiction du groupe TF1. La filiale possède un catalogue de plus de 2 000 films et programmes de fictions qu’elle distribue auprès d’une multitude de réseaux : cinémas, e-cinémas, vidéo, VOD, chaînes TV internationales. Dès 2016, elle innovait sur le marché de la distribution en incluant systématiquement dans le prix de cession du contenu les livrables et leur livraison. TF1 Studio a choisi la plate-forme de Nomalab pour automatiser la préservation des contenus et les services offerts aux acquéreurs de ses programmes. Elle leur permettra de disposer de manière automatique de livrables conformes à leurs besoins et spécifications.

Nomalab accompagne également TeamTo, le studio indépendant français d’animation 3D pour les livraisons françaises et internationales de la série originale Mike, une vie de chien. À partir des corps d’épisodes et génériques dans leurs diverses versions, Nomalab assure la fabrication des masters finaux des 78 épisodes, leur vérification ainsi que le sous-titrage SME pour plusieurs pays. Nomalab assure ensuite toutes les livraisons internationales aux coproducteurs, diffuseurs et distributeurs de la série. TeamTO suit toutes les opérations en temps réel et procède à toutes les validations directement sur la plate-forme. Les livraisons finales d’une série sont un moment critique et délicat. Nomalab les rend simples et fluides.

 

Le lecteur pourra compléter les informations sur la plate-forme Nomalab en regardant ici l’interview de Jean Gaillard sur notre WebTV

 

Article paru pour la première fois dans Mediakwest #35, p.78/80. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

❌