Collanews

🔒
☐ ☆ ✇ Mediakwest - Broadcast

Technologies de stockage : et si l’avenir c’était la bande ?

— 19 février 2020 à 17:00
Julien Demeulenaer, expert de la bande magnétique IBM. © Loïc Gagnant

Nous avons découvert Julien Demeulenaere au détour d’un salon et avons été happés par sa passion communicatrice et son don de vulgarisateur. Il dresse pour nous l’état des lieux des technologies de stockage au sens large, et de la bande magnétique en particulier.

 

Mediakwest : Julien, peux-tu te présenter à nos lecteurs ?

Julien Demeulenaere : J’ai 34 ans et je suis expert de la tape (bande magnétique) chez IBM, responsable du chiffre d’affaires (de l’ordre de 100 millions d’euros) et brand manager pour l’Europe depuis 2018. À la base technicien avant-vente, j’ai travaillé avec plusieurs grands de l’informatique avant de rejoindre IBM. Chez Dell j’ai beaucoup appris sur le stockage et les serveurs, j’étais expert virtualisation certifié pour VMware et j’ai travaillé chez Veeam qui a envahi le marché de la protection de données.

Je me suis interrogé il y a cinq/six ans sur le prochain big bang informatique. La réponse est facile c’est le quantique, qui arrivera au minimum dans dix à quinze ans. C’est alors que j’ai pris conscience des énormes qualités de la bande magnétique et de sa grande capacité d’amélioration alors que la mort du disque dur magnétique est annoncée sous une échéance de dix à quinze ans. Les besoins en volumétrie de stockage sont en perpétuelle augmentation, l’unique solution pour conserver des données à un prix contenu est « la tape ». La technologie des disques durs SSD coûte dix à vingt fois plus cher.

Depuis cinquante ans on annonce la fin de la bande magnétique, pourtant son chiffre d’affaires augmente depuis quatre ans chez IBM. Depuis les cassettes VHS, la tape a disparu chez les particuliers. Elle disparaît également dans les petites entreprises, remplacée pour les petites sauvegardes par les disques durs, les clés USB ou encore le cloud.

Par contre les entreprises de grande taille qui centralisent les données, les spécialistes du stockage en ligne vont tous y passer. La majorité d’entre eux ayant déjà amorcé la transition avec des fermes de dizaines de milliers de lecteurs et de millions de cartouches. Les nouveaux grands acteurs sont d’accord avec l’analyse technologique du marché faite par IBM : la bande magnétique est la seule technologie envisageable pour de larges quantités de données.

 

M. : Peux-tu nous préciser ta fonction chez IBM ?

J. D. : J’ai un rôle hyper hybride : je fais du business management et du commercial et je fais le lien avec la R&D en tant que spécialiste technique. Nous sommes un petit écosystème comparativement à des projets générant des millions d’euros. Localisé en France, mon rôle est européen avec une vision mondiale pour IBM. Il y a vingt ans, le public de la bande magnétique était beaucoup plus large. Aujourd’hui uniquement les gros acteurs sont concernés ; des compétences beaucoup plus profondes sont nécessaires. Le labo de recherche est à Zurich, le labo de développement à Tucson en Arizona. Mes homologues américains, japonais et chinois s’appuient sur les équipes commerciales d’IBM hardware.

 

M. : Peux-tu nous présenter les différents types de stockage du marché ?

J. D. : Il y en a trois : le disque SSD à mémoire flash, le disque dur magnétique et la bande magnétique. Le flash est le plus performant avec une latence très basse et un très grand nombre d’IO (échanges entrées-sorties) possibles surtout avec le nouveau protocole NVMe qui remplace le SCSI existant depuis vingt à trente ans. Le grand public se soucie principalement du débit des disques, qui est important lorsqu’on télécharge de gros fichiers. Mais lorsque de très nombreux clients commandent simultanément un même article, une base de données mondiale est interrogée. Les débits en jeu sont ridicules : quelques octets environ. Par contre l’opération engendre des millions de requêtes.

Une recherche faite sur Google est partagée par des milliards d’êtres humains, cela nécessite une architecture IT et une solution de stockage capable de supporter des millions d’IO. Si vous disposez d’un débit important avec des possibilités d’entrées-sorties limitées, vous créez un énorme « goulot d’étranglement ». Le protocole ouvert NVMe, sorti il y a quelques années maintenant et qui se démocratise depuis 2018 permet de multiples opérations en parallèle (64 000). C’est une vraie révolution désormais disponible pour les particuliers ; certaines cartes mères supportent des disques ressemblant à des barrettes de mémoires flash avec des coûts de 2 à 300 euros.

Pour répondre à une requête, la tête d’un disque dur magnétique doit l’explorer pour récupérer tous les blocs un par un. Il n’y a que la multiplication des plateaux qui permet de multiples opérations sur ces disques (jusqu’à neuf plateaux). La technologie NVMe est donc arrivée pour répondre aux possibilités des disques « flash ». Pour tous les besoins de performance le flash s’impose. Pour les bases de données, le débit des disques durs magnétiques suffit, c’est la rapidité de réponse à une quantité de requête qui compte ; c’est la force des disques « flash » NVMe.

 

M. : Peux-tu nous illustrer ces propos dans le domaine qui nous intéresse, celui des médias ?

J. D. : Si on étudie la mise en place d’un portail de VOD ; à l’occasion de la diffusion d’une série à succès des millions de personnes peuvent vouloir visualiser le même épisode. Même s’ils n’accèderont pas au programme au même instant, il faut pouvoir répondre à des milliers de requêtes à la seconde. C’est pour cela que des groupes de médias peuvent être intéressé par les nouveaux serveurs ultra rapides NVMe d’IBM capables d’assumer simultanément un très grand nombre de requêtes.

 

M. : On parle de solutions internes ; qu’en est-il des solutions « cloud » ?

J. D. : Il est possible de faire des économies d’échelle importantes avec des systèmes cloud surdimensionnés grâce aux partages de moyens entre les différents clients. C’est une question de rationalisation des coûts et de politique interne : est-il envisageable de déposer des données sensibles sur des serveurs qui ne vous appartiennent pas ! Ce n’est plus de la technique !

 

M. : Que représentent en termes de coûts ces différentes technologies de stockage ?

J. D. : En informatique les prix évoluent très vite ; il y a dix/quinze ans, un ordinateur de moyenne gamme, accessible à tous aujourd’hui, coûtait environ 1500 €. Les besoins n’augmentent pas aussi vite que l’évolution de la technologie. Seules les grandes sociétés internationales sont toujours plus demandeuses de puissance ; soit pour la France 40 structures.

Jusqu’en 2010 environ, les disques durs magnétiques gagnaient tous les ans à peu près 30 % de capacité à tarif équivalent en renforçant leur densité surfacique. Aujourd’hui pour y arriver on doit changer de technologie, les coûts ne baissent plus que de 7 à 10 % par an. Alors que les besoins en puissance se stabilisent, ceux en stockage augmentent de 30 % par an au niveau mondial.

Pour continuer à augmenter la capacité des disques durs de 3,5 pouces, possiblement jusqu’à 40 à 45 To, il faut changer les têtes de lecture, le coût baissera alors de 5 % par an uniquement. La solution existant depuis 70 ans maintenant c’est la bande magnétique. Comme sur les dix années précédentes, sur les dix prochaines, ce marché va croître de 25 à 30 % avec une diminution équivalente des coûts. Habituellement en informatique, les laboratoires possèdent des prototypes avec deux ou trois ans d’avance ; chez IBM, nous disposons d’un prototype de « tape » prévu pour une échéance de dix ans.

 

M. : Quels sont les différents types de bandes magnétiques ?

J. D. : La LTO (Linear-Tape Open) est un format ouvert géré par un consortium dont IBM est un acteur très actif. La LTO v8 est sortie fin 2017 avec une capacité de 12 To. IBM propose également le format Jaguar, un peu plus cher et beaucoup plus performant. Les lecteurs IBM TS1160 permettent aux cartouches JE (5e génération) d’avoir une capacité de 20 To. Les deux types de cartouches ne sont pas interchangeables entre lecteurs, mais il est possible de mixer les technologies au sein d’une même solution.

 

M. : Quel est l’intérêt de pouvoir les mixer ?

J. D. : Cela permet de profiter des performances du Jaguar et du prix du LTO. On mixe aujourd’hui les trois systèmes : la bande magnétique, les disques durs magnétiques et la technologie flash. Étant déconnectée par nature, la bande possède l’avantage d’être imperméable aux attaques informatiques. On est même amenés à utiliser la bande en production, malgré son débit restreint, grâce aux systèmes de fichiers distribués (comme Spectrum Scale) ou aux logiciels « HSM » (hierarchical storage management). On utilise la « tape » dans « le tiers le moins performant » (la partie du stockage la plus lente) avec une gestion logicielle très performante. Pour les solutions de production, la technologie Jaguar est bien plus performante avec des débits en lecture/écriture de 400 Mb/sec. Lorsqu’on doit accéder à de nombreux fichiers, on perd naturellement en performance à cause des temps d’accès. La gestion logicielle permet de les abaisser sensiblement.

Aujourd’hui on accède en trois secondes à un fichier au hasard dans une cassette Jaguar. Dans l’industrie des médias, le Jaguar est préféré pour la production grâce à des solutions de Media asset management (MAM) et de Content storage management (CSM) un peu à la manière d’un HSM. Pour les particuliers, la technologie bande n’est pas intéressante au vu du coût des lecteurs ; même si depuis dix ans ces derniers peuvent être connectés en USB.

La plate-forme externe n’a subi aucun changement, mais la qualité de la bande a fortement évolué. On est passé de la LTO 1 à 8 qui fait 12 To non compressés pour un prix de 130 € (en quantité) soit 11 €/To. Un disque dur de capacité équivalente se négocie un peu plus de 400 €, soit un facteur 3 entre les deux. Pour les gros systèmes de plusieurs Po (pétaoctets), les médias représentent 50 % du prix final. La bande est alors avantageuse. En matière de performances, le disque magnétique se fait distancer par la technologie « flash ».

Ce sont les raisons de la mort certaine du disque dur magnétique. C’est aujourd’hui une question d’acceptation par le marché, toujours plus lent que la technologie. Récemment, IBM a acheté sur une large volumétrie de la « flash » avec un prix au Téraoctet (To) moins cher que le disque dur magnétique ; on pensait que cela n’arriverait pas avant 2022. D’ici peu de temps, en standard, la technologie flash sera moins chère que les disques durs magnétiques.

 

M. : Un des sujets à aborder est la durée de vie de ces technologies

J. D. : Pas de débats : les bandes proposent de longues durées de vie qui augmentent année après année ; elles sont maintenant composées d’un alliage Baryum Ferrite (BaFe) extrêmement résilient garanti dix ans avec des durées de vie estimées de 25 à 30 ans. C’est un chiffre peu représentatif car vous ne conserverez pas des médias sur des bandes pendant cette durée sans risquer de perdre les lecteurs en capacité de les relire.

Une génération matérielle dure trois à quatre ans ; un nouveau lecteur est rétro-compatible sur deux générations, donc les bandes sont utilisées dix ans en pratique. La durée de vie d’un disque dur est de sept ans environ, dépendant de nombreux facteurs dont la marque et la vitesse, ramenée à trois/quatre ans pour une utilisation quotidienne. Dans ces conditions, ils sont changés régulièrement.

 

M. : Les médias archivés sur des disques durs mécaniques risquent-ils d’être perdus au bout de quelques années ?

J. D. : C’est la roulette russe ! Il y a deux types de pannes : les casses mécaniques du moteur ou de la tête. Dans ce cas, la seule possibilité de récupération des médias consiste à confier le disque à un réparateur spécialisé : le coût est important et les délais longs.

Le deuxième problème est la corruption des secteurs. L’enregistrement des données se fait par orientation de particules métalliques grâce à un champ magnétique. Avec le temps les secteurs, même non utilisés, vont se démagnétiser. Pour des films vidéo cela aboutit à la génération d’artefacts aléatoires et complètement imprévisibles. En seulement deux années quelques artefacts peuvent être visibles.

On se moque d’un pixel mort rattrapable par les logiciels de récupération de données, mais après quatre ans le risque augmente de manière non linéaire selon la qualité du matériel, le stockage et l’utilisation. On est sur des interactions moléculaires et magnétiques ; il est impossible de gérer au cas par cas toutes les cellules. Aujourd’hui il est conseillé de copier régulièrement ses données sur de nouveaux médias en vérifiant leur intégrité. Une fois que ses secteurs sont corrompus, le disque dur les marque et la capacité du disque diminue.

 

M. : Et pour les disques SSD ?

J. D. : Sur les disques SSD, les cellules sont des sortes de condensateurs. Au moment du « flash » les cellules HS vont être neutralisées et la capacité du disque va diminuer. Au fur et à mesure des copies, le système va déplacer les données depuis les cellules défectueuses vers des secteurs sains. Les pertes potentielles sont généralement compensées par des logiciels de correction d’erreurs. Les entreprises « critiques » disposent toujours d’une redondance complète des médias. Utilisé intensément un disque peut être détruit en trois à quatre ans ; généralement il dure sept à huit ans, voire plus.

 

M. : Peux-tu nous préciser les différentes technologies de disques SSD ?

J. D. : Les disques SSD (Solid state drive) sont composés de cellules de flash qui peuvent être de plusieurs types. La cellule SLC (Single level cell) est une cellule à deux états : du courant = 1, peu de courant = 0. Pour augmenter la capacité des disques, on augmente la densité de gravure. La durée de vie de la SLC est sensiblement équivalente à celle des disques durs magnétiques, environ dix ans.

Pour augmenter la capacité, la technologie MLC (Multi level cell) est apparue en 2010. Dans une cellule, on enregistre deux niveaux, soit quatre valeurs de tensions, c’est-à-dire 2 bits. La capacité des disques augmente au carré (pour la même taille) avec une division des coûts par deux. Les cellules sont utilisées de manière beaucoup plus intense. La technologie TLC (Triple level cell) utilise trois niveaux, huit valeurs de tensions ou 3 bits. Il y a trois ou quatre mois est sortie la Quad level cell (QLC - 16 niveaux pour 4 bits) avec une durée de vie encore écourtée.

C’est pour ces raisons que le prix des disques flash s’écroule parallèlement à l’augmentation de la densité, et que l’on peut stocker des petabytes de données dans des serveurs de quelques unités de hauteur seulement. Samsung et d’autres fondeurs travaillent sur des cellules à cinq niveaux PLC (pinta level cell). Les disques durs durent de moins en moins longtemps : dur, dur ! Mais combien de temps ?

Aujourd’hui en moyenne un SSD va durer quatre ans, durée suffisante pour le grand public et les professionnels. IBM a breveté un super logiciel intelligent à l’aide duquel on peut pousser cette durée jusqu’à cinq/six ans. Même si IBM ne développe pas de disques flash, cela ne nous empêche pas de breveter des logiciels pour de nombreuses technologies. En 2018, IBM a vendu pour plus d’un milliard de dollars d’utilisation de brevets

 

M. : Pourquoi les disques flash s’appellent-ils ainsi ?

J. D. : Sur les disques SSD, les données sont enregistrées par modulation d’un courant enregistré dans les cellules. Une fois le disque entièrement écrit, les cellules qui ont été libérées par l’utilisateur sont marquées mais pas supprimées (il est donc possible de retrouver les données sur un disque dur flash effacé). Il faut alors « reseter » l’ensemble des cellules avant d’écrire dessus à nouveau (les cellules marquées libres n’étant pas vidées). On va alors envoyer la foudre ! ou un flash !

À l’échelle d’un disque dur, la tension d’une douzaine de volts que l’on envoie est équivalente à une mini bombe atomique ! Cela génère tellement de perturbations électromagnétiques qu’on ne peut plus lire ni écrire sur toutes les cellules autour de la cellule flashée pendant deux microsecondes ; c’est de là que viennent les problèmes de durée de vie : à force, les cellules crament.

 

M. : Ne pourrait-on pas les flasher un peu moins fort ?

J. D. : Le but du jeu c’est de baisser au maximum la puissance du flash, mais il faut un minimum de puissance pour éviter toute corruption. Pour augmenter leur durée de vie, des logiciels intégrés dans les firmwares des disques font de la prévision des zones qui devront être lues ou écrites pour réduire les flashs.

 

M. : Est-ce le même principe pour les clés USB ?

J. D. : Oui, c’est également de la technologie flash. Aujourd’hui, la durée de vie de ces matériels se compte en nombre de flashs. La SLC est la meilleure, elle peut supporter environ 100 000 cycles de lecture/écriture par cellule quand les cellules multi-niveau n’en supportent que 10 000. D’autres technologies flash arrivent avec d’autres types de firmware.

 

M. : Est-ce que la mémoire RAM repose sur la même technologie ?

J. D. : Les mémoires RAM sont flashées si elles sont remplies pendant la session de travail. Avec les quantités de RAM actuelles, elles sont très rarement saturées. Quand un ordinateur est éteint, sa mémoire RAM se vide, il y a donc un reset « naturel » sans flash. Si les ordinateurs ne sont jamais éteints comme les serveurs, la durée de vie des mémoires RAM va baisser ; elles sont en pratique changées tous les trois/quatre ans, parallèlement aux processeurs.

 

M. : On dit souvent qu’il faut éviter de remplir à plus de 80 % un disque dur magnétique. Est-ce vrai ? Et qu’en est-il des disques SSD ?

J. D. : C’est vrai pour le disque dur magnétique. Il utilise un espace temporaire pour la maintenance en récupérant des données utiles afin d’effacer des espaces où sont présents des secteurs entiers de données obsolètes. Sans cet espace libre temporaire les opérations de maintenance sont impossibles.

Les disques durs flash s’en moquent ! De plus les ordinateurs comportent une quantité de RAM de plus en plus importante dans laquelle peuvent être stockées les données pour les opérations de maintenance ; les logiciels ont également évolué. Je dirais qu’on peut aujourd’hui remplir les disques durs magnétiques à environ 90 %. Sur les disques SSD, les systèmes de récupération des données sont gérés directement par leurs firmwares.

 

M. : Peux-tu nous parler des concepts de stockage online, near-online et stockages froids ?

J. D. : Il s’agit d’une méthodologie en silo utilisée depuis 50-60 ans. On scinde les types de stockage par besoins en performances et coûts. Cela n’a plus lieu d’être aujourd’hui grâce à l’architecture des systèmes, la virtualisation du stockage et les stockages unifiés apparus il y a plus de vingt ans. Le but est de disposer d’un pool de stockage unique visible par l’utilisateur avec un pilotage logiciel des différents stockages adressés en fonction des besoins en stockage chaud (utilisable rapidement avec un bon débit), ou froid (nécessitant un délai pour être rapatrié vers le stockage chaud). Aujourd’hui toutes les entités disposant d’un budget suffisant utilisent cette technologie ; parfois avec leurs propres solutions. C’est le principe du HSM (hierarchical storage management). Les « outsourceurs » (fournisseurs cloud) proposent des services moins chers, mais il y a des choix politiques en fonction de la sensibilité des données. Des entreprises sont prêtes à payer plus cher pour conserver les données chez elles.

 

M. : Quel est l’impact du stockage au niveau écologique ?

J. D. : Il y a moins de machines dans un data center, vu qu’elles sont virtualisées, distribuées et partagées. Dans tous les cas, l’informatique consomme énormément d’énergie.

 

M. : La vraie question à se poser est peut-être : pourquoi conserve-t-on autant de données, notamment des médias qui, au final, servent très peu ?

J. D. : La donnée est le nouveau pétrole. En conservant un maximum de données, on peut les analyser via des solutions d’intelligence artificielle de plus en plus performantes. C’est le modèle économique de Google : 90 % de son chiffre d’affaires est issu de la publicité. Ils offrent le meilleur profilage des individus en conservant et analysant toutes les données qui transitent chez eux. Une fois les résultats des analyses obtenues, on conserve les données parce que de futurs logiciels offriront des analyses encore plus poussées. Les données brutes sont comme le pétrole, sauf que ce dernier une fois raffiné n’est plus utilisable.

 

M. : En quoi la bande est-elle une solution écologique ?

J. D. : D’abord, les cartouches ne consomment pas d’électricité en dehors des phases d’écriture et de lecture, alors que tous les téléviseurs, les boxes et les disques durs consomment lorsqu’ils sont en veille. À petite échelle c’est négligeable, pour des centaines de millions de cartouches qui remplaceraient potentiellement des millions de disques durs, cela représente des millions de kWh. Les bandes magnétiques économisent 95 à 98 % d’énergie par rapport à une baie de disques équivalente ; c’est la technologie qui consomme le moins d’électricité, et de loin. En termes de construction, la technologie des bandes et des lecteurs représente un peu de métal assemblé, beaucoup plus économique que le cobalt et les autres terres rares des processeurs et des technologies « silicium ».

 

M. : IBM est-il le seul acteur de la bande ?

J. D. : Les librairies sont des grandes armoires automatisées avec des robots qui introduisent les cassettes dans les lecteurs : IBM représente plus de la moitié du marché. L’intelligence de cette technologie se trouve dans les lecteurs. IBM les vend directement ou sous forme OEM.

Parmi nos concurrents qui fabriquent d’autres librairies, certains utilisent des lecteurs IBM avec leurs logos. Pas de débat : à ce niveau les lecteurs sont 100 % IBM. Concernant les cartouches, IBM travaille en collaboration avec Fujifilm et Sony qui ont permis d’énormes avancées.

Aujourd’hui l’évolution est freinée par les limitations d’investissements. Dans de nombreux secteurs, même si vous investissez plus vous ne pourrez pas aller beaucoup plus vite à cause de limites physiques ; ce n’est pas le cas pour la « tape ». IBM pourrait développer des Tapes plus performantes plus vite avec un budget R&D plus élevé. Il faut néanmoins prendre en compte l’équation économique qui nous permet d’être rentable pour pérenniser la technologie.

 

Article paru pour la première fois dans Mediakwest #34, p.100/105. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Orchestration-Monitoring-Réseau : les tendances 2020

— 18 février 2020 à 17:16
Rhode & Schwarz avait réuni sur son stand toutes ses technologies broadcast et média dans la supervision des réseaux à distance, la contribution et diffusion, mesure et test, production et post-production. © Lionel Ollier

Alors que Connect complémente son système Kybio Media d’une API qui permet d’intégrer sa plate-forme avec les principaux systèmes présents chez les diffuseurs, la solution Smart de Lawo allie la supervision du réseau et l’analyse des flux média avec de nouvelles fonctionnalités. Grass Valley facilite la configuration des workflows IP avec sa suite logiciels et de plugs-in GV Orbit, Rohde & Schwarz prend en charge (via Prismon.cloud) pléthore de normes et de formats pour le transport audio-vidéo et Applicaster mise sur sa plate-forme Zapp qui a permis de lancer l’application officielle de la Copa America 2019 de football au Brésil.

 

CONNECT

Créée en 2017, la société française Connect n’est pas partie de zéro pour développer ses solutions de contrôle et de monitoring de réseaux pour les chaînes et centres de diffusion, puisqu’elle a pu s’appuyer sur l’équipe d’ingénieurs de sa société sœur Worldcast Systems (Audemat, APT, Ecreso) connue pour les équipements de diffusion radio et créée, elle, dans les années 50.

Connect présentait son système Kybio Media de supervision, de gestion et contrôle des équipements et infrastructures techniques multimarques, de l’arrivée des flux, en passant par leur traitement et leur diffusion. « Notre nouveau moteur de corrélation pour la détection et la résolution des incidents réseau a été complémenté d’une API qui permet d’intégrer notre plate-forme avec les principaux systèmes présents chez les diffuseurs, de type ERP/CRM, automation, programmation, PAM/MAM, explique Mathieu Yerle, directeur commercial et stratégie produit, Connect. Nos interfaces-drivers permettent d’interroger les systèmes installés chez les diffuseurs (Evertz, Grass Valley, Riedel, Avid, Quantum…) et de faire remonter des statuts pour contrôler l’état de santé du réseau avec des alarmes en cas d’anomalies. » Kybio Media se présente comme une plate-forme de surveillance et de contrôle agnostique de bout en bout flexible et adaptable qui facilite la supervision des opérations sans être expert en la matière.

 

 

LAWO

La solution Smart de Lawo allie la supervision du réseau et l’analyse des flux média (décodage du contenu des flux audio et vidéo compressés ou non) avec de nouvelles fonctionnalités comme la découverte automatique de la topologie réseau. Applicatif installé sur le serveur, Smart se connecte à une infrastructure réseau à analyser. En quelques minutes, l’application va « scanner » la topologie du réseau c’est-à-dire l’ensemble des éléments qui le compose et leur connexion, en représentant chaque port, chaque appareil présents. L’application permet de découvrir grâce à une interface graphique très intuitive la totalité des flux média qui transitent sur ce réseau, quels chemins ils empruntent, et de traiter les incidents qui pourraient apparaître.

Le nouveau logiciel de contrôle AES67 Stream Monitor de Lawo permet une surveillance des signaux audio AES67 sur le réseau IP. Jusqu’à seize flux audio (mono, stéréo, multicanaux) peuvent s’afficher à l’écran sous forme de vumètres et être écoutés à travers le PC qui héberge l’application. « Il s’agit d’une solution de contrôle autonome qui convient aux petites et moyennes structures qui installent un premier réseau sur IP. C’est une solution très facile à exploiter et efficace pour le contrôle des flux AES67, à un tarif très abordable », indique Joffrey Heyraud, Lawo France.

 

 

GRASS VALLEY

Grass Valley Orbit est une suite logiciels et de plugs-in pour la configuration, le contrôle et le monitoring des équipements dans le cas d’orchestration des réseaux SDI, hybrides ou purement IP. Via une interface graphique, GV Orbit offre une gamme d’outils de diagnostic et de contrôle des matériels (Grass Valley et tierce partie) connectés au réseau, depuis les mosaïques jusqu’aux routeurs. Grâce aux capacités dynamiques de l’interface, l’utilisateur peut aisément ajouter ou supprimer des équipements, changer les panneaux de contrôle ou renommer à la volée les signaux, sans perte de temps.

« Notre but avec le produit GV Orbit est de faciliter la configuration des workflows IP, résume Boromy Ung, VP Marketing Produits. La communication avec nos produits ou ceux de fabricants tiers se fait en automatique en important les presets par défaut qu’il est ensuite possible d’adapter à vos besoins. » GV Orbit utilise le service d’échange de données middleware DDS (Data Distribution Service) pour afficher automatiquement tout nouvel équipement avec ses paramètres de contrôle. GV Orbit s’appuie sur le standard NMOS pour la partie IS-04 et IS-05 permettant d’identifier et de connecter sur le réseau des produits entre eux.

Grass Valley Technology Alliance (GVTA) est une alliance accessible à chaque fabricant et qui regroupe déjà les sociétés Frankly Media, Net Insight, RT Software, Telemetrics et ChyronHego. Le but est de fournir une large gamme de systèmes (graphique, streaming, caméra robotisée…) pré-validés et associés aux solutions Grass Valley dans un écosystème de production interopérable.

 

 

ROHDE & SCHWARZ

Prismon.cloud de Rohde & Schwarz (R&S) est un service sur base logicielle de surveillance et visualisation (Monitoring-as-a-Service) de contenus dans le cloud. Il prend en charge la pléthore de normes et de formats pour le transport audio-vidéo dans un environnement de diffusions OTT, DVB, SMPTE 2022-1/2-6/7, ST 2110-20/21/30/40, ASI, SDI, AIMS, ANWA NMOS. Il offre une supervision de l’ensemble du réseau à distance et sur site, signale les incidents par e-mail et fournit des données de statuts, via une API compatible Rest. Les fonctionnalités de monitoring et de mosaïque IP ont été étendues pour les interfaces SDI/ASI, la configuration PTP et le contrôle des espaces colorimétriques ST 2110 améliorés.

Rohde & Schwarz a ajouté à son système de stockage SpycerNode un nouveau modèle compact 2RU et plusieurs unités d’extension de capacité JBOD. Le nouveau PAM de gestion des fichiers SpycerPAM facilite le travail en réseau des équipes de postproduction sur les principales plates-formes de montage et de mastering, telles que Premiere (Adobe), Media Composer (Avid), Final Cut Pro (Apple) et Clipster (R&S). La dernière version du système de mastering Clipster intègre un iCMU Dolby Vision (Content Mapping Unit intégré – ou unité d’organisation du contenu) qui facilite la conversion SDR et HDR en temps réel. Clipster bénéficie également de la prise en charge des workflows Dolby Atmos pour les équipements grand public. De nouveaux développements concernant le traitement du HDR ont aussi été apportés au serveur de production R&S Venice.

R&S est très en pointe dans ses recherches sur la 5G et propose aujourd’hui son système de transmission LTE/5G en mode broadcast BSCC1.0 et ses transmetteurs Tx9 compatibles 3GPP v.14. Ce qui fait dire à R&S qu’il est « le premier fournisseur de technologie au monde à proposer une solution broadcast 5G complète ».

 

 

APPLICASTER

La plate-forme Zapp d’Applicaster est une solution logicielle cloud (SaaS) de conception et de gestion d’applications mobiles pour les entreprises média cherchant à étendre leur audience auprès d’un public connecté (smartphones, tablettes, TV connectées…). « Zapp offre un ensemble d’outils accessibles via le cloud permettant de développer et de gérer des apps possédant un design et des niveaux de navigation élaborés dans le but d’améliorer l’expérience utilisateur et d’attirer le public sur les plates-formes web et mobile », explique Estibaliz Rodero, responsable des ventes, Applicaster. La plate-forme Zapp a permis de lancer l’application officielle de la Copa America 2019 de football au Brésil. Les fans pouvaient y accéder directement par téléchargement (iOS et Androïd) ou via Twitter et Instagram, partager et annoter les meilleurs moments de la compétition. Ils pouvaient aussi recevoir des notifications personnalisées sur les équipes, les joueurs...

Tout récemment, la plate-forme OTT de vidéo à la demande ZEE5 (Inde) a opté pour Zapp afin d’améliorer la navigation de ses 76 millions d’utilisateurs devant leurs télés connectées et smartphones. Parmi les autres clients Applicaster, figurent de grands acteurs des médias : ProSiebenSat.1, Televisa, DirecTV, Fox TV stations, Time Warner, Mediaset, etc.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Mélangeurs : les tendances 2020

— 17 février 2020 à 17:00
Le prochain mélangeur 4K de Panasonic dispose de huit entrées et cinq sorties 12G-SDI i/o, mais est aussi compatible 3G. © Nathalie Klimberg

Disponible en février 2020, le mélangeur 4K Panasonic AV-UHS5000 sera compatible 3G et sa future plate-forme de production tirant pleinement parti des toutes dernières technologies IP verra le jour au prochain NAB. Pour sa part, JVC permettra d’implémenter un décodeur H265 dans l’emplacement carte mémoire SSD des Connected Cam 500, 550 et 900 et Datavideo annonce l’arrivée du KMU 200 et de l’OBV-3200, sa troisième régie mobile plug and play. D’ores et déjà, la version 3.0 du Carbonite Ultra de Ross inclut un lecteur de clips monocanal pour le play-out de contenus compressés en Mpeg-4 AVC directement depuis un support USB. Chez Grass Valley, la solution tout-en-un Kula AV 1M/E SD/HD-SDI est utilisable par un opérateur unique multitâches et chez Lawo la flexibilité devient un maître-mot.

 

PANASONIC

L’AV-UHS5000, le nouveau mélangeur 4K de Panasonic, dispose de huit entrées et cinq sorties 12G-SDI i/o, mais est aussi compatible 3G. Ce mélangeur 1ME est équipé de cinq keyers, comprenant deux canaux Chromakey et deux canaux PiP. Il est doté de la même ergonomie que le HS410 et peut accepter des cartes additionnelles via deux slots qui lui permettent de passer à seize entrées et quinze sorties 4K 12G SDI, et il possède également des entrées et sorties HDMI. Le mélangeur est également équipé de fonctions de conversion up/down, de conversion HDR/SDR et de conversion ITU-R BT.2020/BT.709 et un slot de carte SD devrait lui permettre un enregistrement ou un play-back de longue capacité. L’AV-UHS5000 sera disponible en février 2020.

Le constructeur a aussi présenté sa prochaine plate-forme de production IP compatible 4K/8K qui représentera un véritable changement de paradigme et les premiers pas de Panasonic dans l’univers de la virtualisation. Cette régie de production live 12G SDI, compatible NDI et conforme à la norme IP SMPTE 2110, change l’approche de l’architecture vidéo des organisations puisque cette plate-forme logicielle ouverte pourra faire office de serveur centralisé et ainsi recevoir puis redistribuer tous types de flux de caméras ou studios virtuels vers des serveurs de processing vidéo, des murs d’affichage led, des vidéoprojecteurs, des stations de montage non linéaires tout en pilotant les sources de captation (caméra et automation), solutions ROI, solution d’auto tracking qu’elle reçoit… Elle offrira de vraies entrées 4K non compressées et une prise en charge totale des signaux IP et en bande de base (tels que ST2110 et NDI) simultanément.

Tirant pleinement parti des toutes dernières technologies IP et offrant un traitement de l’image avec un temps de latence très faible, la plate-forme sera idéale pour la production remote. Elle acceptera pratiquement tous les types de signaux et son interface sera entièrement personnalisable. Flexible et évolutive, cette nouvelle solution permettra d’économiser beaucoup de temps en termes de déploiement, et donc de l’argent !

Lancement prévu sur le NAB 2020...

 

 

JVC

La gamme Connected Cam Studio, lancée cet été, propose deux modèles : le KM-IP4100 et le KM-IP6000 adaptés aux univers de la captation culturelle, de l’éducation, mais aussi du sport (ils peuvent générer des ralentis)… Ils disposent aussi d’un mélangeur audio, d’un générateur de caractère interne avec templates, de quatre couches DSK et d’une librairie de clips. Ces régies HD-SDI et HDMI sont dotées respectivement de quatre ou six entrées IP HD-SDI prenant en charge le protocole NDI, ainsi que le protocole de streaming SRT (Secure Reliable Transport). Elles intègrent un encodeur H.264 intégré et peuvent gérer jusqu’à 10 Mbps de streaming en 1080p, avec une sortie simultanée RTMP et Mpeg-TS et une intégration en streaming direct à Facebook Live et à d’autres CDN…

On notera que JVC annonce pour 2020, la possibilité d’implémenter un décodeur H265 dans l’emplacement carte mémoire SSD des Connected Cam 500, 550 et 900. Le décodeur IP HEVC/H264 BR-DE900 deviendra l’année prochaine lui aussi compatible H265.

 

 

ROSS

Carbonite de Ross est la gamme de mélangeurs de production intermédiaires la plus vendue au monde, et la nouvelle version 3.0 du logiciel dédié à la famille Carbonite Ultra inclut un lecteur de clips monocanal pour le play-out de contenus compressés en Mpeg-4 AVC directement depuis un support USB. Les utilisateurs peuvent enregistrer des vidéos de n’importe quelle durée sur une clé ou un disque USB, brancher celui-ci dans le Carbonite Ultra et inclure les séquences dans leur production. Le lecteur vidéo interne peut être affecté en tant que source à n’importe quel bus du mélangeur, et le play-out peut être contrôlé à l’aide d’une interface DashBoard dédiée, de commandes personnalisées ou de commandes AMP.

Pour les formats UHD, la version 3.0 du Carbonite Ultra permet une conversion bidirectionnelle entre les contenus SDR et HDR (HLG, PQ et S-LOG3), ainsi qu’une conversion bidirectionnelle WCG (Rec.709 ↔ Rec.2020). Capable de prendre en charge les contenus UHD et HDR/WCG, le Carbonite Ultra permet de proposer au public des images d’une qualité exceptionnelle.

Dans la version 3.0 du Carbonite Ultra, l’intégration directe avec le système de commande Ultritouch et le panneau de monitoring est plus fluide que jamais auparavant. Lorsqu’un Ultritouch est pointé vers un Carbonite Ultra, le mélangeur affiche un menu spécial qui inclut le statut du mélangeur, les affectations des bus, l’outil Custom Control Shotbox, et plus encore. Les utilisateurs pourront toujours créer leurs propres interfaces Ultritouch personnalisées afin de simplifier les contrôles de leurs contenus, mais avec les menus prédéfinis, il est possible de commencer immédiatement à prendre en main Ultritouch et le Carbonite Ultra.

 

 

DATAVIDEO

Datavideo annonce l’arrivée du RMC-300A, un pupitre de contrôle IP qui peut prendre en charge jusqu’à vingt-quatre Caméras PTZ/Blocs via huit ports série et seize ports DVIP et mémoriser quatorze positions par caméras (prix : 965 euros).

Par ailleurs, Datavideo annonce l’arrivée prochaine de l’OBV-3200, sa troisième régie mobile plug and play. Cette solution complète de production intégrée dans un pupitre dispose d’un mélangeur SE-3200 HD douze canaux (deux racks).

Le constructeur annonce aussi l’arrivée du KMU 200. Cet outil de production streaming 4K polyvalent permet de mixage vidéo et audio, le contrôle de caméra et la gestion. Comme son prédécesseur, le KMU 100, il peut aussi générer une conversion depuis deux caméras 4K SDI ou HDMI vers huit sorties vidéo 3G-SDI, son contrôleur RMC-185 permet d’utiliser le « pan, tilt, zoom » pour créer en direct quatre découpes dynamiques sur le signal 4K en offrant la possibilité de créer des trajectoires de suivi d’objets mobiles. Le KMU 200 propose en plus un écran tactile et peut enregistrer le flux de streaming H264 sur carte SD. Très simple d’utilisation, cette solution pourra notamment être utilisée par les bloggers… Le KMU 100 est disponible au prix de 915 euros. Le KMU 200 sera disponible en 2020 (prix non communiqué).

 

 

GRASS VALLEY

Grass Valley présentait le mélangeur intégré Kula AV 1M/E SD/HD-SDI avec sa surface de contrôle 19 pouces, utilisable par un opérateur unique multitâches. Solution tout-en-un, il offre des fonctions multiviewers, de conversion de format, de mixage audio dans un cœur de traitement 2RU. Kula AV s’adresse aux petites productions, aux associations sportives, aux universités… Il peut s’installer dans un fly-pack ou dans un car de production léger. L’extension audio Mav de huit faders complète le mélangeur Kula AV.

 

 

LAWO

Lawo présentait sa gamme de consoles de mixage audio MC2 (MC2 36-56-96) destinées aux émissions en direct (radio-télé), aux représentations musicales ou tout autre événementiel, pour des régies fixes, mobiles ou cars de production. La version MC2 56 dispose d’un nouveau bac double fader permettant d’augmenter le nombre de canaux accessibles, jusqu’à 144 faders pour le plus grand modèle. La section centrale de la console MC2 96 dispose à présent de seize faders au lieu de huit précédemment. À noter qu’une nouvelle interface IP Layer-3 a été ajoutée à la gamme MC2 entre le processing et la console facilitant ainsi le partage d’un cœur avec plusieurs surfaces, y compris à travers un LAN ou WAN.

De nouvelles fonctionnalités ont été apportées aux cœurs de traitement AES67 Power Core des consoles de mixage audio de la gamme Ruby. « Lawo introduit une nouvelle gamme de licences baptisée Power Core MAX qui tourne sur le même DSP 1RU existant, mais qui permet de faire fonctionner jusqu’à quatre surfaces audio indépendantes et en parallèle sur la même ressource hardware, explique Joffrey Heyraud, directeur commercial Lawo France. Il existe un petit surcoût pour la licence mais le bénéfice pour le client est sans commune mesure par rapport au nombre de consoles utilisables. » Power Core dispose d’une grande puissance de traitement DSP pour les réseaux AoIP, de multiples fonctions de traitement, de routage et d’E/S analogiques, numériques et AES67.

Dans la série grilles vidéo sur IP, Lawo présente son applicatif V_matrix 1.10 qui s’installe sur le module de traitement Lawo C100, et qui permet d’effectuer toutes les opérations d’un système de grille vidéo, à commencer par le rôle de passerelle vidéo SDI/IP/SDI (up/down/cross conversion SD/HD/3G/UHD), de traitement audio (embedder et desembedder, gain et shuffling audio), de correction de couleur (HDR/SDR) et de génération de mosaïque IP. La version 1.10 vient enrichir les applications V_matrix vm_dmv (multiviewer IP UHD/HDR) et vm_udx (convertisseur up/down/cross UHD/HDR). À noter que vm_dmv supporte à présent le standard SMPTE ST2022-7 pour la redondance de flux. Lawo présentait son nouveau châssis V_matrix Silent Frame pour les serveurs lame V-matrix C100, qui est conçu pour les environnements sensibles au bruit tels que les salles de contrôle, les régies audio ou cabines d’enregistrement.

The Wall v.2.0 est la nouvelle version du logiciel d’agencement des mosaïques de Lawo qui permet de manipuler librement des objets comme éléments d’affichage, sans grille prédéfinie. « The Wall v.2.0 apporte beaucoup plus de flexibilité que la version précédente, il est possible de positionner selon ses choix les éléments de sa mosaïque, en définissant la taille des fenêtres, en choisissant quels éléments afficher sans passer par un modèle prédéfini », indique Joffrey Heyraud, directeur commercial, Lawo France.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Workflow Production & Automation : les tendances 2020

— 16 février 2020 à 17:30
Avid permet aux créateurs et chaînes de télévision de pousser plus facilement les contenus sur les réseaux sociaux via MediaCentral l Publisher, basé sur la technologie de Wildmoka. © Stephan Faudeux

Signé il y a quelques mois, l’accord Sony/Nevion AS donne lieu à la création de solutions sur mesure pour des environnements de production live modernes, tout comme en broadcast le partenariat technologique entre Woody Ingest Live et Libero Systems. Le nouveau MediaCentral l Publisher d’Avid devrait permettre aux entreprises du secteur des médias d’attirer de nouveaux publics et sources de revenus. Scisys a, lui, déjà annoncé le déploiement de la technologie OpenMedia par France Télévisions. À cela s’ajoute une pléthore de nouveautés et mises à jour à suivre en 2020 chez Axle, Grass Valley, Dalet et Pebble Beach Systems.

 

SONY

Il y a quelques mois, Sony et Nevion AS, l’un des principaux fournisseurs de solutions de production multimédia virtuelles, ont signé un accord de partenariat stratégique. Nevion et Sony entendent ainsi offrir aux clients le savoir-faire et les produits (équipements et systèmes) dont ils ont besoin, afin de créer des solutions sur mesure pour des environnements de production live modernes et performants. À l’occasion du salon IBC, avec l’aide de United Broadcast, une filiale d’Euro Media Group (EMG) et de CenturyLink, Sony a présenté un exemple de solution IP Live complète reliant le stand Sony, le stand Nevion et un studio de production à distance IP situé à Hilversum.

 

 

AVID

Avid a dévoilé le nouveau MediaCentral l Publisher, basé sur Wildmoka, avec lequel les entreprises du secteur des médias peuvent créer des contenus, ajouter des graphismes, leur identité visuelle, ou encore publier des vidéos d’information ou de sports sur les médias sociaux avec une réactivité bien plus rapide qu’auparavant, attirant ainsi de nouveaux publics et de nouvelles sources de revenus. Selon le Pew Research Center, 68 % des personnes aux États-Unis s’informent sur des plates-formes sociales comme Facebook, Twitter, Instagram, YouTube ou encore LinkedIn. Pour les acteurs de l’information et des sports, il faut créer le buzz sur ces médias sociaux en étant le premier à diffuser les contenus sur différentes plates-formes.

MediaCentral l Publisher est une nouvelle solution SaaS utilisant Wildmoka, qui sera disponible avec la plate-forme MediaCentral 2019 d’Avid ; celle-ci offre aux organisations d’information, de contenus sportifs et de postproduction des outils puissants grâce auxquels elles peuvent rapidement publier leurs contenus dans les différentes plates-formes de l’univers numérique. Les utilisateurs de MediaCentral peuvent désormais enregistrer des logs, rechercher et utiliser des contenus, créer une séquence des moments importants dans la ligne temporelle, ajouter des graphismes, puis publier le résultat sur toutes les plates-formes sociales et numériques à l’aide de MediaCentral | Publisher.

Avid a annoncé la prise en charge du protocole de transfert vidéo SRT (Secure Reliable Transport), qui permet une transmission fiable de contenus vidéo en direct sur l’Internet public pour les programmes sportifs et d’information. Avid a également annoncé de nouvelles intégrations avec le SRT Hub de Haivision, qui permet un routage intelligent en direct sur IP de flux en direct et de fichiers à travers tout le réseau Microsoft Azure, pour une distribution de contenus économique et de haute qualité vers le cloud d’Avid, ainsi que des workflows éditoriaux. Mis au point par Haivision, le SRT Hub permet un routage sécurisé, de haute qualité et à faible latence, pour transmettre des contenus en direct ou des fichiers depuis le terrain jusqu’au studio ou dans le cloud. Avid, Haivision et Microsoft ont présenté des workflows locaux et dans le cloud qui font appel au SRT Hub de Haivision et à la solution FastServe | Stream d’Avid pour transférer et ingérer des flux SRT sur IP depuis n’importe où dans le monde, sans nécessiter de coûteuses liaisons par satellite ou en fibre optique. Avid est membre de la SRT Alliance, une communauté collaborative d’entreprises et de développeurs du secteur dont le but est de permettre la transmission à faible latence de contenus vidéo en améliorant sans cesse le protocole libre SRT.

 

 

SCISYS

Scisys Media Solutions (anciennement Annova Systems), fournisseur de systèmes de salles de rédaction, a annoncé le déploiement de la technologie OpenMedia par France Télévisions, dans le cadre d’une grande campagne de remplacement des systèmes de salle de rédaction du groupe français. Portant sur deux chaînes généralistes nationales, une chaîne d’information, 24 chaînes régionales, 10 chaînes outre-mer et un ensemble de stations de radio, une offre numérique d’information multiplateforme et environ 3 000 utilisateurs, ce nouvel accord s’élève à plusieurs millions d’euros et assurera la transition des opérations de France Télévisions vers OpenMedia Infinity, le système phare de salle de rédaction de Scisys Media Solutions. Le système fonctionnera en tandem avec l’interface web unifiée Newsboard, utilisée aussi bien par les journalistes que par les équipes éditoriales.

OpenMedia Infinity permet la prise en charge de workflows complexes pour l’information télévisée, de la recherche de dépêches à la rédaction de scripts en passant par la gestion du temps d’antenne. L’architecture personnalisable et ouverte de Newsboard, basée sur les widgets, est pensée pour aider les organisations à s’adapter aux nouveaux workflows tout en relevant les défis d’un paysage des médias en constante évolution. Les deux autres grands acteurs publics de la diffusion en France – Radio France et France Media Monde – utilisent déjà OpenMedia pour leurs salles de rédaction : Scisys Media Solutions détient donc désormais le monopole des systèmes informatiques de salle de rédaction chez les opérateurs publics français.

Scisys s’est rallié à l’Avid Alliance Partner Program. La nouvelle extension du système de salle de rédaction (NRCS) OpenMedia de SCISYS offrira une intégration unifiée avec la plate-forme Avid MediaCentral | Cloud UX, simplifiant même les workflows les plus complexes pour la production de programmes d’information et permettant aux équipes éditoriales d’aborder avec facilité les projets les plus divers.

En offrant un environnement unifié pour la production de programmes d’informations, le logiciel Scisys OpenMedia permet aux journalistes, opérateurs de prises de vues et responsables de salles de rédaction d’obtenir des informations immédiates sur tous les sujets en cours de production, ainsi que de mettre ceux-ci à jour et de voir les calendriers d’actualités, tout en gardant un œil sur les dépêches d’informations et les flux de médias sociaux. Avec l’intégration dans la solution MediaCentral | Cloud UX d’Avid, les utilisateurs pourront accéder aux plates-formes de diffusion depuis le monde entier, à l’aide d’une interface simple et conviviale disponible sous forme de client web et d’application mobile pour iOS et Android.

L’ouverture de la plate-forme de Scisys aux fournisseurs tiers offrira la vitesse et l’extensibilité des outils OpenMedia de planification et de production de programmes d’information d’une part, et la puissance et la flexibilité de MediaCentral | Cloud UX d’Avid d’autre part, répondant ainsi aux besoins les plus pointus des salles de rédaction professionnelles, notamment avec de nombreux outils pour la recherche d’informations, la programmation éditoriale et la gestion du temps d’antenne. Scisys fournira également aux utilisateurs d’Avid le module OpenMedia Connector, qui sera disponible par l’intermédiaire du réseau de partenaires et de distribution d’Avid.

 

 

WOODY

Woody Ingest Live est le résultat d’une forte expérience dans la fourniture de solutions logicielles d’acquisition pour les grands acteurs du secteur et d’un partenariat technologique avec Libero Systems, un acteur qui a fait ses preuves dans les domaines du play-out et de l’ingest en direct. Woody Ingest Live permet aux clients dans le domaine du broadcast d’ingérer des flux en SDI, NDI et IP directement dans leur environnement de postproduction, grâce à une interface intuitive. L’outil web de planification donne également à des utilisateurs multiples la possibilité de programmer des tâches d’ingestion, qui sont alors exécutées sur une série de canaux d’ingestion répartis entre plusieurs serveurs physiques. Woody Ingest Live utilise le moteur Woody de traitement de médias, qui peut être intégré dans différentes plates-formes de gestion des contenus et permet le montage en cours.

 

 

AXLE

Axle ai Connectr est un nouvel outil d’automation de workflows multiplateformes agnostique qui permet de copier ou déplacer des fichiers sur le stockage, transcoder des médias avec la bibliothèque de logiciels FFMpeg, d’envoyer des e-mails et des textes, ou des lignes de commandes à un large éventail d’applications via des API Rest. De nombreuses actions sont automatisées et permettent de gagner beaucoup de temps sur des tâches répétitives pour se concentrer sur la partie créative de la production.

 

 

GRASS VALLEY

Grass Valley présentait GV Pace, sa solution de contrôle et d’automatisation des workflows de production pour la réalisation de directs tels que les news, le sport ou les émissions politiques. Spécialement adapté aux événements de dernière minute, GV Pace peut être utilisé par un opérateur unique qui assure depuis sa tablette la mise en œuvre et le contrôle d’un direct multicouches grâce à une interface tactile qui gère les fonctions d’automation d’Ignite (GV). Solution par abonnement, GV Pace ne nécessite pas l’usage d’un système de contrôle de newsroom (Newsroom Computer System). Elle est compatible avec les produits GV et ceux d’autres fabricants et interagit directement avec les workflows existants.

 

 

DALET

Dalet, le spécialiste de solutions logicielles de gestion et de distribution de contenus, accueillait Ooyala sur son stand suite à l’acquisition en juillet dernier de son activité Flex Media Platform. Complémentaire de l’offre Dalet Galaxy Five, Flex Media Platform permet à l’entreprise française d’accéder à de nouveaux marchés dans le sport (fédérations, clubs de sport…), chez les opérateurs télécoms, diffuseurs… Parmi les clients d’Ooyala figurent les entreprises Fox Sports Australia, HBO Asia, Media Prima, National Rugby League, Turner Asia, TV2 Denmark, Zomin.TV, The Picture Production Company, Audi, Sky Sports et Smoke and Mirrors…

Côté News, Dalet présentait son environnement Unified News Operation qui combine la partie NRCS et la partie NPS (News Production System) comme le montage, la diffusion et l’archivage et permet de couvrir des workflows de bout en bout dans une chaîne TV. Dalet Remote Editing permet de préparer et de monter ses sujets sur le terrain de manière fluide comme dans une salle de rédaction et d’accéder avec une simple connexion 3G et un laptop à d’autres médias stockés à distance.

La plate-forme Dalet CubeNG (Next Generation) de gestion des graphiques, s’appuie sur un processing poussé et des interfaces utilisateur conviviales. Intégrée à l’environnement Unified News Operations, Dalet CubeNG tire profit du moteur de rendu temps réel de Brainstorm (mais également VizRT, Orad, etc.) pour créer rapidement des habillages graphiques 2D et 3D.

La plate-forme Dalet Galaxy Five de Media Asset Management (MAM) et d’orchestration des workflows dispose d’un agrégateur de réseaux sociaux (tweeter, RSS…) baptisé Social Media Agregator permettant de récupérer des images, vidéo et audio, dans une timeline et de créer par drag & drop des objets graphiques diffusables en quelques secondes à l’antenne.

Dalet présentait la nouvelle version Media Cortex (SaaS dans le cloud) basée sur l’IA (intelligence artificielle) au service des workflows de programmes et de news, accessible dans l’environnement de production Dalet Galaxy Five et Ooyala Flex Media. « Media Cortex automatise et enrichit de nombreuses étapes de fabrication, explique Raoul Cospen, directeur du portfolio produit chez Dalet, notamment la génération de sous-titres, la transcription speech-to-text avec un séquençage très précis des lignes de texte au plus près des préconisations éditées par la BBC ». La partie recommandation contextuelle du moteur Media Cortex permet par exemple à un journaliste qui traite d’un sujet de trouver facilement dans sa base de données éditoriale tous types de médias (vidéo, audio, fil d’agence…) s’y rapportant pour étoffer son sujet.

 

 

PEBBLE BEACH

Pebble Beach Systems, spécialiste de l’automatisation et du play-out, a récemment implémenté un plug-in de pré-rendering After Effects (Adobe) pour la création de graphiques 3D, en lien avec ses outils de diffusion Dolphin et le contrôle d’automation Marina. L’idée consiste à simplifier la production des éléments 3D (logos, promos…) sous AE en supprimant leur conversion dans des formats spécifiques aux différents fabricants. « Cette nouvelle intégration gère le rendu automatique des modèles After Effects et leur disponibilité immédiate à l’antenne, explique Manuel Brouard, sales engineering manager, Pebble Beach. Le graphiste accède à un template After Effects pour créer ses modèles 3D qui sont pré-calculés dans la playlist et transférés sur nos serveurs avant leur mise à l’antenne. » L’opérateur-graphiste est ainsi dégagé des tâches laborieuses de traitement multiple, grâce à l’automation en tâche de fond. La solution s’adresse aux chaînes thématiques ou régionales qui n’ont pas forcément le budget pour investir dans un dispositif d’habillage antenne complexe et onéreux. Pebble Beach annonçait également l’intégration du moteur de rendu Viz Engine (Vizrt) dans ses solutions de diffusion Dolphin et Orca.

L’IBC était aussi l’occasion pour Miroslav Jeras, directeur technique de Pebble Beach, de parler de la spécification IS-07 NMOS développée par l’AMWA en vue du remplacement des interfaces GPI dans un environnement IP. Les systèmes Pebble Beach sont présents en France chez NextRadioTv, Arte, Bein Sport, Arkena, Martinique la 1ère…

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Les solutions clés en main de Multicam Systems (Web TV Arnaud Anchelergue)

— 11 février 2020 à 20:35
Les solutions clés en main de Multicam Systems (Web TV Arnaud Anchelergue) © DR

Radio France et France Télévisions ont multiplié dernièrement les projets communs pour proposer à leurs publics une meilleure offre de proximité. Ainsi, d’ici 2022, les 44 matinales (7h-9h) de France Bleu seront diffusées sur France 3… Une mutualisation des deux groupes du service public qui permettra également une meilleure visibilité sur tous supports.

 

Multicam Systems va accompagner ce déploiement puisque vous retrouverez bientôt une quarantaine de leurs solutions sur les plateaux des matinales de France Bleu… Nous avons reçu à cette occasion pendant le Satis, Arnaud Anchelergue, Directeur général de Multicam Systems…

« L’objectif pour les matinales de France Bleu était d’équiper chaque équipe par un système de captation très simplifiée pour pouvoir diffuser les matinales France Bleu sur le réseau France 3. Nous sommes un peu dans de la radio filmée mais un peu évoluée avec beaucoup d’enrichissements pour faire des news. C’est un système avec une personne qui va faire 2 heures de live par jour pour alimenter les France 3. C’est donc un beau projet ! »

 

Arnaud Anchelergue revient sur la force des solutions Multicam Systems…

« La grosse force de nos produits, c’est une interface très intuitive, très ergonomique qui s’adresse à des éditeurs visuels. Ces opérateurs ne sont pas des techniciens mais ont plus un profil de journaliste. Ce sont vraiment ces gens-là qui vont exploiter la solution. Dans un secteur qui est très porté sur la technique, nous essayons d’avoir une approche qui est plus portée sur l’utilisateur et donc de faire des interfaces faciles à utiliser. »

 

POUR EN SAVOIR PLUS ET DECOUVRIR LES FUTURES SOLUTIONS DEVELOPPEES PAR MULTICAM SYSTEMS A VENIR, VISIONNEZ L’INTEGRALITE DE L’INTERVIEW VIDEO !

☐ ☆ ✇ Mediakwest - Broadcast

Broadcast Live : les tendances 2020

— 5 février 2020 à 17:00
Le plein de nouveautés sur le stand Newtek et 3D Storm. © Nathalie Klimberg

Depuis peu sous l’étendard de Vizrt, Newtek s’appuie sur une intelligence artificielle pour proposer une automation de programmes plutôt révolutionnaire. Lora réinvente la régie mobile. Dejero sort la nouvelle version de son transmetteur portable EnGo 260. Le français Aviwest présente son protocole SST (Safe Streams Transport) disponible en tant que service cloud et maintenant comme conteneur logiciel utilisable par d’autres fabricants. Enfin, LiveU met en avant sa première unité d’agrégation cellulaire en technologie 5G pour la transmission des images en direct.

 

NEWTEK / 3D STORM

Une version 4 de NDI, Live Story Creator (un outil disruptif proposé dans la suite Premium Access), un nouveau Tricaster, toute une famille de convertisseurs NDI, des updates dans la famille Live Expert… Voilà les principales nouveautés que l’on pouvait retrouver sur les stands Newtek et 3DStorm (le distributeur de Newtek pour l’Europe) de cet IBC 2019. Il s’agissait du premier IBC de Newtek sous l’étendard de Vizrt, l’acquisition ayant été officialisée sur le NAB…

• Live Story Creator

Sur le salon, NewTek exposait Premium Access, son nouveau pack logiciel d’utilitaires pour les régies NewTek VMC1 et TriCaster TC1. Parmi ces utilitaires, Live Story Creator s’appuie sur une intelligence artificielle pour proposer une automation de programmes plutôt révolutionnaire… Conçu comme un simple script intégré à Microsoft Word et doté de déclencheurs d’actions, ce Live Story Creator permet, une fois installé sur un TriCaster ou sur un VMC1, d’exécuter le script souhaité sans expérience de programmation. À partir de 2 299 € HT.

La régie de direct TriCaster 410 Plus, dévoilée au printemps dernier, était aussi sous le feu de la rampe… Elle dispose de huit entrées externes, quatre sorties M/E, quatre sorties mixtes, ainsi que d’une intégration NDI pour la transmission de la vidéo, de l’audio et de données sur IP. Très complet, le système propose de multiples fonctionnalités : une publication en temps réel sur les réseaux sociaux, l’enregistrement multicanal, la lecture vidéo, des templates graphiques, des fonctionnalités de compositing… La solution a notamment déjà été adoptée en Europe par le Wanda Stadium de Madrid… À partir de 9 995 € HT.

• Une gamme de convertisseurs NDI plus que complète !

3D Storm présentait également toute la gamme des convertisseurs vidéo NDI Spark de NewTek : Connect Spark SDI, Connect Spark HDMI, Spark Plus 4K et Connect Spark Pro… Et Delta-Neo N2H, son petit boîtier conçu pour décoder et visualiser tout flux NDI sur les périphériques d’affichage HDMI, les écrans de télévision et les projecteurs vidéo. Ce décodeur NDI haut débit de Deltacast détecte automatiquement le format de flux, le décode et le convertit au format HDMI avec audio intégré en observant une grande stabilité et une très faible latence. Delta-Neo N2H, prix de vente conseillé : 495 € HT.

Les solutions de productions live LiveCG Broadcast et Delta-Stadium continuent d’évoluer… On retrouve ces deux solutions de production graphiques au rapport qualité prix imbattable dans des environnements de plus en plus nombreux. Elles sont distribuées par 3Dstorm.

• LiveCG Broadcast est un générateur de caractères (titreur) professionnel en rack 1U reconnu pour son efficacité et sa simplicité. Très utilisé pour l’habillage graphique de chaînes TV ou web TV et l’affichage sur écran géant, il peut, lorsqu’on lui implémente le module logiciel Social Hub, être connecté aux réseaux sociaux tels que Facebook, Twitter, Instagram et d’autres pour une diffusion de messages en temps réel. LiveCG Broadcast est le titreur graphique professionnel hybride SDI/NDI le plus polyvalent et économique du marché. Prix de vente conseillé : à partir de 2 995 € HT.

Delta-Stadium est une solution clé en main complète permettant de générer et d’afficher des graphiques 2D et 3D pour les animations et les présentations d’avant-match, les horloges, les partitions animées, la gestion des statistiques, les actions, les décisions des arbitres, etc. 3D Storm et Deltacast ont développé une interface dédiée, Delta-Stadium Perimeter, pour gérer l’affichage sur les panneaux led du stade. Cette solution est notamment utilisée au Stade Groupama de Lyon, en France. Prix de vente conseillé : à partir de 7 995 € HT.

 

 

LORA SOLUTIONS

Lora Solutions réinvente la régie mobile, la solution Lora PopCast peut travailler en mode local ou distant. Lora PopCast propose des outils de réalisation, de prévisualisation à distance qui permettent de prendre en charge des flux externes, mais également de gérer un live depuis n’importe quel endroit. L’ensemble est très compact (34 cm de profondeur et 20 cm x 21 cm), facile à intégrer, puisqu’il suffit de brancher est c’est prêt. Aucune configuration n’est nécessaire. Il s’agit d’un serveur qui peut accepter jusqu’à trois entrées SDI, trois flux IP et une sortie PGM ; il bénéficie d’un stockage interne avec accès FTP, CIFS ou OneDrive. Le Lora PopCast se pilote en local ou à distance depuis un PC ou une tablette, il est possible de modifier dynamiquement et instantanément des données à l’antenne et il est multi-client. La solution peut agréger des flux SDI, IP ou de visioconférence, insérer des fichiers multimédia avec la transparence, réaliser de l’habillage dynamique et du PIP.

L’interface graphique est très simple sur le principe du Push Button (un clic pour mettre à l’antenne et un clic pour enlever), avec un accès direct aux données dynamiques liées au bouton. Le serveur est accessible depuis n’importe quel navigateur web. Les boutons sont personnalisables en couleur, ordre, groupe… Via une interface unique vous accédez à la librairie de contenu (sélection, fonction de lecture en boucle…), vous gérez vos sources (adresses des sources externe : vidéo IP, Site Web… Vous pouvez éditer les textes des synthés, changer les paramètres de sortie des flux IP, contrôler des effets.

La combinaison des flux (SDI, IP, Page Web, Skype, Iphone en NDI…) permet de s’adapter à toutes les situations. Les sources se contrôlent dans un mode multiview en réseau local sur un moniteur informatique, en NDI ou SDI, mais aussi à distance en streaming. De nombreux formats de fichiers sont acceptés en import (H.264, Mpeg-2, ProRes, DNxHD, DVCPRO HD…). Il est possible d’incruster un sujet filmé sur fond vert, d’animer un logo… La sortie est en SDI, mais peut être en IP ou NDI ; il est possible d’envoyer du contenu vers les réseaux sociaux. Le signal peut être enregistré dans plusieurs formats. Il peut également être transféré via les outils de transfert Aspera. Outre ces fonctions déjà très complètes, Lora Solutions peut personnaliser Lora PopCast à la demande en ajoutant des effets supplémentaires, en s’interfaçant avec des API tierces… Le pack Alto proposé à partir de 8 000 € HT

 

 

DEJERO

La nouvelle version du transmetteur portable Dejero EnGo 260 pour les contributions mobiles en direct dispose de capacité « 5G ready » et permet l’encodage adaptatif et la compression HEVC des flux vidéo. EnGo prend en charge l’encodage automatique des images selon leur complexité quelles que soient les conditions de tournage avec un débit annoncé jusqu’à 20 Mb/s pour les transmissions en direct 1080p 50/60.

Le système de retour vidéo en châssis 1RU, CuePoint 100 de Dejero a la capacité d’envoyer jusqu’à huit flux vidéo avec l’audio et le téléprompteur depuis une régie de production vers les équipes de tournage avec une latence annoncée d’à peine 250 millisecondes. Le retour vidéo et le téléprompteur peuvent être visualisés sur le terrain par les journalistes, la technique et la réalisation sur un moniteur, une tablette ou un smartphone. La régie peut paramétrer le nombre de retours vidéo nécessaires pour une synchronisation temps réel entre le plateau et les reporters lors d’un multiplex.

WayPoint 204 est le premier serveur 1RU Dejero à prendre en charge les standards SMPTE ST 2110. En plus de recomposer la vidéo transportée sur plusieurs connexions IP à partir d’émetteurs Dejero, WayPoint auto-détecte et décode les flux HEVC ou AVC, fournit quatre canaux IFB symétriques et quatre sorties compatibles SMPTE ST 2110.

IronRoute est une solution de diffusion qui permet d’agréger les liaisons cellulaires et satellites (Intelsat) pour proposer un service centralisé dans le cloud. La solution vise à simplifier la diffusion simultanée des images en direct et sous forme de fichiers vers plusieurs lieux de réception – une chaîne TV et ses bureaux en région par exemple –, via des transmissions point à point, point à multipoint et multipoint à multipoint avec une simple interface dans un navigateur web.

Disponible à présent en Europe, le service de connectivité mixte cellulaire et satellitaire CellSat permet de résoudre des problèmes d’encombrement ou de manque de connectivité pour des directs, en mélangeant toutes les liaisons 3G/4G/5G disponibles avec le réseau satellite en bande Ku d’Intelsat pour garantir une fiabilité et une qualité des images.

 

 

AVIWEST

Le français Aviwest présentait son protocole SST (Safe Streams Transport) permettant d’agréger plusieurs flux IP pour des liaisons de contribution en direct des chaînes TV. Disponible en tant que service cloud et maintenant en tant que conteneur logiciel utilisable par d’autres fabricants, cette technologie a reçu le prix Emmy Award 2019 de la National Academy of Television en 2019. Elle a été mise en œuvre par Turner Sports lors de la diffusion en direct de la Ryder Cup de golf fin 2018 à Paris. Des images qui transitaient depuis Paris vers Atlanta via un simple Internet public et la technologie Safe Streams. « Des liaisons dédiées très coûteuses étaient auparavant utilisées par Turner Sports pour ses directs. En passant par les solutions Aviwest, la chaîne a divisé par mille ses coûts de diffusion avec une qualité d’image excellente sans perte de paquets ! », s’enthousiasme Erwan Gasc, directeur général Aviwest.

La société se concentre actuellement sur l’adaptation de ses produits au réseau 5G et les modems à intégrer. Via une mise à jour logicielle, les émetteurs DMNG Pro3 et AIR disposent d’un mode data Hotspot qui permet de les transformer en borne Internet à haut débit. « L’accès à Internet est disponible en wi-fi ou en LAN Ethernet et permet à des journalistes ou à n’importe quelle société d’avoir une connexion Internet haut débit, quelle que soit sa situation géographique », explique Cyril Hamelin, directeur des ventes Europe Asie du sud. Les huit cartes SIM des émetteurs Aviwest se connectent au réseau 4G et permettent des débits allant jusqu’à 70 Mb/sec. « Nos produits habituellement utilisés dans un sac à dos pour faire du direct pourront être installés dans un véhicule de reportage ou un car-régie et servir de routeur Internet, ajoute Cyril Hamelin, Aviwest. Pour les événements de dernière minute, c’est la solution idéale qui permet d’avoir une connexion web fiable sans les coûts d’une liaison dédiée facturée par un opérateur filaire ou satellitaire. »

Aviwest était au cœur d’une démonstration technique avec son partenaire rennais b<>com dans la Future Zone de l’IBC mettant en avant les capacités de transmission de ses émetteurs cellulaires AIR dans le cas d’un réseau virtuel 5G dégradé. Aviwest expérimentait également avec EVS une solution de gestion de métadatas de bout en bout avec sa plate-forme de gestion Manager et ses serveurs StreamHub qui se connectent aux principaux outils de newsroom et de diffusion et qui automatise l’indexation des clips vidéo et la remontée des métadatas. Grâce à une approche basée sur l’intelligence artificielle, la solution Aviwest permet d’accéder et de trier une multitude de clips provenant du terrain afin de finaliser des sujets beaucoup plus rapidement avant leur insertion dans un conducteur d’antenne.

Vodalys.studio propose une application de régie vidéo multicam dans le cloud pour la diffusion en direct sur le web de petits événements, et qui permet d’enrichir les flux de streaming avec de l’habillage, de l’ajout de logo, du picture-in-picture... Aviwest a développé un docker capable de s’intégrer à ce type de plate-forme et qui remplace un récepteur Aviwest. N’importe quel client utilisant un émetteur App Mojopro, PRO3 ou AIR se connectera directement avec la régie vidéo dans le cloud pour accéder à ses fonctionnalités. Les flux live provenant des émetteurs Aviwest sont à présent intégrés directement dans le MAM de Newsbridge permettant la transcription speech-to-text et la reconnaissance automatique de plans à partir d’une base d’images de plus de 200 000 personnalités.

 

 

LIVE U

L’émetteur 4K HEVC LU600 5G est la première unité d’agrégation cellulaire en technologie 5G de LiveU pour la transmission des images en direct (news, sport…). Il incorpore des modems 5G et des antennes couvrant toutes les fréquences jusqu’au 6 GHz (4G/5G), assurant la transmission d’événements live de manière ininterrompue même dans des zones difficiles. « Une mise à jour 5G est prévue pour le parc de boîtiers LiveU déjà en service », indique Jean-Christophe Albou, responsable développement commercial LiveU en Europe du sud et Benelux.

LiveU participe régulièrement à des tests 5G avec les opérateurs, dont AT&T aux États-Unis, Vodafone en Italie, et KT Corporation en Corée du Sud. En juillet dernier à Las Vegas, LiveU et l’opérateur AT&T se sont associés à la chaîne ESPN et Ericsson pour tester avec succès un tournage et une transmission 5G en direct avec des smartphones – à l’aide de l’application mobile LU-Smart –, lors des rencontres de la NBA Summer League, avec des débits sur place de plus de 1,5 Gbps. En avril dernier, LiveU a participé en Corée du Sud à la diffusion en direct (via le réseau 5G de SK Telecom) du concert du 100e anniversaire de l’établissement du gouvernement provisoire de Corée en Chine, lors de cette cérémonie diffusée dans cinq pays. À noter que LiveU a passé récemment un partenariat avec Griiip, le fabricant de voitures de course de Formule G1, afin de mélanger les solutions de transmission en direct de LiveU avec les outils de statistiques de course (vitesse, chronos…) de Griiip pour offrir aux chaînes des images inédites des compétitions.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Tendances 2020 : quoi de neuf en réalité virtuelle ?

— 5 février 2020 à 17:00
Chez Insta360, l’imposante caméra Titan impressionne les visiteurs. À droite, utilisation surprenante pour l’Insta360 One X. © DR

Nouveaux entrants, acteurs historiques, ils étaient tous à l’IBC 2019 pour présenter leurs produits et services d’avant-garde. Découvrez ici certaines des innovations proposées dans le domaine de la cinématique VR sur le salon. Sauront-elles vous convaincre que la réalité virtuelle est toujours d’actualité ?

 

Du côté de la captation, les fabricants misent sur la débauche de pixels. Tout d’abord chez INSTA360, de retour en force cette année avec un très grand stand tout de jaune vêtu. La nouvelle caméra Titan y trouve une place de choix. Une grosse sphère (de 5 kg) qui est constituée de huit optiques et nous promet une résolution finale d’image 11K (après l’étape de l’assemblage des sources) en monoscopie et 10K en stéréoscopie ! Ce qui en fait à ce jour la championne incontestée de la taille d’image pour la cinématique VR, catégorie caméra tout-en-un.

D’autres caractéristiques sont bien sûr là pour satisfaire les professionnels de l’image : les capteurs Sony Micro 4/3 utilisés par exemple, devraient permettre une utilisation plus confortable de la caméra dans les situations de basses lumières. Le traitement de l’image sur 10 bits est également là pour améliorer le rendu des couleurs. La Titan hérite aussi des technologies déjà implantées sur les caméras Insta Pro2 : la stabilisation « flowstate » très performante et l’option « farsight » qui permet un monitoring et un accès aux fonctions principales à grande distance. Une caméra qui a donc tout pour plaire.

On regrettera juste l’absence d’optiques à ouverture variable, mais c’est un défaut commun à toutes les caméras VR all-in-one du marché (sauf chez Z Cam). Bien sûr Insta360 assoit également sa position de leader sur le marché des caméras 360 « prosumer » avec le succès de la Insta One X, petite caméra aux grandes capacités. Attention tout de même à la sortie prochaine de la GoPro Max, nouvelle caméra 360 de GoPro qui succèdera à la Fusion.

Nouvelle venue, la caméra Pilot Era du fabricant PISOFTTECH semble assez pratique d’utilisation. Ses quatre optiques permettent de produire des images monoscopiques en 8K. Tout l’intérêt réside dans le fait que la caméra est entièrement autonome : elle se charge de stitcher (assembler) automatiquement les images, y compris dans le cas d’une diffusion live. Pas besoin d’ordinateur pour finaliser ses contenus ! Elle est compatible Google Street View, ce qui permet à l’utilisateur d’envoyer ses images sur la plate-forme en un clic. Pilot Era dispose aussi d’un slot Sim, qui peut être utilisé pour la transmission live. Nul doute que la 5G trouvera ici un cas d’usage intéressant...

Pas de grosse nouveauté VR sur le stand de Z CAM qui fait cette année son retour. Il semble que le constructeur mise tout sur sa nouvelle E2 prête à concurrencer les caméras Blackmagic et autres DSLR. Néanmoins, en insistant un peu, nous découvrons un prototype particulièrement intéressant : la Z Cam K2 Pro. Futur successeur de la K1 Pro, caméra professionnelle au format VR180 plébiscité par Google, ce modèle de caméra compacte reprend l’électronique des E2 dans un boîtier à l’avant duquel viennent se positionner deux optiques fisheye, pour une captation stéréoscopique synchronisée en 6K et à 60 images par seconde grâce à deux capteurs micro 4/3. Cette caméra annonce une amplitude possible de 15 diaphs dans certains modes, ce qui permettra aux professionnels de travailler dans toutes sortes de conditions de lumière.

Si on s’intéresse aux optiques, on remarque que celles qui équipent la K2 Pro sont particulièrement qualitatives. Ce sont les toutes nouvelles MKX200 du fabricant IZUGAR, ces optiques de 200 degrés de champ angulaire et de 3,8 mm de focale permettent de s’affranchir des distorsions et des aberrations chromatiques grâce à leur conception asphérique. Elles permettent une ouverture variable de f2,8 à f11. Toutes ces caractéristiques, associées à une taille compacte, en font un choix très intéressant dans le segment de la cinématique VR.

Autre nouveau venu, META CAMERA nous propose la Meta One, une caméra VR tout-en-un qui a la particularité d’avoir été conçue par des créateurs de contenu. Elle devrait donc apporter un vrai plus aux utilisateurs. Voilà donc une nouvelle « back2back » (deux optiques dos à dos), à l’aspect robuste, équipée de lentilles proéminentes de la marque Entaniya (250 degrés de champ angulaire par lentille). Elle ne s’impose pas dans la bataille du plus grand nombre de pixels (5,5K annoncés), mais propose par exemple un enregistrement en ProRes 422 HQ garantissant une compression tout à fait compatible avec une postproduction exigeante (étalonnage complexe, utilisation « fond vert » par exemple), et surtout une possibilité de filmer à une cadence de 120 images par seconde, avec quelques concessions sur le nadir (bas de la sphère 360) et le zénith (haut de la sphère 360) dans ces conditions.

Pas de stand pour KANDAO cette année. Le constructeur des caméras VR professionnelles Obsidian continue à améliorer ses outils pour une utilisation live. Surfant sur la 5G, Kandao présente en collaboration avec Huawei un pipeline complet de captation/diffusion d’images 8K stéréoscopiques à 30 images par seconde ! Un exploit qui augure des contenus immersifs disponibles lors des Jeux Olympiques de Tokyo l’année prochaine.

 

 

En matière de cinématique VR, peu de nouveautés cette année, mais des améliorations de stabilité, de gestion des nouvelles cartes graphiques. Il semble que la 3D temps réel se taille la part du lion dans la réalité virtuelle. C’est paradoxal, car il faut rappeler qu’aujourd’hui les contenus hors gaming les plus consommés dans les casques VR sont les vidéos 360. Malgré les progrès de l’intelligence artificielle, l’étape du stitching (couture des sources entre elles) n’a pas disparu. Elle subit une évolution à travers les mises à jour des logiciels utilisés. INSTA 360 implémente le profil Titan dans la version 3.0 de son logiciel Stitcher. Il est aussi possible pour les utilisateurs des caméras du constructeur chinois d’alléger le travail de couture en recourant aux plugs-in prévus pour Adobe Premiere. Ils vont permettre un « stitch virtuel » des plans montés dans la timeline qui peut être lue en temps réel. Dans ce cas, le stitching est calculé uniquement au moment de l’export du montage final.

Si on veut avoir accès à plus de réglages pendant cette étape d’assemblage propre aux vidéos 360, il faut choisir des logiciels tels que Mistika VR. Cette année encore, l’incontournable outil édité par la société espagnole SGO est plébiscité par une grande majorité de professionnels de la cinématique VR (plus de 2 000 utilisateurs actifs), et est disponible dans sa version 8.10.

Avec toujours plus de profils caméras disponibles, Mistika VR nous propose d’intéressantes améliorations, comme par exemple la possibilité d’agir sur la largeur des zones de recouvrement individuellement par caméra, et également une amélioration significative des temps de rendu. SGO propose aussi un outil plus complet de postproduction dérivé de son logiciel phare Ultima : c’est Mistika Boutique. Une solution logicielle tout-en-un qui permet de finaliser une cinématique VR du stitching à l’export, en passant par l’étalonnage, le tout avec des options de traitement de la stéréoscopie très abouties.

 

 

Côté montage, ADOBE PREMIERE reste leader depuis 2017, date de l’intégration des outils Skybox Suite. Le logiciel facilite le traitement des images équirectangulaires, en reconnaissant par exemple automatiquement les formats sources, qu’ils soient 360 monoscopiques ou 180 stéréoscopiques. L’interface de montage en réalité virtuelle, compatible avec la plupart des casques filaires du marché via Steam VR, permet de visualiser directement son montage en immersion et donc de mieux appréhender rythme, transitions et effets. À noter dans la suite Creative Cloud du même éditeur les récentes mises à jour de AdobeCamera Raw et Lightroom, qui permettent de traiter plus facilement les photos 360 issues des caméras prosumer et professionnelles intégrant un mode de prise de vues Raw, comme l’Insta 360 One X ou la Kandao Qoocam.

De belles innovations concernant le son immersif présentées sur le stand SENNHEISER, avec Dear Reality et un ensemble de plugs-in rassemblés sous la bannière DearVR Pro. Il est ainsi possible de spatialiser et de mixer l’audio multicanal directement en VR dans un studio virtuel (option DearVR Spatial Connect) à travers un casque VR de type Oculus Rift S, et de visualiser ses sources sonores représentées par des objets. Le travail devient alors très intuitif et permet de produire des expériences sonores d’une qualité et d’une précision jamais vues auparavant. Juste à côté, le VR Mic de l’écosystème Ambeo tient toujours une position dominante parmi les matériels de captation 3D audio. Sennheiser fournit le plug-in de conversion du format A de captation vers le format B de postproduction, étape à laquelle la sphère ambisonique pourra être retravaillée.

On remarque cette année que le FRAUNHOFER INSTITUTE reste très actif sur le sujet de la réalité virtuelle, avec une démonstration impressionnante des possibilités de son Player Video 360 : intégré au programme de développement Fame Fokus, ce player permet aux diffuseurs et producteurs de contenus de proposer aux spectateurs une expérience de visionnage à 360 degrés directement sur leur téléviseur (compatible smart TV). Une application mobile ajoute une fonction de « smart remote » qui permet de piloter le lecteur, et de modifier l’angle de vue du programme grâce aux fonctions tactiles du téléphone de l’utilisateur. Côté qualité, le lecteur est capable de recevoir des flux 360 allant jusqu’à 24K ! Seul le champ de vision sélectionné par le spectateur est streamé en résolution UHD, ce qui diminue fortement les besoins en bande passante, tout en augmentant la qualité perçue au final. Une application qui pourrait bien populariser encore plus la 360 !  

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Tout sur la SMPTE avec Barbara Lange, sa directrice générale ! (Web TV SATIS)

— 5 février 2020 à 17:00
Présentation de la SMPTE, association interprofessionnelle internationale (Web TV Barbara Lange) © DR

François Abbe, gouverneur de la Society of Motion Picture and Television Engineers (SMPTE) pour l’Europe, le Moyen-Orient et l’Afrique, a reçu sur notre plateau de Web TV Satis, Barbara Lange qui dirige la SMPTE et le HPA qui est le Hollywood Post Alliance. Elle nous présente cette entité…

 

« La SMPTE est une organisation internationale qui est visible à travers le monde. Elle a 103 ans et est née avec le cinéma. La SMPTE travaille sur tout ce qui est interopérabilité, comment échanger les formats etc… Il y a une grosse communauté de 7000 membres à l’international. Il y a également toute une partie éducation pour faire avancer les technologies dans les médias… »

 

Barbara Lange revient dans un second temps sur le format de l’IMF…

« La norme IMF permet de faciliter l’échange de master en différentes langues ou formats (séries, films…). Le mot d’ordre, c’est l’efficacité lorsque nous distribuons des programmes audiovisuels. Il permet également de réaliser des économies pour la distribution. »

 

En fin d’interview, Barbara Lange revient sur le rôle central de la SMPTE pour accompagner la transition des infrastructures vers le tout IP…

 

POUR EN SAVOIR PLUS, VISIONNEZ L’INTEGRALITE DE L’INTERVIEW VIDEO !

 

Pour en apprendre davantage sur le sujet de l'IMF, consultez l'article L’IMF s’installe sur le marché français (Web TV François Abbe)

☐ ☆ ✇ Mediakwest - Broadcast

Services : les tendances 2020

— 2 février 2020 à 16:00
Sony regroupe sous l’entité Intelligent Media Services ses différents services avec nombre d’entres eux dans le cloud. © Stephan Faudeux

De nouvelles fonctions pour l’optimisation de la diffusion, la visibilité des performances publicitaires et la personnalisation des contenus sont au programme de Verizon Media. Chez Sony Media Services l’heure est au regroupement. Côté plate-forme, il convient de suivre les avancées de Viaccess-Orca en termes de publicité ciblée avec ses partenaires Smart et VizNet, tout comme le travail de Pixit Media avec Red Bee. Lequel a réalisé à l’IBC 2019 une démonstration de remote production lors d’un match de football en Angleterre.

 

VERIZON MEDIA

Verizon Media a lancé de nouvelles fonctions pour l’optimisation de la diffusion, la visibilité des performances publicitaires, la personnalisation des contenus. Verizon Smartplay : Stream Routing permet la transmission de contenus vidéo sur plusieurs CDN, offrant aux téléspectateurs un démarrage plus rapide de leurs vidéos et réduisant les interruptions : l’expérience de visionnage s’en trouve ainsi améliorée. Nouveauté présentée lors du salon IBC 2019, Smartplay : Stream Routing exploite les données sur les performances – côté serveur et client – obtenues par l’intermédiaire du réseau mondial de Verizon Media, pour organiser la circulation des données de manière dynamique. Ainsi, si un incident survient sur un réseau, le trafic est automatiquement réacheminé, protégeant les diffuseurs contre les pannes catastrophiques sur leur réseau.

La nouvelle version d’Ad Server Debug, développé par Verizon Media, offre aux détenteurs de contenus une visibilité de bout en bout pour leur processus d’insertion publicitaire, mettant en évidence les erreurs, les times-out et les problèmes de tags. Cette solution recueille et stocke automatiquement les données relatives à chaque transaction, y compris les délais de réponse et les times-out de serveurs de publicité tiers. Des données complètes sur les sessions des utilisateurs peuvent être stockées jusqu’à 14 jours : les données sont donc toujours disponibles en quantité suffisante pour des tâches de résolution de problèmes ou d’analyse en profondeur.

La solution Smartplay Content Targeting offre des flux vidéo de qualité TV ultra-personnalisés, grâce à une technologie de manipulation. Les pannes de réseau obligent les distributeurs de contenus à restreindre les contenus en fonction de la localisation de l’utilisateur ou du type d’appareil utilisé ; pour maintenir l’attention des téléspectateurs, les chaînes doivent être en mesure de proposer des contenus de substitution en cas de panne du réseau (plutôt qu’un message statique, qui risque d’entraîner une chute de l’audience). Grâce à une interface facile d’utilisation, les clients peuvent programmer les interruptions de réseau à l’avance et prévoir la diffusion de contenus personnalisés, afin de mieux contrôler l’expérience du spectateur. Ils peuvent ainsi cerner des publics, créer des ensembles de règles, puis appliquer ces critères aux contenus concernés. La Media Platform de Verizon permet également la programmation par l’intermédiaire d’une API ou simplement en fournissant un fichier CSV.

Pour continuer d’utiliser les anciens workflows de diffusion, le remplacement des contenus et la gestion de l’audience peuvent être automatisés pour tous les workflows utilisant le système ESNI (Event Scheduling and Notification Interface), ce qui permet de gagner du temps et d’attendre un public plus large tout en assurant l’intégration avec les workflows existants. Une fois configuré, Smartplay Content Targeting est capable de déterminer la localisation d’un spectateur, l’appareil qu’il utilise ou encore son environnement de visionnage, tout cela dans le but de lui offrir l’expérience qui correspond le mieux à sa situation tout en veillant à ce que les contenus appropriés soient diffusés pour le bon public au bon moment, dans toutes les régions du monde.

Verizon Media a annoncé que sa plate-forme de streaming est à présent disponible sur Microsoft Azure, prête à être testée en version bêta par ses clients. Cette intégration permet des workflows simplifiés, une échelle mondiale et l’accès à différentes ressources d’Azure dont Azure Media Services: Video Indexer et à Azure Blob Storage, avec lequel les diffuseurs et les fournisseurs de contenus peuvent entrer dans une nouvelle ère des médias.

Avec la gamme de fonctions de Verizon Media Streaming sur Azure, chaque étape du streaming OTT se trouve simplifiée, de l’encodage et de la distribution à la personnalisation et à l’analyse. La solution vidéo professionnelle intégrée de Verizon Media inclut des fonctions de DRM, d’insertion publicitaire, de personnalisation des sessions individuelles, de remplacement dynamique des contenus et de diffusion vidéo.

Azure est disponible dans plus de régions du monde que n’importe quel autre acteur du cloud : les utilisateurs de Verizon Media Streaming peuvent donc facilement distribuer leurs contenus aux quatre coins du globe. Les clients profiteront également de l’intégration prévue avec Azure Media Services : Video Indexer, qui permettra une analyse approfondie des contenus nouveaux et archivés ; les détenteurs de contenus pourront ainsi ajouter des métadonnées à d’énormes bibliothèques de contenus.

Ce faisant, ils peuvent créer de nouvelles expériences pour le spectateur, par exemple des chaînes personnalisées, ce qui se traduit par des sessions plus longues et des recettes publicitaires accrues. Les clients pourront également profiter de Azure Blob Storage, une solution de stockage dans le cloud offrant une disponibilité et une extensibilité élevées.

Verizon Media Streaming sur Microsoft Azure est actuellement en version bêta. Les clients peuvent s’inscrire pour profiter immédiatement des dernières nouveautés et améliorations apportées à la plate-forme. Aucun coût d’installation ou d’accès à la plate-forme. Le service est conçu de manière à ce que l’utilisateur moyen puisse commencer son déploiement avec une assistance minimale. Il n’y a également aucun coût lié à la migration ou, généralement, à l’assistance d’un ingénieur ; et des ingénieurs experts sont joignables par e-mail 24 heures sur 24 et 7 jours sur 7.

 

 

RED BEE

Lors de l’IBC, Red Bee Media a réalisé une démonstration de remote production lors d’un match de football en Angleterre. Les signaux en 4K du car régie et les caméras individuelles de Leyton Orient FC étaient transmis jusqu’aux installations de Red Bee Media à Londres et aux Pays-Bas. Les flux de caméra étaient intégrés dans la production à l’aide des nouvelles capacités de production à distance de Red Bee, avec commentaires en direct. Le dispositif permettait également de produire des contenus personnalisés destinés aux médias sociaux à partir des images du match en direct. Lors de l’opération, était inséré un flux audio de commentaires et envoi à l’équipe Access Services de Red Bee pour un sous-titrage en direct du match. L’équipe Playout de Red Bee crée, à partir des images produites en direct, un flux personnalisé de contenus promotionnels à diffuser en cours de match pendant les arrêts de jeu. Le programme principal était présenté sur le stand de Red Bee lors du salon IBC en même temps que le flux était envoyé à l’équipe de distribution pour être compressé en vue d’une diffusion en aval, et diffusion simultanée d’un flux à basse latence sur la plate-forme OTT de Red Bee.

 

 

SONY MEDIA SERVICES

Même si les services proposés ne sont pas tous récents, Sony les regroupe sous l’entité Intelligent Media Services. De la production, acquisition jusqu’à la distribution de contenus Sony veut se positionner sur toutes les étapes de la vie des contenus. Elle s’appuie sur Media Backbone Hive, Virtual Production, XDCAM Air, Ven.ue, CI. Le but est d’utiliser majoritairement des services dans le cloud pour raccourcir les délais, de pouvoir produire partout dans le monde, d’obtenir un niveau de fiabilité plus élevé grâce à des fonctionnalités de prototypage rapides et à un système de production de news basé sur le cloud. Il s’agit de remplacer la dépense en capital en coûts de fonctionnement. Les technologies déployées par Sony sont simples d’usage. Il suffit de glisser/déposer des fichiers pour créer, tester et déployer des workflows en quelques heures seulement, et non en plusieurs jours ou semaines. L’intégration d’une bibliothèque de contenus est rapide et vous pouvez profiter d’une solution d’automatisation et d’outils qui raccourcissent les délais de mise sur le marché tout en vous faisant bénéficier d’un meilleur accès aux contenus. En bout de chaîne, les contenus sont sécurisés dans le cloud ou sur les disques optiques proposés par Sony.

 

 

VIACCESS ORCA

Filiale du groupe Orange, Viaccess-Orca est spécialisée dans la protection du contenu pour les opérateurs de TV payante et les plates-formes de distribution OTT. Elle intervient sur deux segments : sécurisation du contenu avec la partie DRM, accès conditionnel, cryptage de données, player sécurisé, services anti-piratage, d’un côté ; et de l’autre, plate-forme de distribution avec une interface utilisateur permettant une expérience homogène d’un équipement à un autre, des solutions de recommandation de contenus, de data-analytics, predictive-analytics, churn-prediction (le risque de perdre des abonnés), etc. Son architecture TV Plateform Solution est présente sur site chez les diffuseurs, mais également dans le cloud (TvaaS) pour des infrastructures plus légères.

Côté plate-forme, Viaccess-Orca faisait état de ses avancées en termes de publicité ciblée pour les services de VoD et de live streaming avec ses partenaires français Smart et VizNet. « Protection des contenus et anti-piratage sont au cœur du développement de Viaccess-Orca depuis son origine, explique Atika Boulgaz, directrice de la communication globale, Viaccess-Orca. Nous avons lancé notre “Anti-Piracy Center”, de la cyber-sécurité au service des diffuseurs afin de les accompagner dans la mise en œuvre de toutes ces technologies. » Cette boîte à outils « anti-pirates » offre plusieurs services tels que l’identification des liens redistribués illégalement (afin d’accumuler des preuves pour la justice), la prévention du partage de mots de passe, ou des technologies de watermarking avancées. Viaccess-Orca est partenaire de b<>com, un institut de recherche français installé à Rennes, et travaille sur le « dynamique watermarking » afin de générer plusieurs algorithmes de marquage difficilement crackables par les pirates. Une technologie qui a valu à Viaccess-Orca un Award CSI dans la catégorie « Best Content Protection Technology », lors de cet IBC.

 

 

PIXIT

Red Bee Media, l’un des leaders mondiaux des services médias, a annoncé la conclusion d’un partenariat stratégique avec Pixit Media, pionnier des solutions logicielles d’infrastructure pour les secteurs des médias et du divertissement, pour offrir des services d’infogérance dans toutes ses installations multirégionales de play-out.

Les services logiciels de play-out offerts par Red Bee permettent une configuration et un déploiement rapides de nouveaux services TV, donnant aux acteurs de la télévision la possibilité de lancer rapidement de nouvelles chaînes et fonctions. Pour améliorer les workflows et protéger les contenus à haute valeur pour répondre aux normes de sécurité les plus strictes, Red Bee a déployé PixStor, la plate-forme de stockage de Pixit Media, pour son infrastructure de play-out.

Basé sur Ethernet et offrant une API, PixStor met à disposition un environnement de données qui réunit différents appareils, applications et systèmes en un unique workflow – garantissant des performances stables, une extensibilité illimitée, un contrôle des données et un accès collaboratif sécurisé pour tous les utilisateurs, où qu’ils se trouvent.

Pixit Media a travaillé avec Red Bee pour répondre au mieux à ses besoins spécifiques, apportant les améliorations nécessaires à la plate-forme PixStor pour offrir des fonctions de mutualisation dans un espace de noms unique. Cela permet de réduire les coûts importants liés à la gestion d’une infrastructure complexe divisée en plusieurs parties pour séparer et protéger les données des clients. Avec PixStor, Red Bee peut désormais séparer et isoler les données rapidement et modifier ses capacités en fonction des volumes à traiter, le tout au sein de l’environnement unifié de PixStor, sans pertes de performance ou de baisse du niveau de service offert aux clients.

PixStor a été déployé dans les centres de play-out de Red Bee Media en Suède et au Royaume-Uni, y compris dans son installation londonienne de R&D ; d’autres sites suivront prochainement.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Transmission de signaux : Rohde & Schwarz décompose la gigue

— 30 janvier 2020 à 17:00
Rohde & Schwarz décompose la gigue pour ses oscilloscopes © DR

À mesure que les vitesses de transmission de données augmentent et que les variations d’amplitude des signaux diminuent, la gigue occupe, lors de la transmission de signaux via des interfaces numériques, une part significative dans les analyses, et devient une source de pannes potentielles. Les ingénieurs ont donc un besoin accru d'outils leur permettant de caractériser précisément la gigue d’un signal et de connaître les différents éléments qui la composent.

 

La nouvelle option R&S RTO-/ RTP-K133 permet l’analyse avancée de la gigue par la mise en œuvre d’une approche analytique assurant la séparation de ses différents constituants telles que la gigue aléatoire ainsi que ses composantes déterministes (notamment la gigue dépendante des données et la gigue périodique). Cette approche repose sur un modèle de signal paramétrique qui caractérise le comportement complet de la liaison de transmission testée.

L’un des principaux atouts de la méthode développée par Rohde & Schwarz est qu'elle exploite un modèle de gigue qui comprend l’ensemble des caractéristiques de la forme d’onde du signal testé, contrairement aux méthodes traditionnelles qui réduisent les données à un ensemble de mesures d'erreurs d'intervalle temporel. Résultat : ce procédé délivre des mesures cohérentes, même pour des séquences de signaux relativement courtes, ainsi que des informations qui n’étaient jusqu’alors pas accessibles telles que la réponse impulsionnelle ou la possibilité de distinguer la gigue périodique verticale et horizontale. Les ingénieurs disposent d’informations détaillées de la gigue présentées sous différentes formes : diagrammes de l’œil synthétiques, histogrammes de chacune des composantes de la gigue, vues spectrales et des pics de la gigue périodique, et tracé de la courbe en bathtub pour l'estimation du taux d'erreur (Bit Error Rate).

 

Josef Wolf, vice-président senior et responsable de la division oscilloscope de Rohde & Schwarz ne doute pas que l'option R&S RTO-/ RTP-K133 sera très bien accueillie : "Nous sommes fiers de présenter une méthode avancée qui est la première approche réellement nouvelle permettant d’améliorer le processus de séparation de la gigue avec un oscilloscope depuis près de 20 ans. Avec notre nouvelle option de jitter avancée, nous aidons les ingénieurs à accéder à des informations supplémentaires concernant les caractéristiques de la gigue de leur signal qui leurs étaient jusqu'à aujourd’hui inaccessibles".

Cette nouvelle option de séparation de la gigue fournit aux ingénieurs un nouvel outil de débogage de l'intégrité des signaux qui vient en complément de fonctionnalités, uniques sur le marché pour un oscilloscope : ses capacités d’analyse de la propagation des signaux en réflexion (TDR) et en transmission (TDT) dans le domaine temporel, et de la compensation en temps réel de la chaîne de mesure (De-Embedding).

 

L'option R&S RTx-K133 pour les oscilloscopes R&S RTO et R&S RTP est maintenant disponible chez Rohde & Schwarz.

☐ ☆ ✇ Mediakwest - Broadcast

E-Vision lance son service OTT avec Synamedia Infinite Platform

— 30 janvier 2020 à 17:00
E-Vision lance son service OTT avec Synamedia Infinite Platform © DR

E-Vision, filiale du Groupe Etisalat, a choisi la plate-forme Infinite, basée sur les technologies de réseau vidéo de Synamedia, pour son nouveau service OTT multi-pays et multi-opérateur. Cette plate-forme est déjà en service en Egypte et sera bientôt lancée en Arabie Saoudite. D'autres marchés suivront prochainement...

 

Le nouveau service d'E-Vision, entièrement géré et fonctionnant dans le cloud, offre aux opérateurs de la région MENA et du Pakistan une plate-forme innovante pour lancer et exploiter rapidement et à moindre coût des services OTT multi-écrans et multilingues. Il vient compléter l'activité existante d'E-Vision en matière de contenu et de licences de chaînes, comprenant les productions des studios d'Hollywood, de Bollywood et les productions arabes régionales, ainsi que plus de 550 chaînes de télévision.

E-Vision offre aux opérateurs de télécommunications, aux FAI et aux autres fournisseurs OTT une plate-forme clé en main, complète, sécurisée et rentable pour les services de télévision linéaire et de VOD. Tous les coûts (infrastructure, innovation, traitement vidéo, intégrations logicielles et analyse) sont partagés entre opérateurs. Les clients d'E-vision peuvent ainsi disposer d'une base de coûts prévisibles selon la croissance des revenus de leur service.

Les clients d'E-Vision peuvent facilement personnaliser l'interface utilisateur d'Infinite pour donner à chaque service sa propre identité visuelle. La plate-forme offre la possibilité d'enregistrer des vidéos dans le cloud et prend en charge l'agrégation de contenu, la recherche et les recommandations avancées pour une expérience utilisateur personnalisée qui a fait ses preuves dans la fidélisation des spectateurs. Parmi les autres fonctions prises en charge, citons les modèles commerciaux de télévision payante, de VOD par abonnement et de VOD par publicité, ainsi que la plate-forme pré-intégrée Evergent pour un support client complet et une facturation facilitée.

En choisissant Synamedia comme fournisseur global, E-Vision a également déployé des technologies de réseau vidéo de premier plan, comme par exemple une plate-forme CDN privée. La solution de Synamedia permet de réduire les délais à chaque étape du traitement de la vidéo - de l'encodage au CDN au lecteur vidéo. Ceci permettra aux clients OTT d'E-Vision de fournir à leurs abonnés une expérience vidéo de haute qualité, fiable, évolutive, tout en évitant les inconvénients de chargement liés à l'OTT.

 

"Nous avons travaillé en étroite collaboration avec les équipes talentueuses de Synamedia pour développer et déployer le nouveau service OTT d'E-Vision. La plate-forme Infinite est sécurisée et capable de fournir une solution complète de bout en bout garantissant à nos clients un service de premier ordre, évolutif et rentable ", commente Humaid Rashid Sahoo, CEO d'E-Vision.

"Avec son nouveau service OTT multi-opérateur, E-Vision est le pionnier d'une nouvelle approche des services OTT - une approche que nous pensons être la tendance du marché. Avec une concurrence aussi intense dans le domaine OTT, une plate-forme vidéo partagée a du sens pour de nombreux opérateurs. En utilisant notre plate-forme évolutive, fiable et basée sur le cloud, E-Vision libère ses clients OTT de toute préoccupation concernant la technologie sous-jacente et leur permet de se concentrer sur la construction d'une activité durable et rentable plus rapidement", souligne de son côté Yves Padrines, CEO de Synamedia.

☐ ☆ ✇ Mediakwest - Broadcast

L’IMF s’installe sur le marché français (Web TV François Abbe)

— 22 janvier 2020 à 17:00
L’IMF s’installe sur le marché français (Web TV François Abbe) © DR

François Abbe, présent sur le Satis en tant que Gouverneur SMPTE, intervenait sur l’une des conférences Satis consacrée à l’IMF (Interoperable Master Format). Ce protocole assez rapidement adopté aux Etats-Unis par les industries créatives et cinématographiques a mis un peu plus de temps a trouver ses marques en France… Mais les temps changent et son utilisation décolle enfin, il était temps car l'IMF a tout pour plaire ! François Abbe nous rappelle sur le plateau de la Web TV Satis-Mediakwest ce qu’est l’IMF et dresse un état des lieux du marché français…

 

« Nous avons utilisé pendant longtemps des cassettes VHS. Nous sommes très vite passés finalement au monde du fichier. Dans le monde du cinéma, cela n’a pas été du tout le cas. Le 35mm a été utilisé pendant longtemps. Les projections en salle sont passées en mode fichiers mais cela a demandé des années. Nous avons appelé cela le format DCP. Les majors américaines ont dit : « Nous voulons la même chose pour arrêter d’envoyer des cassettes d’un point A à un point B. »

Puis, il y a eu l’effet Fukushima en 2011 où Sony a dit : « J’ai une seule usine. Elle est au Japon. Elle n’existe plus. Elle a été détruite par le tsunami. » Les gens ont pris conscience qu’il fallait passer au monde du tout fichier pour passer d’un point A à un point B. De là, est né l’IMF. Interoperable pour qu’il puisse lire tous les formats, Master pour mettre par exemple le film Alice aux Pays des Merveilles sur un réseau de VOD où l’on va recevoir un package comprenant un dossier informatique avec Alice aux Pays des Merveilles en film vidéo avec 2 langues, 4 sous-titres ou un fichier .xml pour jouer le film Alice aux Pays des Merveilles en version originale. Si je veux la version française, je vais utiliser d’autres fichiers qui sont dans ce package… L’intérêt est multiple en termes d’archivage et va permettre d’économiser sur le long terme. C’est Netflix qui a poussé ce format ! »

 

Découvrez dans la suite de l’entretien vidéo pourquoi Netflix impose l’IMF dans ses protocoles de production de contenus UHD... Un choix légitime économiquement dès à présent même si l’avenir de cette norme ouverte est devant lui...

☐ ☆ ✇ Mediakwest - Broadcast

La modernisation des plateaux de tournage au programme du CNC

— 22 janvier 2020 à 17:00
Dominique Boutonnat, Président du CNC présente un « plan studios » d’1 million d’euros © DR
Ce jeudi, en ouverture d’une conférence sur l’état des lieux des plateaux de tournage en France dans le cadre de Paris Image Location Expo, Dominique Boutonnat, Président du Centre national du cinéma et de l’image animée (CNC), a dévoilé un ambitieux « plan studios » destiné à impulser davantage d’attractivité à la filière des plateaux de tournage. Ce plan s’appuie sur 4 socles : un appel à projets, une politique régionale, une stratégie de promotion internationale et une politique de formation...
 
 
"La France est reconnue dans le monde entier pour l’excellence de ses industries techniques la qualité de ses talents et pour ses savoir-faire. L’attractivité internationale de cette filière est un enjeu majeur de la politique publique menée par le CNC et les plateaux de tournages en sont un élément central. Néanmoins dans un rapport remis au CNC et à Film France par Serge Siritzky pointe un sous-dimensionnement des équipements français par rapport à ceux des autres pays européens : moins de surface totale pas de grands plateaux et une prise en compte insuffisante des nouveaux enjeux numériques. De plus ces plateaux disposent rarement de  « backlots », des terrains adjacents où fabriquer et stocker de très grands décors. Nous avons décidé de réagir avec un « plan studios » doté d’une enveloppe de 1M€... Le plateau du XXIème siècle doit être numérique et durable et le CNC accompagnera cette mutation » a annoncé le Président du Centre national du cinéma et de l’image animée (CNC). 

 

Le « plan studios » s’articule autour de 4 axes :

Une aide à la modernisation, numérique et durable, sous la forme d’un appel à projet doté d’1M€ au sein du soutien financier aux industries techniques. Une attention particulière sera portée aux enjeux numériques, d’une part, et aux projets éco-responsables, d’autre part. La Commission Supérieure Technique de l’image (CST), en lien avec Ecoprod, formulera des recommandations au CNC pour faire évoluer les pratiques dans le secteur.

Un accompagnement et un soutien aux structures à travers les conventions Etat-Région : le CNC proposera aux régions porteuses de projets de plateaux de tournages à rayonnement international d’intégrer cet enjeu dans les conventions de coopération.

La promotion de l’attractivité française à l’international, en partenariat avec Film France : le président du CNC se rendra en Californie, au mois de mars prochain, pour rencontrer les dirigeants des plateformes et majors américaines et envisager, à terme, la création d’un représentation permanente à Los Angeles pour valoriser au plus près des décideurs les savoir-faire français et les dispositifs d’incitation.

Une attention particulière à la formation : la pratique du tournage en studio fait appel à de nouvelles compétences liées notamment au développement des effets visuels. Les établissements accompagnés par le CNC, notamment La fémis, devront intégrer ces enjeux dans leurs pédagogies afin de former les nouvelles générations à tous les types de tournages.

Au-delà de la portée directe de ces mesures, le lancement de ce plan a l’ambition decatalyser un mouvement collectif impliquant les professionnels, les collectivités et les partenaires du financement.

☐ ☆ ✇ Mediakwest - Broadcast

Encodage : les tendances 2020

— 22 janvier 2020 à 17:00
Le Monarch Edge de Matrox est un encodeur 4K/multi-HD à faible latence (50 ms). © Nathalie Klimberg

Vitec tisse sa toile sur le territoire des solutions IPTV et de la latence ultra faible. À suivre également en 2020 : l’encodeur Matrox Monarch Edge présenté pour la première fois à l’IBC 2019, l’intégration de Zixi avec la solution Titan d’Ateme, la nouvelle compatibilité d’Avid Media Composer avec le codec d’Apple ProRes Raw, la plate-forme de streaming StreamShark, les systèmes Titan Playout du spécialiste français de la compression vidéo Ateme et Elemental MediaLive d’AWS.

 

MATROX

Récompensé sur le NAB en tant que meilleur produit de l’année dans la catégorie « Remote Production », le Monarch Edge est un encodeur 4K/multi-HD à faible latence (50 ms). Dévolu aux applications de webcasting et de production remote (REMI, pour Remote Integration), cet encodeur H.264 est capable de transporter de la vidéo en 10 bits 4:2:2 pour de la diffusion de directs multicanal à des résolutions allant jusqu’à 3 840 x 2 160 à 60 i/s. Utilisé comme encodeur de contribution Web 4K « classique » ou en déporté, il pourra prendre en charge les principaux protocoles de transport permettant de diffuser des vidéos sur des réseaux GigE (Mpeg-2 TS, RTP/RTSP, SRT, RTMP).

 

 

VITEC

Avec la nouvelle lame d’encodage MGES 7000 4K/UHD/HD HEVC et H.264 IPTV Vitec offre la plus haute densité proposée sur le marché. Cette lame propose un encodage matériel en temps réel de la vidéo 4K/UHD, haute définition et définition standard, mais aussi des fonctionnalités avancées telles que le canal secondaire, la résolution intégrée et la mise à l’échelle du débit d’images, le cryptage AES 256/128 bits et un mode à faible latence… Un châssis 10 U pourra accueillir jusqu’à treize lames pouvant traiter jusqu’à 104 canaux primaires et 104 canaux secondaires. Les flux traités peuvent être SDI, HDMI et la lame supportera bientôt la norme SMPTE 2110. Cet encodeur lame multicanal sera idéal pour les applications de diffusion d’événements sportifs en temps réel, la distribution cryptée et toutes les applications IPTV.

Lors du salon IBC2019, Vitec présentait aussi les MGW Ace Encoder et MGW Ace Decoder qui transmettent des vidéos glass to glass avec une latence d’environ 16 ms. Ces solutions de contribution HEVC de Vitec qui reposent sur un codec propriétaire GEN2 +, présenté comme le plus performant de sa catégorie pour la vidéo HEVC, conviennent tout particulièrement à la contribution multisites ou à la remote production.

Bonne nouvelle, à l’instar du MGW Ace decoder, le MGW Ace Encoder (encodeur HEVC 4:2:2 10 bits/H.265) est maintenant disponible dans une nouvelle version carte open gear encodeur 4K qui permettra une intégration plus facile dans les studios de production et les installations de diffusion. Dix cartes open gear pourront être être placées dans un châssis 1 RU.

Vitec exposait aussi son nouvel encodeur multicanal dédié à la contribution 4K HDR à faible bande passante, le MGW Diamond présenté dans une démonstration de contribution multisites… Il sera idéal pour de la production remote ou toute application de direct multiflux, l’environnement de codage/décodage Vitec offrant une synchronisation parfaite de plusieurs flux IP indépendants pour la diffusion.

 

 

ZIXI

Zixi a annoncé un élargissement de son partenariat avec Ateme – et le lancement d’une nouvelle intégration de Zixi avec la solution Titan d’Ateme. Solution complète de distribution offrant des fonctions d’encodage, de transcodage, de multiplexage, de multiplexage statistique, de packaging et de serveur d’origine, Titan est une application logicielle pour la compression et la transmission de contenus vidéo de haute qualité et de haute densité, conçue pour la contribution, la distribution et la redistribution d’images en SD, HD et Ultra HD. Basé sur Stream, le moteur de compression d’Ateme de cinquième génération, qui offre une qualité vidéo maximale pour un débit de données minimal grâce au calcul en parallèle accéléré, Titan est une solution logicielle entièrement virtualisée qui ne dépend d’aucun matériel spécifique. Répondant à une demande des plus grands acteurs du broadcast à l’échelle mondiale, l’intégration de la plate-forme Ziki dans Titan permet une transmission de contenus vidéo en direct sur tous les réseaux IP, avec une qualité, une sécurité et un coût optimaux.

 

 

AVID

Avid a annoncé que Media Composer sera nativement compatible avec le codec d’Apple ProRes Raw, et pourra lire et encoder au format ProRes sur Windows. Apple fournira de plus des décodeurs 64 bits pour les codecs DNxHR et DNxHD, dans le package « Pro Video Formats » offert en téléchargement gratuit pour tous les utilisateurs. Grâce à ces intégrations, les créateurs de contenus et les studios de postproduction pourront créer nativement des contenus de haute qualité au format ProRes, indépendamment de leur système d’exploitation, gagnant ainsi du temps dans le processus de création.

ProRes est un codec de montage à haute performance produisant des images multiflux de haute qualité pour un montage professionnel en temps réel de faible complexité. Le codec, qui sera disponible pour les utilisateurs de Media Composer sous Windows, prend en charge des tailles d’images diverses dont les formats SD, HD, 2K, 4K, et plus encore, avec une préservation extraordinaire de la qualité d’image tout en nécessitant moins d’espace de stockage.

De plus, la version 2019 de Media Composer pour Mac OS et Windows, entièrement revue, prendra également en charge le format ProRes Raw de manière native. ProRes Raw applique la compression ProRes aux données brutes du capteur de la caméra, offrant ainsi la flexibilité de la vidéo Raw et la performance de ProRes pour le montage d’images en haute résolution.

Enfin, la disponibilité des décodeurs DNxHD et DNxHR d’Avid sur Mac OS représente un avantage significatif pour les créateurs de contenus qui utilisent les produits Apple et Avid, et elle garantira la longévité des contenus DNx encodés dans des fichiers MXF et QuickTime.

 

 

AWS

Les clients utilisant AWS Elemental MediaLive peuvent encoder leur contenu de diffusion à l’aide de HEVC en définition standard (SD), en haute définition (HD) et en Ultra HD (UHD) en HDR pour des expériences de visionnage plus riches, puis en utilisant le multiplexage statistique pour déplacer le play-out dans le cloud. Les clients peuvent également utiliser le multiplexage statistique pour préserver la qualité tout en fournissant davantage de canaux que les systèmes de distribution traditionnels, réduisant ainsi les coûts de transmission vidéo.

Les groupes de médias, tels que les diffuseurs nationaux, créent des contenus en direct et les partagent simultanément avec leurs partenaires de distribution. Cette contribution se fait traditionnellement par satellite. Ces systèmes nécessitent une ingénierie poussée pour fonctionner de manière fiable, et une fois déployés, ils restent dédiés aux dites chaînes partenaires.

Avec AWS Elemental MediaLive, les clients peuvent créer l’équivalent d’une distribution par satellite en quelques minutes dans le cloud et contourner les retards introduits par les codeurs matériels sur site. La fiabilité et la redondance font partie intégrante du service et ne nécessitent aucun travail supplémentaire de la part du client pour atteindre les objectifs de fiabilité. L’accès continu à plusieurs zones de disponibilité AWS au sein d’une région permet aux clients de structurer et d’exécuter facilement des configurations hautement disponibles sur plusieurs sites. Avec la fonctionnalité AWS Elemental MediaLive Statmux, les clients pourront exploiter la flexibilité et l’élasticité d’AWS, créer ou supprimer rapidement des chaînes et les modifier en fonction de l’évolution des besoins de l’audience et de l’entreprise.

Bien que lié au départ avec la 4K Ultra HD, HEVC améliore également les expériences de visionnage HD et SD. Par exemple, les propriétaires de contenu qui ont migré vers HEVC constatent des avantages pour l’encodage de contenu 720p avec HEVC. En outre, les fournisseurs de vidéos cherchant à réduire simultanément la bande passante et à améliorer la qualité utilisent HEVC, non seulement pour la HD, mais aussi pour certaines résolutions SD.

Auparavant, pour organiser des événements premium live, les clients devaient acheter du matériel. Désormais, avec le modèle d’encodage « pay as you go » avec MediaLive, les clients peuvent diffuser des événements en direct et des diffusions linéaires de qualité qui tirent parti de HEVC sans ajouter de dépenses en capital. Les clients peuvent également utiliser les nouvelles fonctionnalités HEVC ABR pour réaliser des économies substantielles, grâce aux économies de débit de 30 à 50 % apportées par HEVC .

 

 

STREAMSHARK

Utilisable par un opérateur sans connaissances techniques poussées, la plate-forme de streaming StreamShark est destinée aux entreprises ayant des besoins de diffusion vidéo en direct lors d’événementiels : conférence, assemblée générale, lancement de produit, défilé de mode… Streamshark permet de diffuser des événements ouverts à tous ou réservés à un public sélectionné, dans le cadre par exemple d’un événement intra-entreprise. « Nos clients ont une grande confiance en notre plateforme, explique Aakanksha Chhikara, Business Development, Streamshark. L’ensemble des étapes de production est redondé afin de permettre une diffusion live sécurisée de bout en bout et d’une qualité exceptionnelle. » De nouvelles capacités de contrôle et de configuration d’encodeurs à distance sont intégrées à Streamshark via l’interface de la plate-forme, depuis le lieu de l’événement, pour une diffusion en simulcast sur Internet et sur les réseaux sociaux. La technologie Streamshark est accessible via les services AWS Elemental Live dans le cloud et à travers l’encodage matériel Epiphan (Pearl). Une fois téléchargé sur la plate-forme, le flux vidéo peut être rediffusé simultanément vers plusieurs destinations de streaming (Facebook, YouTube, Periscope, Twitch, Steam, etc.), y compris en live 360° VR, mais également vers un serveur FTP dédié ou sur toute plate-forme qui accepte les entrées RTMP. Le démarrage ou l’arrêt de tous les flux sur l’ensemble des plates-formes s’effectue en même temps. La plate-forme donne accès à des outils de gestion de Chat en direct, d’encryptage et de protection DRM, d’accès restrictifs aux lives (SSO), d’analyse de données des connexions, etc.

 

 

ATEME

Ateme, le spécialiste français de la compression vidéo, présentait le système Titan Playout de programmation et de diffusion dynamique des chaînes en continu et à la demande. Titan Playout offre une série de fonctionnalités basées sur l’IT, reposant sur une architecture microservices qui permet de créer des flux évolutifs en termes de diffusion et de gestion de ressources, sur site ou dans le cloud. Associé à la solution Titan Live de compression vidéo, Titan Playout forme un dispositif de bout en bout pour les chaînes linéaires et OTT, mais également dans le cadre de chaînes temporaires, de régionalisation de programmes ou de plan de reprise d’activité (disaster recovery). Titan Playout est capable de s’intégrer facilement à tout écosystème technique grâce à ses interfaces, et réduit d’autant les délais de mise à l’antenne et les coûts d’exploitation. En parallèle, Ateme présentait ses avancées en matière d’amélioration de la qualité vidéo et de réduction de latence. Il faisait le point sur les évolutions de sa famille modulaire Titan permettant de migrer vers des workflows IP grâce aux standards SMPTE ST 2022-5/6 et ST 2110. Ateme intervenait dans le Future Zone de l’IBC dans l’encodage de flux 8K avec Titan et présentait ses avancées en termes de codecs VVC et AV2. Après des mois d’essais avec les solutions Kyrion et Titan, Ateme montrait comment BISS-CA, la norme ouverte, libre de redevance, interopérable et sécurisée d’accès conditionnel de l’UER, permet aux diffuseurs de sécuriser leurs contenus pour faire face au streaming illégal.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Orange Prestations TV (OPTV) étend son usage de MatrixStore

— 21 janvier 2020 à 23:34
Orange Prestations TV (OPTV) étend son usage  de MatrixStore © DR

Orange Prestations TV (OPTV) étend son usage de MatrixStore, la plateforme de cloud privé orientée média développée par Object Matrix et représentée en France par IVORY. Ce projet d’extension a été géré par CTM Solutions.

 

Face à un nombre de contenus à gérer de plus en plus important, OPTV a entamé un processus d'évaluation de son infrastructure existante afin d’appréhender au mieux cette croissance. Avec deux clusters MatrixStore déjà opérationnels, OPTV souhaitait déterminer s'il était pertinent d’étendre et optimiser le dispositif de stockage existant, utiliser les services Cloud ou externaliser la gestion de ses archives.

OPTV dispose d’une infrastructure hautement sécurisée, interconnectée par API garantissant un accès immédiat et pérenne à son patrimoine d’œuvres qui s’avère adaptée à ses besoins actuels et à venir, reconnaissant la plus-value apportée par ses partenaires technologiques existants. L’entreprise a donc décidé d’étendre son usage de MatrixStore en ajoutant deux pétaoctets supplémentaires à son dispositif actuel, portant l’empreinte totale à plus de 5,5 pétaoctets répartis sur 3 sites.

 

Olivier le Galloudec, Directeur Général, OPTV, ajoute que "maximiser la valeur de nos archives implique d’avoir les technologies et services appropriés en place. Cependant, il est tout aussi important de pouvoir compter sur une solide expertise de ses partenaires, que nous obtenons grâce à la combinaison d'Object Matrix, d'IVORY et de CTM Solutions. Comme nous utilisions déjà MatrixStore dans ce contexte métier, nous savions que ce serait la meilleure solution pour optimiser nos coûts et faire croitre nos archives."

Nick Pearce-Tomenius, Directeur Commercial et Marketing, Object Matrix, conclut "OPTV a observé une croissance massive de son patrimoine au cours des deux dernières années. En augmentant la capacité de MatrixStore, leur infrastructure peut continuer à évoluer sans modification de leurs workflows en place. Finalement, cet investissement permettra à OPTV d'économiser du temps et de l'argent et l'aidera à continuer à monétiser ses archives."

Demain, Julien Gachot nous livre sa vision de la transformation numérique dans le cadre d'une interview vidéo de la Web TV SATIS...

☐ ☆ ✇ Mediakwest - Broadcast

La 5G, taillée pour les workflows de captation live…

— 21 janvier 2020 à 17:00
La 5G, taillée pour les workflows de captation live… © DR

Sony Imaging Products & Solutions, Sony Mobile Communications et Verizon ont, en décembre dernier, fourni leurs services et matériels à NBC Sports pour démontrer comment la 5G pouvait changer la façon dont les retransmissions de sport en direct peuvent être produites.

À l’occasion du match de football américain qui opposait les Texans de Houston aux Patriots de la Nouvelle-Angleterre au stade NRG, un caméraman de NBC Sports a capturé les images de l’événement à l’aide de la caméra d’épaule PXW-Z450 de Sony. Ces images vidéo ont été diffusées sur le réseau à très large bande 5G de Verizon, à l’aide d’un prototype d’émetteur Sony et 5G, vers une salle de production située dans le stade.

Associée au savoir-faire de Sony en matière d’appareil mobile, de vidéo et d’encodage, la très large bande 5G de Verizon, avec sa faible latence et sa bande passante élevée, a permis de transmettre, quasiment en temps réel, un signal vidéo haute qualité à faible latence. Grâce à la connectivité sans fil quasi instantanée de la 5G, les caméras peuvent être plus mobiles, ce qui permet plus de créativité dans les positions et les angles de vue utilisés au cours du match et réduit le délai d’installation ainsi que les coûts nécessaires à l’intégration du système…

D’ailleurs Sony et Verizon entendent poursuivre leurs efforts pour mettre au point d’autres solutions et workflows de production plus simples et plus flexibles grâce à la 5G…

☐ ☆ ✇ Mediakwest - Broadcast

KVM : les tendances 2020

— 19 janvier 2020 à 17:49
Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. © Nathalie Klimberg

Le nec plus ultra des KVM est aujourd’hui l’AdderLink Infinity 4000, mais on trouve désormais chez Matrox un nouveau mode agrégateur pour les KVM IP Extio 3 disponible en deux modèles.

 

ADDER

Adder Technology, spécialiste mondial de la connectivité et des KVM sur IP, lance la première matrice KVM sur IP, Dual-Head 4K, haute performance au monde, ceci via une seule fibre optique, une caractéristique séduisante pour l’industrie des médias habituée à travailler sur des doubles écrans… Totalement compatibles avec la gamme Adder Infinity, les Alif4000 peuvent être intégrés dans un réseau existant sans temps d’arrêt et surtout sans opérations coûteuses de dépose et remplacement de l’existant. Compatibles avec des réseaux mixtes 1 gigabit et 10 GB/s ils offrent la possibilité d’évoluer vers un contenu 4K avec flexibilité avec également une prise en charge audio analogique bidirectionnelle.

Sur le stand Adder de l’IBC, l’Alif4000 était présenté en démonstration avec une station Flame Autodesk pour démontrer toute sa pertinence dans les environnements de postproduction, très exigeants en termes précision de pixels et de colorimétrie d’images (les KVM Infinity proposent un échantillonnage 24 bits)… On retrouve les produits KVM sur IP d’Adder Technology, déjà bien implantés en France, chez plusieurs chaînes de télévision, TF1, M6, Canal Plus… Et la société compte bien continuer à développer sa présence sur le territoire…

 

 

MATROX

Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. Cet environnement de commutation matriciel KVM évolutif est économique puisqu’il utilise des commutateurs de réseaux standard. Conçus pour des applications hautes performances, les KVM IP de la série Matrox Extio 3 offrent des performances 4Kp60 4:4:4 ou quadruples 1080p60 4:4:4 sur un réseau Ethernet Gigabit standard (fibre optique ou cuivre). Le nouveau mode agrégateur permet de surveiller et contrôler simultanément plusieurs systèmes à partir d’un espace de travail multi-écrans distant avec un seul clavier et une seule souris, l’application de configuration et de gestion est très intuitive…

Cette nouvelle génération de KVM est disponible en deux modèles… Extio 3 N3208, pour une prise en charge du double signal 1 920 x 1 200 à 60 Hz et Extio 3 N3408 qui prend en charge jusqu’à quatre signaux 1 920 x 1 080 à 60 Hz, deux 2 560 x 1 600 à 60 Hz ou un seul signal 4K UHD 3 840 x 2 160 à 60 Hz.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction

— 14 janvier 2020 à 18:15
NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction. © DR

NCam propose une solution de suivi de mouvement sans marqueur pour des applications de réalité augmentée et de préviz. Baptisée Camera Bar MK2, elle met en œuvre un périphérique de tracking d’une vingtaine de centimètres, qui ne pèse que 200 g (au lieu de 1,2 kg pour le modèle précédent) et qui se fixe facilement sur n’importe quelle caméra (sur pied, grue, stabilisateur, rig, à l’épaule, caméra sur câble…).

 

Plus petit, léger et robuste que la version précédente, le système s’appuie sur la technologie Intel RealSense adaptée par NCam aux besoins du broadcast (news, sport…) et de la fiction télé et cinéma (previz temps réel).

Pour une utilisation optimale, l’optique de la caméra nécessitera d’être calibrée (mapping) avec les informations réelles de longueur de focale, de distorsions… pour permettre une synchronisation parfaite des éléments CG avec l’image filmée. Le logiciel NCam fonctionne sur une station de travail standard Z2 Mini et Z4 HP.

La partie tracking envoie au logiciel de manière très précise 300 fois par seconde la position et l’orientation de la caméra. Toutes ces informations sont transférées à un moteur de rendu (Vizrt, Brainstorm, Unreal Engine…) pour le traitement des éléments CG en synchronisation avec les plans live.

La Camera Bar a notamment été utilisée sur steadicam et sans fil lors du dernier Superbowl d’Atlanta mais aussi sur le long-métrage Solo a Star Wars Story.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Century Link renforce son déploiement en Europe

— 12 janvier 2020 à 16:00
François Collobert, directeur commercial Emea Century Link © Nathalie Klimberg

Avec un déploiement de 700 000 kilomètres de fibre et 120 PoP dans le monde, Century Link représente le deuxième opérateur réseau américain. La société, qui propose des services CDN capacité de pointe dépassant 120 Tbit/s, a depuis deux ans investi 700 millions de dollars pour renforcer la capacité de ses nœuds CDN ; elle a aussi étoffé ses ressources humaines en Europe, avec l’ambition de renforcer sa présence auprès de clients tels que les fournisseurs, broadcasters, opérateurs OTT…

 

« Notre proposition économique s’appuie sur la flexibilité et l’adaptation aux modèles économiques de nos clients, cela peut prendre parfois la forme d’un « flat fee » par exemple, c’est-à-dire sur un prix négocié d’avance, quelle que soit l’audience, il n’y a donc pas de mauvaise surprise au moment du règlement de la facture, ce qui séduit. Pour preuve, nous comptons déjà parmi nos clients neuf des dix plus grandes sociétés médias au monde en 2019 », souligne François Collobert, récemment nommé directeur commercial Emea.

Sur IBC, CenturyLink a annoncé l’acquisition de la société française Streamroot, leader de technologies de diffusion dans des zones à bande passante limitée. Cette acquisition va permettre à CenturyLink de conforter sa place en tant de leader dans les univers du CDN et du Edge Computing.

« Streamroot propose une approche axée sur les données pour améliorer l’expérience utilisateur, en particulier pendant les heures de pointe du trafic Internet. Les clients de Streamroot ont une approche multi-CDN qui se démarque de la concurrence. Cette technologie et cette approche de diffusion hybride nous aidera à offrir des expériences de visionnage de haute qualité, en particulier sur les zones difficiles à desservir », précise François Collobert.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☑ ☆ ✇ Mediakwest - Broadcast

Encodage : les tendances 2020

— 22 janvier 2020 à 17:00
Le Monarch Edge de Matrox est un encodeur 4K/multi-HD à faible latence (50 ms). © Nathalie Klimberg

Vitec tisse sa toile sur le territoire des solutions IPTV et de la latence ultra faible. À suivre également en 2020 : l’encodeur Matrox Monarch Edge présenté pour la première fois à l’IBC 2019, l’intégration de Zixi avec la solution Titan d’Ateme, la nouvelle compatibilité d’Avid Media Composer avec le codec d’Apple ProRes Raw, la plate-forme de streaming StreamShark, les systèmes Titan Playout du spécialiste français de la compression vidéo Ateme et Elemental MediaLive d’AWS.

 

MATROX

Récompensé sur le NAB en tant que meilleur produit de l’année dans la catégorie « Remote Production », le Monarch Edge est un encodeur 4K/multi-HD à faible latence (50 ms). Dévolu aux applications de webcasting et de production remote (REMI, pour Remote Integration), cet encodeur H.264 est capable de transporter de la vidéo en 10 bits 4:2:2 pour de la diffusion de directs multicanal à des résolutions allant jusqu’à 3 840 x 2 160 à 60 i/s. Utilisé comme encodeur de contribution Web 4K « classique » ou en déporté, il pourra prendre en charge les principaux protocoles de transport permettant de diffuser des vidéos sur des réseaux GigE (Mpeg-2 TS, RTP/RTSP, SRT, RTMP).

 

 

VITEC

Avec la nouvelle lame d’encodage MGES 7000 4K/UHD/HD HEVC et H.264 IPTV Vitec offre la plus haute densité proposée sur le marché. Cette lame propose un encodage matériel en temps réel de la vidéo 4K/UHD, haute définition et définition standard, mais aussi des fonctionnalités avancées telles que le canal secondaire, la résolution intégrée et la mise à l’échelle du débit d’images, le cryptage AES 256/128 bits et un mode à faible latence… Un châssis 10 U pourra accueillir jusqu’à treize lames pouvant traiter jusqu’à 104 canaux primaires et 104 canaux secondaires. Les flux traités peuvent être SDI, HDMI et la lame supportera bientôt la norme SMPTE 2110. Cet encodeur lame multicanal sera idéal pour les applications de diffusion d’événements sportifs en temps réel, la distribution cryptée et toutes les applications IPTV.

Lors du salon IBC2019, Vitec présentait aussi les MGW Ace Encoder et MGW Ace Decoder qui transmettent des vidéos glass to glass avec une latence d’environ 16 ms. Ces solutions de contribution HEVC de Vitec qui reposent sur un codec propriétaire GEN2 +, présenté comme le plus performant de sa catégorie pour la vidéo HEVC, conviennent tout particulièrement à la contribution multisites ou à la remote production.

Bonne nouvelle, à l’instar du MGW Ace decoder, le MGW Ace Encoder (encodeur HEVC 4:2:2 10 bits/H.265) est maintenant disponible dans une nouvelle version carte open gear encodeur 4K qui permettra une intégration plus facile dans les studios de production et les installations de diffusion. Dix cartes open gear pourront être être placées dans un châssis 1 RU.

Vitec exposait aussi son nouvel encodeur multicanal dédié à la contribution 4K HDR à faible bande passante, le MGW Diamond présenté dans une démonstration de contribution multisites… Il sera idéal pour de la production remote ou toute application de direct multiflux, l’environnement de codage/décodage Vitec offrant une synchronisation parfaite de plusieurs flux IP indépendants pour la diffusion.

 

 

ZIXI

Zixi a annoncé un élargissement de son partenariat avec Ateme – et le lancement d’une nouvelle intégration de Zixi avec la solution Titan d’Ateme. Solution complète de distribution offrant des fonctions d’encodage, de transcodage, de multiplexage, de multiplexage statistique, de packaging et de serveur d’origine, Titan est une application logicielle pour la compression et la transmission de contenus vidéo de haute qualité et de haute densité, conçue pour la contribution, la distribution et la redistribution d’images en SD, HD et Ultra HD. Basé sur Stream, le moteur de compression d’Ateme de cinquième génération, qui offre une qualité vidéo maximale pour un débit de données minimal grâce au calcul en parallèle accéléré, Titan est une solution logicielle entièrement virtualisée qui ne dépend d’aucun matériel spécifique. Répondant à une demande des plus grands acteurs du broadcast à l’échelle mondiale, l’intégration de la plate-forme Ziki dans Titan permet une transmission de contenus vidéo en direct sur tous les réseaux IP, avec une qualité, une sécurité et un coût optimaux.

 

 

AVID

Avid a annoncé que Media Composer sera nativement compatible avec le codec d’Apple ProRes Raw, et pourra lire et encoder au format ProRes sur Windows. Apple fournira de plus des décodeurs 64 bits pour les codecs DNxHR et DNxHD, dans le package « Pro Video Formats » offert en téléchargement gratuit pour tous les utilisateurs. Grâce à ces intégrations, les créateurs de contenus et les studios de postproduction pourront créer nativement des contenus de haute qualité au format ProRes, indépendamment de leur système d’exploitation, gagnant ainsi du temps dans le processus de création.

ProRes est un codec de montage à haute performance produisant des images multiflux de haute qualité pour un montage professionnel en temps réel de faible complexité. Le codec, qui sera disponible pour les utilisateurs de Media Composer sous Windows, prend en charge des tailles d’images diverses dont les formats SD, HD, 2K, 4K, et plus encore, avec une préservation extraordinaire de la qualité d’image tout en nécessitant moins d’espace de stockage.

De plus, la version 2019 de Media Composer pour Mac OS et Windows, entièrement revue, prendra également en charge le format ProRes Raw de manière native. ProRes Raw applique la compression ProRes aux données brutes du capteur de la caméra, offrant ainsi la flexibilité de la vidéo Raw et la performance de ProRes pour le montage d’images en haute résolution.

Enfin, la disponibilité des décodeurs DNxHD et DNxHR d’Avid sur Mac OS représente un avantage significatif pour les créateurs de contenus qui utilisent les produits Apple et Avid, et elle garantira la longévité des contenus DNx encodés dans des fichiers MXF et QuickTime.

 

 

AWS

Les clients utilisant AWS Elemental MediaLive peuvent encoder leur contenu de diffusion à l’aide de HEVC en définition standard (SD), en haute définition (HD) et en Ultra HD (UHD) en HDR pour des expériences de visionnage plus riches, puis en utilisant le multiplexage statistique pour déplacer le play-out dans le cloud. Les clients peuvent également utiliser le multiplexage statistique pour préserver la qualité tout en fournissant davantage de canaux que les systèmes de distribution traditionnels, réduisant ainsi les coûts de transmission vidéo.

Les groupes de médias, tels que les diffuseurs nationaux, créent des contenus en direct et les partagent simultanément avec leurs partenaires de distribution. Cette contribution se fait traditionnellement par satellite. Ces systèmes nécessitent une ingénierie poussée pour fonctionner de manière fiable, et une fois déployés, ils restent dédiés aux dites chaînes partenaires.

Avec AWS Elemental MediaLive, les clients peuvent créer l’équivalent d’une distribution par satellite en quelques minutes dans le cloud et contourner les retards introduits par les codeurs matériels sur site. La fiabilité et la redondance font partie intégrante du service et ne nécessitent aucun travail supplémentaire de la part du client pour atteindre les objectifs de fiabilité. L’accès continu à plusieurs zones de disponibilité AWS au sein d’une région permet aux clients de structurer et d’exécuter facilement des configurations hautement disponibles sur plusieurs sites. Avec la fonctionnalité AWS Elemental MediaLive Statmux, les clients pourront exploiter la flexibilité et l’élasticité d’AWS, créer ou supprimer rapidement des chaînes et les modifier en fonction de l’évolution des besoins de l’audience et de l’entreprise.

Bien que lié au départ avec la 4K Ultra HD, HEVC améliore également les expériences de visionnage HD et SD. Par exemple, les propriétaires de contenu qui ont migré vers HEVC constatent des avantages pour l’encodage de contenu 720p avec HEVC. En outre, les fournisseurs de vidéos cherchant à réduire simultanément la bande passante et à améliorer la qualité utilisent HEVC, non seulement pour la HD, mais aussi pour certaines résolutions SD.

Auparavant, pour organiser des événements premium live, les clients devaient acheter du matériel. Désormais, avec le modèle d’encodage « pay as you go » avec MediaLive, les clients peuvent diffuser des événements en direct et des diffusions linéaires de qualité qui tirent parti de HEVC sans ajouter de dépenses en capital. Les clients peuvent également utiliser les nouvelles fonctionnalités HEVC ABR pour réaliser des économies substantielles, grâce aux économies de débit de 30 à 50 % apportées par HEVC .

 

 

STREAMSHARK

Utilisable par un opérateur sans connaissances techniques poussées, la plate-forme de streaming StreamShark est destinée aux entreprises ayant des besoins de diffusion vidéo en direct lors d’événementiels : conférence, assemblée générale, lancement de produit, défilé de mode… Streamshark permet de diffuser des événements ouverts à tous ou réservés à un public sélectionné, dans le cadre par exemple d’un événement intra-entreprise. « Nos clients ont une grande confiance en notre plateforme, explique Aakanksha Chhikara, Business Development, Streamshark. L’ensemble des étapes de production est redondé afin de permettre une diffusion live sécurisée de bout en bout et d’une qualité exceptionnelle. » De nouvelles capacités de contrôle et de configuration d’encodeurs à distance sont intégrées à Streamshark via l’interface de la plate-forme, depuis le lieu de l’événement, pour une diffusion en simulcast sur Internet et sur les réseaux sociaux. La technologie Streamshark est accessible via les services AWS Elemental Live dans le cloud et à travers l’encodage matériel Epiphan (Pearl). Une fois téléchargé sur la plate-forme, le flux vidéo peut être rediffusé simultanément vers plusieurs destinations de streaming (Facebook, YouTube, Periscope, Twitch, Steam, etc.), y compris en live 360° VR, mais également vers un serveur FTP dédié ou sur toute plate-forme qui accepte les entrées RTMP. Le démarrage ou l’arrêt de tous les flux sur l’ensemble des plates-formes s’effectue en même temps. La plate-forme donne accès à des outils de gestion de Chat en direct, d’encryptage et de protection DRM, d’accès restrictifs aux lives (SSO), d’analyse de données des connexions, etc.

 

 

ATEME

Ateme, le spécialiste français de la compression vidéo, présentait le système Titan Playout de programmation et de diffusion dynamique des chaînes en continu et à la demande. Titan Playout offre une série de fonctionnalités basées sur l’IT, reposant sur une architecture microservices qui permet de créer des flux évolutifs en termes de diffusion et de gestion de ressources, sur site ou dans le cloud. Associé à la solution Titan Live de compression vidéo, Titan Playout forme un dispositif de bout en bout pour les chaînes linéaires et OTT, mais également dans le cadre de chaînes temporaires, de régionalisation de programmes ou de plan de reprise d’activité (disaster recovery). Titan Playout est capable de s’intégrer facilement à tout écosystème technique grâce à ses interfaces, et réduit d’autant les délais de mise à l’antenne et les coûts d’exploitation. En parallèle, Ateme présentait ses avancées en matière d’amélioration de la qualité vidéo et de réduction de latence. Il faisait le point sur les évolutions de sa famille modulaire Titan permettant de migrer vers des workflows IP grâce aux standards SMPTE ST 2022-5/6 et ST 2110. Ateme intervenait dans le Future Zone de l’IBC dans l’encodage de flux 8K avec Titan et présentait ses avancées en termes de codecs VVC et AV2. Après des mois d’essais avec les solutions Kyrion et Titan, Ateme montrait comment BISS-CA, la norme ouverte, libre de redevance, interopérable et sécurisée d’accès conditionnel de l’UER, permet aux diffuseurs de sécuriser leurs contenus pour faire face au streaming illégal.

 

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☑ ☆ ✇ Mediakwest - Broadcast

L’IMF s’installe sur le marché français (Web TV François Abbe)

— 22 janvier 2020 à 17:00
L’IMF s’installe sur le marché français (Web TV François Abbe) © DR

François Abbe, présent sur le Satis en tant que Gouverneur SMPTE, intervenait sur l’une des conférences Satis consacrée à l’IMF (Interoperable Master Format). Ce protocole assez rapidement adopté aux Etats-Unis par les industries créatives et cinématographiques a mis un peu plus de temps a trouver ses marques en France… Mais les temps changent et son utilisation décolle enfin, il était temps car l'IMF a tout pour plaire ! François Abbe nous rappelle sur le plateau de la Web TV Satis-Mediakwest ce qu’est l’IMF et dresse un état des lieux du marché français…

 

« Nous avons utilisé pendant longtemps des cassettes VHS. Nous sommes très vite passés finalement au monde du fichier. Dans le monde du cinéma, cela n’a pas été du tout le cas. Le 35mm a été utilisé pendant longtemps. Les projections en salle sont passées en mode fichiers mais cela a demandé des années. Nous avons appelé cela le format DCP. Les majors américaines ont dit : « Nous voulons la même chose pour arrêter d’envoyer des cassettes d’un point A à un point B. »

Puis, il y a eu l’effet Fukushima en 2011 où Sony a dit : « J’ai une seule usine. Elle est au Japon. Elle n’existe plus. Elle a été détruite par le tsunami. » Les gens ont pris conscience qu’il fallait passer au monde du tout fichier pour passer d’un point A à un point B. De là, est né l’IMF. Interoperable pour qu’il puisse lire tous les formats, Master pour mettre par exemple le film Alice aux Pays des Merveilles sur un réseau de VOD où l’on va recevoir un package comprenant un dossier informatique avec Alice aux Pays des Merveilles en film vidéo avec 2 langues, 4 sous-titres ou un fichier .xml pour jouer le film Alice aux Pays des Merveilles en version originale. Si je veux la version française, je vais utiliser d’autres fichiers qui sont dans ce package… L’intérêt est multiple en termes d’archivage et va permettre d’économiser sur le long terme. C’est Netflix qui a poussé ce format ! »

 

Découvrez dans la suite de l’entretien vidéo pourquoi Netflix impose l’IMF dans ses protocoles de production de contenus UHD... Un choix légitime économiquement dès à présent même si l’avenir de cette norme ouverte est devant lui...

☐ ☆ ✇ Mediakwest - Broadcast

Orange Prestations TV (OPTV) étend son usage de MatrixStore

— 21 janvier 2020 à 23:34
Orange Prestations TV (OPTV) étend son usage  de MatrixStore © DR

Orange Prestations TV (OPTV) étend son usage de MatrixStore, la plateforme de cloud privé orientée média développée par Object Matrix et représentée en France par IVORY. Ce projet d’extension a été géré par CTM Solutions.

 

Face à un nombre de contenus à gérer de plus en plus important, OPTV a entamé un processus d'évaluation de son infrastructure existante afin d’appréhender au mieux cette croissance. Avec deux clusters MatrixStore déjà opérationnels, OPTV souhaitait déterminer s'il était pertinent d’étendre et optimiser le dispositif de stockage existant, utiliser les services Cloud ou externaliser la gestion de ses archives.

OPTV dispose d’une infrastructure hautement sécurisée, interconnectée par API garantissant un accès immédiat et pérenne à son patrimoine d’œuvres qui s’avère adaptée à ses besoins actuels et à venir, reconnaissant la plus-value apportée par ses partenaires technologiques existants. L’entreprise a donc décidé d’étendre son usage de MatrixStore en ajoutant deux pétaoctets supplémentaires à son dispositif actuel, portant l’empreinte totale à plus de 5,5 pétaoctets répartis sur 3 sites.

 

Olivier le Galloudec, Directeur Général, OPTV, ajoute que "maximiser la valeur de nos archives implique d’avoir les technologies et services appropriés en place. Cependant, il est tout aussi important de pouvoir compter sur une solide expertise de ses partenaires, que nous obtenons grâce à la combinaison d'Object Matrix, d'IVORY et de CTM Solutions. Comme nous utilisions déjà MatrixStore dans ce contexte métier, nous savions que ce serait la meilleure solution pour optimiser nos coûts et faire croitre nos archives."

Nick Pearce-Tomenius, Directeur Commercial et Marketing, Object Matrix, conclut "OPTV a observé une croissance massive de son patrimoine au cours des deux dernières années. En augmentant la capacité de MatrixStore, leur infrastructure peut continuer à évoluer sans modification de leurs workflows en place. Finalement, cet investissement permettra à OPTV d'économiser du temps et de l'argent et l'aidera à continuer à monétiser ses archives."

Demain, Julien Gachot nous livre sa vision de la transformation numérique dans le cadre d'une interview vidéo de la Web TV SATIS...

☐ ☆ ✇ Mediakwest - Broadcast

La 5G, taillée pour les workflows de captation live…

— 21 janvier 2020 à 17:00
La 5G, taillée pour les workflows de captation live… © DR

Sony Imaging Products & Solutions, Sony Mobile Communications et Verizon ont, en décembre dernier, fourni leurs services et matériels à NBC Sports pour démontrer comment la 5G pouvait changer la façon dont les retransmissions de sport en direct peuvent être produites.

À l’occasion du match de football américain qui opposait les Texans de Houston aux Patriots de la Nouvelle-Angleterre au stade NRG, un caméraman de NBC Sports a capturé les images de l’événement à l’aide de la caméra d’épaule PXW-Z450 de Sony. Ces images vidéo ont été diffusées sur le réseau à très large bande 5G de Verizon, à l’aide d’un prototype d’émetteur Sony et 5G, vers une salle de production située dans le stade.

Associée au savoir-faire de Sony en matière d’appareil mobile, de vidéo et d’encodage, la très large bande 5G de Verizon, avec sa faible latence et sa bande passante élevée, a permis de transmettre, quasiment en temps réel, un signal vidéo haute qualité à faible latence. Grâce à la connectivité sans fil quasi instantanée de la 5G, les caméras peuvent être plus mobiles, ce qui permet plus de créativité dans les positions et les angles de vue utilisés au cours du match et réduit le délai d’installation ainsi que les coûts nécessaires à l’intégration du système…

D’ailleurs Sony et Verizon entendent poursuivre leurs efforts pour mettre au point d’autres solutions et workflows de production plus simples et plus flexibles grâce à la 5G…

☐ ☆ ✇ Mediakwest - Broadcast

KVM : les tendances 2020

— 19 janvier 2020 à 17:49
Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. © Nathalie Klimberg

Le nec plus ultra des KVM est aujourd’hui l’AdderLink Infinity 4000, mais on trouve désormais chez Matrox un nouveau mode agrégateur pour les KVM IP Extio 3 disponible en deux modèles.

 

ADDER

Adder Technology, spécialiste mondial de la connectivité et des KVM sur IP, lance la première matrice KVM sur IP, Dual-Head 4K, haute performance au monde, ceci via une seule fibre optique, une caractéristique séduisante pour l’industrie des médias habituée à travailler sur des doubles écrans… Totalement compatibles avec la gamme Adder Infinity, les Alif4000 peuvent être intégrés dans un réseau existant sans temps d’arrêt et surtout sans opérations coûteuses de dépose et remplacement de l’existant. Compatibles avec des réseaux mixtes 1 gigabit et 10 GB/s ils offrent la possibilité d’évoluer vers un contenu 4K avec flexibilité avec également une prise en charge audio analogique bidirectionnelle.

Sur le stand Adder de l’IBC, l’Alif4000 était présenté en démonstration avec une station Flame Autodesk pour démontrer toute sa pertinence dans les environnements de postproduction, très exigeants en termes précision de pixels et de colorimétrie d’images (les KVM Infinity proposent un échantillonnage 24 bits)… On retrouve les produits KVM sur IP d’Adder Technology, déjà bien implantés en France, chez plusieurs chaînes de télévision, TF1, M6, Canal Plus… Et la société compte bien continuer à développer sa présence sur le territoire…

 

 

MATROX

Le Matrox Extio 3 fonctionne en extension KVM point à point ou en réseau. Cet environnement de commutation matriciel KVM évolutif est économique puisqu’il utilise des commutateurs de réseaux standard. Conçus pour des applications hautes performances, les KVM IP de la série Matrox Extio 3 offrent des performances 4Kp60 4:4:4 ou quadruples 1080p60 4:4:4 sur un réseau Ethernet Gigabit standard (fibre optique ou cuivre). Le nouveau mode agrégateur permet de surveiller et contrôler simultanément plusieurs systèmes à partir d’un espace de travail multi-écrans distant avec un seul clavier et une seule souris, l’application de configuration et de gestion est très intuitive…

Cette nouvelle génération de KVM est disponible en deux modèles… Extio 3 N3208, pour une prise en charge du double signal 1 920 x 1 200 à 60 Hz et Extio 3 N3408 qui prend en charge jusqu’à quatre signaux 1 920 x 1 080 à 60 Hz, deux 2 560 x 1 600 à 60 Hz ou un seul signal 4K UHD 3 840 x 2 160 à 60 Hz.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

La modernisation des plateaux de tournage au programme du CNC

— 22 janvier 2020 à 17:00
Dominique Boutonnat, Président du CNC présente un « plan studios » d’1 million d’euros © DR
Ce jeudi, en ouverture d’une conférence sur l’état des lieux des plateaux de tournage en France dans le cadre de Paris Image Location Expo, Dominique Boutonnat, Président du Centre national du cinéma et de l’image animée (CNC), a dévoilé un ambitieux « plan studios » destiné à impulser davantage d’attractivité à la filière des plateaux de tournage. Ce plan s’appuie sur 4 socles : un appel à projets, une politique régionale, une stratégie de promotion internationale et une politique de formation...
 
 
"La France est reconnue dans le monde entier pour l’excellence de ses industries techniques la qualité de ses talents et pour ses savoir-faire. L’attractivité internationale de cette filière est un enjeu majeur de la politique publique menée par le CNC et les plateaux de tournages en sont un élément central. Néanmoins dans un rapport remis au CNC et à Film France par Serge Siritzky pointe un sous-dimensionnement des équipements français par rapport à ceux des autres pays européens : moins de surface totale pas de grands plateaux et une prise en compte insuffisante des nouveaux enjeux numériques. De plus ces plateaux disposent rarement de  « backlots », des terrains adjacents où fabriquer et stocker de très grands décors. Nous avons décidé de réagir avec un « plan studios » doté d’une enveloppe de 1M€... Le plateau du XXIème siècle doit être numérique et durable et le CNC accompagnera cette mutation » a annoncé le Président du Centre national du cinéma et de l’image animée (CNC). 

 

Le « plan studios » s’articule autour de 4 axes :

Une aide à la modernisation, numérique et durable, sous la forme d’un appel à projet doté d’1M€ au sein du soutien financier aux industries techniques. Une attention particulière sera portée aux enjeux numériques, d’une part, et aux projets éco-responsables, d’autre part. La Commission Supérieure Technique de l’image (CST), en lien avec Ecoprod, formulera des recommandations au CNC pour faire évoluer les pratiques dans le secteur.

Un accompagnement et un soutien aux structures à travers les conventions Etat-Région : le CNC proposera aux régions porteuses de projets de plateaux de tournages à rayonnement international d’intégrer cet enjeu dans les conventions de coopération.

La promotion de l’attractivité française à l’international, en partenariat avec Film France : le président du CNC se rendra en Californie, au mois de mars prochain, pour rencontrer les dirigeants des plateformes et majors américaines et envisager, à terme, la création d’un représentation permanente à Los Angeles pour valoriser au plus près des décideurs les savoir-faire français et les dispositifs d’incitation.

Une attention particulière à la formation : la pratique du tournage en studio fait appel à de nouvelles compétences liées notamment au développement des effets visuels. Les établissements accompagnés par le CNC, notamment La fémis, devront intégrer ces enjeux dans leurs pédagogies afin de former les nouvelles générations à tous les types de tournages.

Au-delà de la portée directe de ces mesures, le lancement de ce plan a l’ambition decatalyser un mouvement collectif impliquant les professionnels, les collectivités et les partenaires du financement.

☐ ☆ ✇ Mediakwest - Broadcast

NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction

— 14 janvier 2020 à 18:15
NCam adapte sa Camera Bar aux besoins du broadcast et de la fiction. © DR

NCam propose une solution de suivi de mouvement sans marqueur pour des applications de réalité augmentée et de préviz. Baptisée Camera Bar MK2, elle met en œuvre un périphérique de tracking d’une vingtaine de centimètres, qui ne pèse que 200 g (au lieu de 1,2 kg pour le modèle précédent) et qui se fixe facilement sur n’importe quelle caméra (sur pied, grue, stabilisateur, rig, à l’épaule, caméra sur câble…).

 

Plus petit, léger et robuste que la version précédente, le système s’appuie sur la technologie Intel RealSense adaptée par NCam aux besoins du broadcast (news, sport…) et de la fiction télé et cinéma (previz temps réel).

Pour une utilisation optimale, l’optique de la caméra nécessitera d’être calibrée (mapping) avec les informations réelles de longueur de focale, de distorsions… pour permettre une synchronisation parfaite des éléments CG avec l’image filmée. Le logiciel NCam fonctionne sur une station de travail standard Z2 Mini et Z4 HP.

La partie tracking envoie au logiciel de manière très précise 300 fois par seconde la position et l’orientation de la caméra. Toutes ces informations sont transférées à un moteur de rendu (Vizrt, Brainstorm, Unreal Engine…) pour le traitement des éléments CG en synchronisation avec les plans live.

La Camera Bar a notamment été utilisée sur steadicam et sans fil lors du dernier Superbowl d’Atlanta mais aussi sur le long-métrage Solo a Star Wars Story.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

☐ ☆ ✇ Mediakwest - Broadcast

Century Link renforce son déploiement en Europe

— 12 janvier 2020 à 16:00
François Collobert, directeur commercial Emea Century Link © Nathalie Klimberg

Avec un déploiement de 700 000 kilomètres de fibre et 120 PoP dans le monde, Century Link représente le deuxième opérateur réseau américain. La société, qui propose des services CDN capacité de pointe dépassant 120 Tbit/s, a depuis deux ans investi 700 millions de dollars pour renforcer la capacité de ses nœuds CDN ; elle a aussi étoffé ses ressources humaines en Europe, avec l’ambition de renforcer sa présence auprès de clients tels que les fournisseurs, broadcasters, opérateurs OTT…

 

« Notre proposition économique s’appuie sur la flexibilité et l’adaptation aux modèles économiques de nos clients, cela peut prendre parfois la forme d’un « flat fee » par exemple, c’est-à-dire sur un prix négocié d’avance, quelle que soit l’audience, il n’y a donc pas de mauvaise surprise au moment du règlement de la facture, ce qui séduit. Pour preuve, nous comptons déjà parmi nos clients neuf des dix plus grandes sociétés médias au monde en 2019 », souligne François Collobert, récemment nommé directeur commercial Emea.

Sur IBC, CenturyLink a annoncé l’acquisition de la société française Streamroot, leader de technologies de diffusion dans des zones à bande passante limitée. Cette acquisition va permettre à CenturyLink de conforter sa place en tant de leader dans les univers du CDN et du Edge Computing.

« Streamroot propose une approche axée sur les données pour améliorer l’expérience utilisateur, en particulier pendant les heures de pointe du trafic Internet. Les clients de Streamroot ont une approche multi-CDN qui se démarque de la concurrence. Cette technologie et cette approche de diffusion hybride nous aidera à offrir des expériences de visionnage de haute qualité, en particulier sur les zones difficiles à desservir », précise François Collobert.

 

Article extrait de notre compte-rendu de l’IBC 2019, paru pour la première fois dans Mediakwest #34, p.38/87. Abonnez-vous à Mediakwest (5 numéros/an + 1 Hors-Série « Guide du tournage ») pour accéder, dès leur sortie, à nos articles dans leur intégralité.

❌