Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

[Tuto] Monter la 360 en 2D pour produire des plans impossibles

Par Sébastien François

Les caméras 360° ne servent pas qu’à produire de la 360. Comme elles capturent tout leur environnement, on va utiliser ici la technique de « l’overcapture » ou du « reframe » pour créer des mouvements uniques dans les montages traditionnels. Les résultats sont spectaculaires.

Imaginons un cadreur qui peut voir l’intégralité de son environnement: devant, derrière, mais aussi au-dessus, en-dessous et surtout capable de bouger à la vitesse de la lumière pour suivre sans erreur un avion de chasse. C’est exactement ce que permettent de faire les caméras 360° quand leur usage est détourné en 2D.
Comme elles filment simultanément absolument dans toutes les directions, l’idée est donc de sélectionner en post-production le cadre de l’image le plus intéressant et d’animer sa position pour suivre ce qui nous intéresse. Pour résumer, elles dont office de cadreur virtuel.
Pour mieux se rendre compte des possibilités, voici un court exemple de ce qu’il est possible de faire:

Comme on le voit dans ici, le principe est le même que celui qui consiste à « cropper » dans une image 4K quand on va livrer en HD. Sauf que c’est dans toutes les directions. Oui mais voilà, un peu comme pour les Gopro et autres caméras de sport, quand elles sont apparues, les caméras 360° abordables n’ont pas été prévues à la base pour être utilisées de manière traditionnelle. Elles ont été faites pour le social sharing avec des app et pas forcément une recherche de post-production poussée.
Malgré tout, et comme pour les caméras sportives, les pros n’ont pas tardé à s’emparer des possibilités offertes, malgré la qualité d’image bien plus faible. Parce qu’un plan unique justifie une qualité moins « broadcast ». Il existe donc des limites, mais elles sont de plus en plus repoussées. Ceci d’autant que les caméras 360° disposant de gyroscopes et filmant partout, elles sont toutes équipées de stabilisateur d’images si performants qu’elles peuvent se dispenser de nacelles (Gimbal).

360° en 2D, comment ça marche?

Le principe est assez simple. Les caméras 360° sont équipées d’objectifs fisheye qui filment leur environment à 180° (dans la cas de 2 objectifs, 120° pour 3 objectifs etc).

fisheye

A partir de là, une puce dédiée ou un logiciel vont rassembler les 2 images (ou autant d’images que la caméra a d’objectifs) de manière équirectangulaire pour produire ce résultat qui s’apparente à un panorama déformé:

C’est cette image qui sera projetée dans une sphère virtuelle et qui permettra au spectateur de se promener à 360° comme s’il était au centre de cette sphère. L’idée est donc de récupérer une portion de l’image afin de l’insérer dans un montage classique. On va ainsi pouvoir animer le cadrage, changer de point de vue etc…

360_03_reframe
Ici, on choisit ce cadre dans l’image « panorama » pour produire, à droite, un plan « normal ». Bien sûr l’idée est d’animer le cadrage.

Les limites à connaitre

Evidemment, tout cela semble magique, mais il y a plusieurs limites qu’il faut bien prendre en compte:

  • La plupart du temps, les caméras produisent des images en 5,7K maximum (5760 x 2880 pixels) et les capteurs sont minuscules. Autrement dit, quand on reframe (ou overcapture), on ne va se servir que d’une petite partie de cette résolution. La qualité d’image est donc assez basse et la faible lumière est à proscrire.
  • Certaines caméras produisent des fichiers « prêts à l’emploi » en équirectangulaire, mais d’autres, non. Il faut alors passer par un logiciel maison supplémentaire pour effectuer le stitching (l’assemblage des images): le processus, certes simple et automatisé, est parfois long. Le but étant de créer cette image « Flat » sans défaut de raccords.
  • Certains ont déjà du mal a travailler en 4K faute de puissance: c’est encore pire en 5,7K d’autant que de plus en plus de caméras enregistrent en H265 (codage plus performant, mais ressources énormes nécessaires pour la décompression et la lecture, voir notre article sur le sujet). Il est donc souvent recommandé de travailler avec des proxys, voir là-encore notre tutoriel).
Le logiciel de la firme Insta360 (Insta360 Studio 2019) permet de stitcher les images, mais aussi faire du reframe.

Reframe/Overcapture, ce qu’il vous faut

Si tous les logiciels savent désormais monter de la VR (de la 360 native donc), ils ne sont pas tous capables d’effectuer le recadrage et l’animation des paramètres (changement de vue, champ de vision etc…). C’est pourquoi deux solutions s’offrent à vous:
– Utiliser Insta360 Studio 2019 qui supporte gratuitement la majorité des caméras 360° y compris celles qui ne sont pas de la marque. Il est téléchargeable ici et son tutoriel (très simple est ici).
– Installer les plugins Gopro pour Premiere Pro qui vont permettre ajouter l’effet « Gopro VR Reframe ». Le téléchargement pour Windows est ici et le téléchargement pour Mac est là. A noter que Gorpo propose aussi l’installation des plugins via son logiciel Gopro Fusion Studio, mais ce dernier ne sera compatible qu’avec la caméra de la marque (la Fusion).

Le reframing en quelque étapes

Une fois les plugins installés, il suffit de lancer Premiere Pro et d’importer vos fichiers 360 en Flat (equirectangulaire). Créez ensuite une séquence (une Timeline), aux dimensions de vos rushes source (5.7K, 4K…) en respectant bien la cadence d’image native de la caméra (25/30/50P).

360_05_VRReframePlug

Glissez simplement l’effet GoPro VR Reframe depuis la bibliothèque d’effet sur le clip de votre choix. L’image est immédiatement recadrée. Placez la tête de lecture en début de clip et ouvrez les Options d’effets. Activez les chronomètres afin d’indiquer que vous allez animer ce « recadrage ». Les paramètres sont les suivants:

  • Le FOV (Field of View), permet d’animer la champ de vision du cadrage, autrement dit, en augmentant la valeur, on étend le champ de vison, et en la réduisant, on zoome dans l’image.
  • Les YAW/Pitch/Roll correspondent aux directions comme pour le pilotage d’un drone, ou le contrôle d’une Gimbal. Le YAW correspond pour nous au Pan (de la gauche vers la droite et vice-versa), le Pitch contrôle le Tilt (inclinaison verticale), et le Roll fait appel à l’inclinaison de la l’assiette (pour corriger la ligne d’horizon par exemple).
  • Le paramètre Smooth transition permet quant à lui de lisser les images-clés (Ease In & Ease Out) car le plugin ne prend en compte l’interprétation faite par Premiere Pro.

Corriger les déformations

Tout comme pour les caméras de sport qui ont un champ de vision très large, les bords de l’image sont souvent courbés. Pour corriger ce défaut, allez chercher l’effet « Déformation de la lentille » (Lens Distortion). Glissez-le sur votre rushe. Dans les Options d’effet, il suffit de glisser le paramètre Courbure vers une valeur négative pour atténuer les déformations.

La déformation est corrigée, à droite par rapport au fichier natif.

L’effet Tiny Planet

L’effet Tiny Planet est ultra populaire et il était ultra simple à réaliser avec le plugin Gopro VR Reframe. Il suffit pour cela:
– de basculer le Pitch à 90° (pour regarder vers le sol en quelque sorte) et d’étendre le champ de vision à près de 100. Ce qui va faire « decoller » la caméra et rassembler tout l’image sous forme de « petite planète ». Bien sûr, si la caméra n’était pas parfaitement verticale lors de prise de vue, vous devrez sans doute corriger l’angle avec le Roll ou le YAW.

L’effet hyperlapse avec du motion-blur

La plupart des caméras 360° proposent une fonction d’hyperlapse car elles sont ultra stabilisées. Oui, mais voilà, l’effet est souvent disponible sur l’application du téléphone seulement et pas en post-production sur ordinateur. C’est très frustrant. Pour autant, il existe une parade:
– Tournez votre trajet à vitesse normale (comme dans la fin de la vidéo d’introduction de l’article).
– Une fois le fichier rapatrié dans Premiere Pro et Reframé à votre guise. Augmentez la vitesse de lecture entre 2000 et 3000%. En l’état, vous verrez bien l’effet hyperlapse, mais il n’y pas de motion blur (flou de mouvement).
– Effectuez un clic-droit sur le clip / Interpolation temporelle (Time Interpolation) / et sélectionnez Interpolation (Frame Blending). Le flou de mouvement est ainsi ajouté.

Enfin pour aller plus loin dans les possibilités offertes par les caméras 360° utilisée en 2D, nous vous recommandons cette vidéo de Cinecom.net qui montre l’étendue des transitions que l’on peut réaliser en quelques mouvements:

L’article [Tuto] Monter la 360 en 2D pour produire des plans impossibles est apparu en premier sur Createinmotion.

Google Earth Studio: pilotez un drone depuis votre ordinateur

Par Sébastien François

Tout le monde connait Google Earth qui permet de se promener sur la planète. Mais il y a plus fort: Google Earth Studio passe à la 3D et permet ainsi de monter des séquences aériennes directement depuis votre navigateur. Finies les autorisations de vol en ville! Les résultats sont bluffants et préfigurent peut-être l’avenir du montage vidéo.

Google Earth Studio (que nous appellerons GES dans cet article), c’est un peu la suite logique de Google Earth. Cet outil en ligne permettait déjà beaucoup puisque l’on pouvait voyager sur toute la planète grâce à une banque phénoménale d’images satellite. Le problème, c’est qu’en zoomant au maximum, on se retrouvait avec une image « plate » et pixelisée. Si Google Earth a beaucoup été utilisé post-production avec cet effet de zoom depuis l’univers vers un point précis du globe, Google Earth Studio va bien plus loin:
– Les données du globe ont quasiment toutes été modélisées en 3D.
– GES est devenu un outil de création cinématique en ligne où l’on dessine ses propres trajets aériens, avec animation de tous les paramètres possibles (caméra, cible, heure du jour ou de la nuit, nuages…).
– Le logiciel permet aussi de générer des « track points » qui peuvent ensuite être utilisés dans After Effects pour ajouter des éléments (marqueurs, textes…). Et pour mieux se rendre compte des possibilités de l’outil, en voici la démonstration:

Nous allons donc faire un tour d’horizon de l’outil et vous montrer à quel point il est simple. Il permet ainsi d’ajouter des cinématiques à vos montages pour localiser des lieux par exemple. C’est bien sûr gratuit, à condition de laisser la « Watermark » de Google sur vos images.

Le principe

Attention, pour vous servir de GES vous devrez attendre quelques jours que Google approuve votre inscription. Pour ce faire, rendez-vous à l’adresse suivante: https://www.google.com/earth/studio/ et inscrivez-vous. Dans notre cas, il a fallu patienter 4 jours. D’autre part, GES ne marche qu’avec le navigateur Google Chrome (forcément), téléchargeable gratuitement sur n’importe quelle plateforme.
Ensuite, le fonctionnement est presque similaire à celui d’un logiciel de montage: une Timeline, des images clés pour animer les paramètres (trajet, cible, chemin…) et un moniteur de Programme qui va montrer en temps réel votre le vol virtuel de votre caméra. Nous allons réaliser l’exemple suivant qui montre Notre Dame de Paris avant qu’elle ne brûle:

Prise en main

Un fois connecté à GES, la plateforme en ligne vous propose de créer ou un « Blank Project » (Projet vierge), ou de choisir parmi des modèles d’animation déjà préconçus (exactement comme les modes de vol disponibles sur les drones). Pour plus de simplicité, on va choisir le mode « Fly to and Orbit » en cliquant sur « Quick Start »: autrement dit, on va voler d’un point A à un point B et effectuer une orbite autour de notre point d’intérêt.
GES_01

Il suffit ensuite de saisir la destination finale: dans notre cas « Notre Dame, Paris, France ». Le logiciel affiche aussitôt la vue satellite, puis, la simulation en temps réel du vol: vous pouvez changer l’altitude de d’arrivée, le rayon de l’orbite, l’angle d’approche… Tous ses paramètres seront bien sûr modifiables ultérieurement. Vos modifications sont appliquées en temps réel.

GES_02

Il ne reste enfin qu’à choisir la durée de l’animation. Par défaut, elle sera de 25 secondes. Vous découvrez ensuite l’interface du logiciel.

L’interface de Google Earth Studio

Par défaut, on ne dispose que de la vue finale en 3D. Il est donc préférable, pour affiner le trajet de la caméra, de passer en mode « 2 Viewports » grâce à l’icône de l’écran.
GES_03
A gauche, on visualise ainsi la carte et surtout le trajet de la caméra. De cette manière, on pourra très facilement customiser tous les mouvements et gérer les paramètres de déplacement. La Timeline quant à elle, montre toutes les images clés et la liste des paramètres. Dans notre exemple, on désire que le point de départ se situe dans l’espace et bien plus loin de Paris. Il suffit donc de placer la tête de lecture au début puis, de saisir une altitude de 35 Kilomètres, et, dans la barre de recherche, de taper « Frankfort » en Allemagne. Vous cliquez ensuite sur le losange de la rubrique « Camera Position » afin d’indiquer que vous avez modifié les images clés de position de la caméra.

GES_04
Si vous lancez la lecture, vous constatez donc que la caméra s’est positionnée au dessus de la ville allemande et ira jusqu’à Paris depuis le cosmos.
Astuce: Par défaut, GES effectue un trajet linéaire depuis l’espace, ce qui n’est pas très esthétique. Dans le menu Animation/Advanced, choisissez Logarithmic Altitude. Google va accélérer la descente vers le sol et arrondir la trajectoire, ce qui est bien plus satisfaisant.

Vous pouvez désormais sauter d’image clé en image clé pour modifier tout ce que vous désirez, et bien sûr créer des étapes sur le parcours.

Les paramètres supplémentaires

Vous aurez aussi compris que chaque point dans le Viewport « carte » correspond à une image clé de position de la caméra: vous pouvez ainsi les manipuler à loisir pour vous écarter de votre trajectoire initiale. Mais on peut aller encore plus loin. En cliquant sur Add attributes, on peut ajouter des paramètres supplémentaires, qui pourront eux aussi être animés: l’heure du jour ou de la nuit, l’angle de vue de la caméra, les nuages… De cette manière par exemple, en animant le Field of view (angle de la focale), vous allez pouvoir effectuer des zooms spectaculaires, ou, au contraire, élargir le champ pour avoir une vision panoramique de la scène.
GES_06

De plus, en sélectionnant une ou plusieurs images clés et en effectuant un clic-droit vous allez aussi pouvoir changer le mode d’interpolation de l’animation (ease-in, ease-out…) ou Auto-Ease (ce qui correspond à une courbe de Bézier automatique afin de lisser les mouvements).
GES_05

Les track-points et l’export

C’est une des autres forces de GES. Les track-points peuvent être ajoutés. Qu’est ce que ça veut dire? C’est qu’au moment de l’exportation du rendu final, GES va inclure des points de votre choix en 3D afin qu’un logiciel comme After Effects soit capable de « comprendre » les mouvements de la caméra et donc d’ancrer des éléments en 3D dans la scène. Pour mieux comprendre, contentez-vous d’ajouter un trackg-point sur la cible de la caméra (Notre Dame dans notre exemple) en effectuant un clic-droit sur la cible figurant la carte ou directement dans le moniteur final.
GES_07
Votre animation terminée, appuyez sur le bouton Render. Après avoir validé la durée et la résolution, passez à l’onglet « Advanced » et cochez la case « Include 3D tracking Data ». Lancez ensuite le rendu en cliquant sur Start. GES va générer toutes les images et vous proposer de télécharger un .zip.

GES_08

Ajoutez des éléments en 3D dans After Effects

Un fois le fichier téléchargé et décompressé, GES aura généré une suite d’images numérotées que vous pourrez importer en tant que film dans n’importe quel logiciel de montage. Mais le plus amusant est d’utiliser After Effects pour ajouter du texte 3D grâce au Track Points. Lancez After Effects, puis, depuis le menu Fichier/exécuter le script, sélectionnez le fichier .jsx généré par Google. Automatiquement, votre film est chargé dans une nouvelle Composition et surtout, After Effects a créé un objet nul et un calque de texte pour chaque Track-Point.
GES_09

Il suffit alors d’écrire n’importe quelle légende ou de lier à n’importe quel élément à l’objet nul pour qu’il soit modélisé en 3D et suive les mouvements de votre caméra. Vous n’aurez qu’à jouer sur l’orientation et la position pour qu’il matche avec votre scène. Ajoutez enfin un peu de motion blur et étalonnez un peu les images dans Lumetri pour qu’elles semblent moins artificielles et vous voilà avec des images de drone en version réalité augmentée.

Des ressources pour aller plus loin

Pour aller plus loin et en vidéo, nous vous recommandons ce tutoriel en français, du célèbre Stéphane Couchoud.

An anglais vous pouvez aussi suivre cette vidéo et la chaine associée.

 

L’article Google Earth Studio: pilotez un drone depuis votre ordinateur est apparu en premier sur Createinmotion.

Pourquoi passer au clavier programmable ?

Par Sébastien François

Monter un film, ça signifie maitriser des tonnes de raccourcis clavier. Il existe bien des accessoires pour les rendre plus clairs, mais il y mieux: les claviers programmables. Pourquoi? Parce que vous pouvez les personnaliser pour autant de fonctions que vous le désirez. Et les utiliser partout et pour tout.

J’ai découvert les claviers programmables quand j’ai du réaliser un Live avec un mélangeur vidéo contrôlé exclusivement par un Macbook Pro. Problème pour moi qui suis habitué aux vrais « panneaux de commandes » avec de vrais gros boutons, je ne me voyais pas appuyer pendant des heures sur Shift + 1, Shift +2…. à chaque changement de caméra. J’ai donc investi dans un petit clavier programmable: le Stream Deck d’Elgato.Il suffit de le connecter à une machine pour qu’il devienne une sorte de deuxième clavier, à la différence que chaque touche est un mini écran LCD et que vous pouvez lui affecter n’importe quelle action.
Dans mon cas, je me suis contenté de mémoriser les raccourcis du mélangeur et j’ai « baptisé » mes touches du nom de mes cadreurs (et j’ai inséré leur photo!)… Et faire ma réalisation exactement comme avec un vrai panneau de contrôle.
streamdeck as mixer
Mais évidemment, ce type de périphérique ne se cantonne pas à cet utilisation marginale. Ils sont surtout utiles quand on monte.

Programmables contre personnalisés

Si l’on considère que le montage d’un film va nécessiter des milliers de frappes de raccourcis clavier à 2 ou 3 touches, on mesure immédiatement l’intérêt de se munir de ce type d’accessoire. Il existe bien sûr des claviers traditionnels qui sont physiquement personnalisés pour tel ou tel logiciel, ou encore des « skins »: les raccourcis sont directement indiqués via des couleurs ou des signes.
logickeyboard-adobe-premiere-pc-slim-black-1-39
Mais cela veut dire que vous ne pouvez pas utiliser vos propres raccourcis et que si l’éditeur du logiciel change ces raccourcis, vous pourrez jeter le clavier. Autre problème, on oublie parfois certaines combinaisons de touche parce qu’on les utilise moins souvent. Du coup, on perd donc du temps. Le programmable, de son côté, élimine toutes ces contraintes.
streamdeck general

Le Stream Deck, comment ça marche?

C’est pourquoi, utiliser un Stream Deck montre tout son intérêt. L’idée, est assez simple, les 15 touches affichent ce que vous voulez (images, texte) et peuvent être affectées à n’importe quelle action: un raccourci clavier, mais aussi le lancement d’une application, la saisie automatique d’une phrase enregistrée et même plusieurs raccourcis successifs avec un timing entre chaque frappe… Les possibilités sont presque infinies. Surtout, vous n’êtes pas limités aux 15 touches puisque le Stream Deck stocke aussi des dossiers. Autrement dit, vous pouvez très bien avoir un écran d’accueil d’où vous lancez vos applications, presser la touche « dossier » de Premiere Pro pour accéder à un autre « clavier » qui ne regroupera que les raccourcis de ce logiciel.

streamdeck_01Vous pouvez créer un dossier pour toutes vos applications et switcher d’un clavier à l’autre. C’est magique. Dans mon cas et sur Première Pro, le plus fatiguant est de passer d’une fenêtre à l’autre: panneau Montage, panneau Projet, Panneau Options d’effets… Tout comme il pénible d’utiliser systématique CTRL + K pour couper les plans sous la tête de lecture.

streamdeck_02
J’ai donc affecté un maximum d’actions « pénibles » au Stream Deck, ce qui me permet de monter sans quasiment quitter la souris.
Les utilisateurs de Photoshop seront eux aussi ravis de regrouper tout leurs outils via ce clavier… Voilà en tout cas pour le principe, mais c’est à vous de trouver le configuration qui convient à vos utilisations

.

Et dans le détail?

La programmation d’un clavier peut faire peur. Rassurez-vous, vous n’avez aucune ligne de code à écrire! Ce clavier (ou un autre) est toujours contrôlé par un petit logiciel ultra simple.

streamdeck & softwarestreamdeck_software

 

 

 

 

 

 

 

 

 

A son ouverture, il montre les 15 touches à l’écran. Il suffit  ensuite de procéder comme suit:
1. Sélectionnez la touche désirée
2. Choisissez dans la liste déroulante à droite le type d’action à affecter: elle est longue comme le bras, mais ce qui va nous intéresser en professionnel, ce sont les rubriques Stream Deck (pour créer un dossier par exemple) et Système (pour les raccourcis clavier ou le lancement d’une application).
3. On glisse/dépose l’action sur la touche.
4. On donne un titre (et c’est drôle parce que le texte s’écrit en même temps sur le vrai clavier!)
5. On rentre la combinaison de touche à affecter (ou l’action)
6. Et de manière optionnelle, vous pouvez aller chercher une image pour la mettre sur la touche, ou piocher dans la banque d’icône en ligne de l’éditeur.
C’est fini!
7. Cerise sur le gâteau, le Stream Deck peut se prêter. En effet, vous pouvez enregistrer des Profils pour chaque utilisateur. Et il marche aussi bien sur Mac & PC.

L’essayer c’est l’adopter

Alors oui, on peut vivre aisément sans ce type de périphérique. Mais c’est un peu comme passer de 1 à 2 écrans: on ne revient plus en arrière tant le confort est important. Surtout, c’est un périphérique nomade et encore plus utile avec un ordinateur portable dont l’espace est restreint (pas de pavé numérique par exemple). A recommander donc. Notez aussi que nous avons utilisé le Stream Deck dans cet exemple, mais qu’il est existe des dizaines de références avec plus ou moins de touches et plus ou moins de fonctions.

https://www.elgato.com/fr/gaming/stream-deck

L’article Pourquoi passer au clavier programmable ? est apparu en premier sur Createinmotion.

Nouveau partenariat : TRM et GB Labs, expert en solutions de stockage pour les professionnels de l’audiovisuel

Par Andrea

30 octobre 2018

TRM établit un nouveau partenariat avec GB Labs, acteur de référence en matière de Stockage Média Intelligent et de Workflows. Fiables et simples à utiliser, les solutions de stockage, d’archivage et de gestion de contenus media de GB Labs s’adaptent parfaitement à chaque étape du flux de production des professionnels de l’industrie audiovisuelle.

« Les solutions professionnelles de GB Labs viennent d’enrichir l’offre de TRM dédiée à la gestion des workflows de la production audiovisuelle. Elles sont à la fois abordables, faciles à installer et ergonomiques. La gamme est complète et les produits d’archivage sont universels avec l’utilisation du support d’enregistrement standard LTO. » – Henri-Dominique Saumon, PDG de TRM.

« GB Labs est fière de travailler avec TRM afin de présenter nos gammes FastNAS et EasyLTO au marché français. L’association du savoir-faire de TRM et de l’expertise  en gestion des workflows de contenu de GB Labs permettra de fournir aux clients une valeur ajoutée inégalable. » – Duncan Beattie, VP des Ventes, GB Labs.

A propos de TRM :

TRM SAS est un distributeur d’équipement et consommables audiovisuels professionnels depuis plus de 30 ans. La société propose un catalogue riche et varié pour le tournage l’éclairage, l’audio, le montage, la diffusion, la photo, mais aussi l’expertise et le conseil technique. Idéalement située au coeur de la “media valley” du sud-ouest parisien, TRM s’adresse historiquement aux professionnels de la radio, de la télévision et du cinéma mais aussi aux producteurs et opérateurs du digital et de la communication évènementielle et institutionnelle.

A propos de GB Labs :

GB Labs est leader global du Stockage Média Intelligent et de Workflows basés sur l’IA. GB Labs crée des solutions simples à installer et faciles à utiliser, tout en offrant une puissance capable de répondre aux workflows les plus exigeants de l’ingestion et du montage de vidéos 4K/8K jusqu’à la post-production et l’archivage long-terme.

GB Labs est reconnue pour ses solutions sûres, sécurisantes, fiables et incroyablement, rapides, surpassant toute autre technologie SAN ou NAS.

L’article Nouveau partenariat : TRM et GB Labs, expert en solutions de stockage pour les professionnels de l’audiovisuel est apparu en premier sur TRM.

❌