Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

USD en pratique : le cas Luma Pictures

Par : Shadows

Nous avons déjà eu l’occasion d’évoquer à plusieurs reprises USD (Universal Scene Description), qui facilite les échanges de données au sein d’un studio ou d’une production et offre de nombreux avantages théoriques par rapport aux techniques classiques. Notre confrère Ian Failes nous propose un cas concret de l’usage d’USD avec le studio d’effets visuels Luma Pictures. Un article revient sur l’implémentation d’USD au sein de la structure (en particulier avec leur pipeline de lighting et lookdev reposant sur le logiciel Katana), comment et pourquoi cette mise en place s’est faite, mais aussi comment USD a été employé sur des projets récents tels que Spider-Man : Far From Home.

L’article USD en pratique : le cas Luma Pictures est apparu en premier sur 3DVF.

Gnoumagbée Camara, environment artist

Par : Shadows

Découvrez les travaux de Gnoumagbée Camara, jeune artiste 3D en recherche de stage. Issue de la formation ATI à Paris VIII, elle utilise Unreal Engine, Blender ou encore Substance Designer et souhaite s’orienter vers des projets typés environment artist ou généraliste 3D.

Au-delà de ce stage, elle recherche également une entreprise pour une alternance d’un an en tant qu’artiste 3D, à partir d’octobre.

L’article Gnoumagbée Camara, environment artist est apparu en premier sur 3DVF.

Comment optimiser une application 3D sur le web : le cas Naker

Par : Shadows

Nous vous avions proposé il y a quelques mois une interview de Naker, plateforme en ligne de création de contenus 3D interactifs sur le web.
Le service a depuis bien évolué, en particulier concernant les performances : l’usage CPU/GPU a été divisé par trois, et celui des fonctions de scripting/rendu au sein d’un navigateur quasiment par 10.

Un article de blog détaille les techniques utilisées pour y parvenir :
– paradoxalement, l’équipe a fait chuter le nombre d’images par seconde. En abandonnant la sacro-sainte limite des 60fps au profit d’une cible de 30 fps, la fluidité est certes légèrement impactée, mais l’expérience reste satisfaisante, selon Naker. Et en contrepartie, on obtient un gain conséquent en usage des ressources ;


– autre amélioration, jusqu’ici Naker lançait le rendu de pages entières, même lorsque le contenu n’était au final pas affiché (car trop haut ou bas dans la page par rapport à la zone visible à l’écran). Ce n’est désormais plus le cas : une astuce qui évoque évidemment les techniques de chargement dynamique des images désormais largement employées sur le web, mais adaptée à la 3D.


-Enfin, l’équipe a mis en place un système permettant d’exécuter le rendu 3D dans un thread différent de celui du navigateur proprement dit.

Au final, les gains sont massifs, jusqu’à x10 selon la variable considérée. Une avancée évidemment cruciale pour un service comme Naker, puisque les performances sont un argument commercial clé pour séduire de nouveaux utilisateurs.

Naker

L’article Comment optimiser une application 3D sur le web : le cas Naker est apparu en premier sur 3DVF.

Sketchfab dit adieu au travail solitaire

Par : Shadows

La plateforme d’hébergement et visualisation de modèles 3D Sketchfab annonce Sketchfab for Teams, une version de son service tournée vers les équipes et la collaboration.
L’idée est de permettre à un groupe de personne de gérer des assets en commun, avec tout un ensemble de fonctionnalités : gestion des droits (d’accès, visualisation, édition, etc), inspection des modèles, recherche, conversion dans d’autres formats, publication et visualisation externe.

Pour le moment uniquement disponible pour les clients “Enterprise” (mais prévue pour les clients Premium et Business à terme), cette fonction pourra donc permettre de créer une banque d’assets centralisée pour un projet commun, au sein d’une équipe ou entreprise. Il vous faudra contacter Sketchfab pour activer ces fonctionnalités.

L’article Sketchfab dit adieu au travail solitaire est apparu en premier sur 3DVF.

Sports Broadcasting Hall of Famer Elevates Live Audio with Studio Technologies

Veteran Mixer and Audio Consultant Fred Aldous Uses Several Studio Tech Products SKOKIE, IL, MAY 5, 2020 – During an extensive career mixing audio for live sports, Fred Aldous has earned over 20 Emmy awards and a spot in the Sports Broadcasting Hall of Fame. He currently works as a lead mixer and audio consultant ...

The post Sports Broadcasting Hall of Famer Elevates Live Audio with Studio Technologies appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Pliant Technologies’ SmartBoom Headsets Provide an Instant Upgrade for any Intercom System

SmartBoom LITE and PRO Headsets Offer Exceptional Audio Quality, Flexibility, and Durability for a Range of Intercom Requirements AUBURN, AL, April 28, 2020 — Pliant Technologies’ complete line of SmartBoom LITE and SmartBoom PRO headsets offer comfort, durability, and outstanding audio performance for professionals that require the best equipment in demanding production environments. The complete ...

The post Pliant Technologies’ SmartBoom Headsets Provide an Instant Upgrade for any Intercom System appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

BigSun : un outil de production virtuelle pour dire adieu à votre fond vert

Par : Shadows

Avec l’arrivée de la série The Mandalorian et son système de décor en mur de LEDs en lieu et place du traditionnel fond vert (vous pouvez revoir à ce sujet notre interview de The Third Floor, qui a directement participé au projet), de nombreux studios cherchent à s’inspirer de ce type de technologie pour leurs propres projets.

Le studio français Bizaroïd nous présente justement BigSun, un outil maison aux capacités plus réduites mais qui permettra, dans bien des cas, de se passer de fond vert sur un tournage. Une autre façon de travailler qui peut s’avérer très pertinente en fonction des besoins.

Sans plus tarder, voici un aperçu vidéo des capacités du système, avant une présentation plus détaillée par Bizaroïd.

3DVF : Bonjour Bizaroïd, vous venez d’annoncer BigSun, une solution de production virtuelle temps réel qui pourra remplacer l’habituel fond vert dans certaines situations. Concrètement, que permet l’outil ?

Gaston Marcotti, fondateur de Bizaroïd et superviseur VFX : Très concrètement, BigSun est un dispositif de projection sur mur de LED ou bien vidéoprojecteur, qui permet de remplacer le traditionnel fond vert nécessaire pour les effets visuels, et ainsi projeter directement le décor en arrière-plan. L’avancée majeure de BigSun est le tracking de caméra en temps réel qui pilote la projection de la scène, qui peut être en 3D, vidéo ou même photo. Émuler la parallaxe sur un écran de projection est maintenant possible.

Tout est parti du fond vert et de ses limites techniques.

Les plans réalisés sur fond vert exigent souvent des jours voir des semaines de travail avant d’obtenir une première maquette que l’on puisse intégrer au montage. La sélection, par le monteur, des rushs à truquer, puis les premières maquette VFX, font perdre beaucoup de temps à la production d’un film.

Puis vient l’étape de l’intégration VFX. Une bonne intégration dépend des conditions de tournage, du chef opérateur, du superviseur plateau et des studios de post production VFX. Les équipes de compositing doivent gérer les transparences, les réflexions et les retours de vert sur les personnages, etc.

Avec BigSun, grâce à un compositing naturel et en temps réel, offre un résultat immédiat et authentique.

La projection permet de créer l’environnement de tournage, le décor, sans attendre la postproduction VFX. C’est la technique la plus simple pour tourner des intérieurs en studio, elle a d’ailleurs été utilisée très tôt dans le cinéma. Une des références à ce jour reste le film d’Alfred Hitchcock « North by Northwest » ou « La mort aux trousses » en français. Notamment la séquence ou Cary Grant court devant l’avion qui le mitraille.

Mais malgré les possibilités de cette solution de compositing en temps réel, les points négatifs étaient nombreux. Parmi eux, l’obligation de faire des plans fixes, ou bien la perte de qualité du film projeté due à la nécessité de tirer des copies, ou encore les problèmes d’instabilité de la pellicule qui était entrainée par un système de griffe et d’encoche, et même la pollution lumineuse sur le plateau, etc.

Aujourd’hui, à l’ère numérique, la plupart de ces problèmes sont maintenant maitrisés, voire dépassés. Avec BigSun, du point de vue de la caméra, on peut maintenir la perspective en temps réel et l’illusion est parfaite.

De plus, les caméras numériques n’ont plus de pellicules, donc plus d’intermédiaires qui généraient beaucoup d’artéfacts. Elles ont de surcroît des sensibilités inégalées, rendant le travail d’éclairage beaucoup plus aisé.

Enfin, le support de projection, la LED en l’occurrence, a complètement changé la donne. Le ratio contraste/lumière est tel qu’il devient une source de lumière sur le plateau, un acteur technique et artistique. C’est d’ailleurs de là que vient le nom de « BigSun », le grand soleil.

Les avantages de cette solution de « Live compositing » :

• « what you see is what you get », ce que vous voyez est ce que vous aurez. Tous les participants au tournage voient le résultat final
• Capter et suivre l’action dans un décor interactif en mouvement
• Faciliter le traitement de la lumière en temps réel par le DOP et profiter de la luminosité émise par la projection
• Intégrer directement les zones de transparences et de réflexions
• Faciliter le changement de décor
• Les plans VFX sont truqués avant le montage, ce qui retire l’étape chronophage des maquettes par le monteur
• Une maîtrise et une économie du budget VFX

3DVF : Quels types de projets ciblez-vous, et quel sera le modèle économique ?

Gaston Marcotti / Bizaroïd : BigSun peut être mis à profit dans tout projet de cinéma, de série, de publicité et de télévision qui fait appel habituellement au fond vert et qui souhaite réduire les temps de post-production. Plus qu’une nouvelle technologie, BigSun propose une nouvelle façon de créer et d’organiser le tournage.

La nouvelle série « The Mandalorian » produite par Disney et Lucas Film en est l’exemple parfait. Elle a utilisé un procédé similaire et le résultat est magnifique.

Grâce à notre studio Bizaroïd spécialisé dans les VFX, nous proposons un service complet, de la création artistique à la création d’assets en 3D, mais aussi du tournage, avec notre partenaire Adrien Gontier et sa société FAMOUS, chef opérateur qui a testé depuis le premier jour BigSun. La projection est assurée par la société Fosphor, qui nous a accompagnés elle aussi dès le premier jour. Nous utilisons UNITY en moteur temps réel, et ingérons tous les types d’assets 3D (Maya, 3DS MAX, cinéma 4D, Houdini, Blender) qui pourraient venir d’autres studios de postproduction.

3DVF : Vous cherchez des partenaires… Pouvez-vous nous en dire plus ?

Gaston Marcotti / Bizaroïd : Absolument, contrairement aux grands studios cités plus haut, nous n’avons pas la force économique d’une multinationale. La prochaine grande étape est de mettre en place un studio dédié à BigSun, où l’on pourra tourner et repartir avec son film sous le bras, prêt à diffuser. J’exagère à peine.

Donc nous recherchons des acteurs financiers prêts à nous accompagner dans le développement de BigSun. Des partenaires techniques aussi pour la partie temps réel sous UNITY. Et enfin, nous désirons tester BigSun avec des artistes à l’imagination foisonnante et débordante. Nous ne voulons pas cantonner BigSun à ce qu’il sait faire aujourd’hui, c’est une technologie prometteuse qui ne demande qu’à expérimenter et révéler de nouveaux horizons, pour toujours plus d’histoire, toujours plus de cinéma.

Pour en savoir plus : vous pouvez contacter le studio Bizaroïd, situé à Vincennes.

L’article BigSun : un outil de production virtuelle pour dire adieu à votre fond vert est apparu en premier sur 3DVF.

L’Open Shading Language rejoint l’initiative ASWF

Par : Shadows

L’Academy Software Foundation (ASWF), initiative portée par l’Academy of Motion Picture Arts & Sciences (AMPAS, qui organise également les Oscars), ne cesse de prendre de l’ampleur.
Lancée en 2018, l’ASWF est pour rappel une fondation destinée à améliorer la qualité et la quantité des contributions open source aux industries des effets visuels et de l’animation, en lui offrant une structure complète : modèle de gouvernance, cadre légal, infrastructure de communauté.

En clair : l’ASWF cherche à centraliser, coordonner et faciliter les contributions aux outils utilisés par toute l’industrie de l’image. Elle rassemble déjà OpenVDB, OpenColorIO, OpenCue, OpenEXR, OpenTimelineIO.

Cette liste vient justement de s’étoffer avec l’Open Shading Language (OSL). Initialement développé par Sony Pictures ImageWorks et utilisé sur des projets tels que les films Angry Birds 2 ou Spider-Man : Far From Home, OSL a été open-sourcé en 2010 avant de devenir une référence dans le secteur VFX. Il est désormais intégré dans plusieurs moteurs de rendu largement employés par les studios, de RenderMan à V-Ray en passant par Arnold ou Blender.

Cette annonce devrait assurer l’avenir d’OSL, mais conforte également un peu plus d’importance de l’ASWF au sein de l’industrie.

L’article L’Open Shading Language rejoint l’initiative ASWF est apparu en premier sur 3DVF.

Tactility : l’avenir du gant à retour tactile ?

Par : Shadows

Avant de devoir comme la majorité d’entre vous se confiner, l’équipe 3DVF a pu assister à une démonstration associée aux premiers balbutiements de Tactility, un ambitieux projet de recherche européen.

Le principe : sur 3 ans et avec 3,8 millions d’euros de budget, penser et prototyper des gants avec retour tactile pour la réalité virtuelle/augmentée. Attention, il ne s’agit pas ici de retour de force (avec une sensation d’appui quand les doigts serrent un objet virtuel) mais plutôt de faciliter les interactions via le ressenti physique, de la même manière que le “clic” d’une souris apporte une information plus intéressante que le ressenti physique de sa forme.
Cette approche répond finalement assez bien à un souci que nous avons pu avoir en utilisant des systèmes VR/AR/MR dans des conditions dégradées, avec par exemple les gestes d’interaction de l’Hololens V1 qui ne provoquaient pas de retour (visuel ou autre) : l’utilisateur ne savait donc pas si la commande était prise en compte.

Tactility
Le concept de ce que devrait donner le projet Tactility : des gants dotés de capacités d’électrostimulation.

Le projet de recherche Tactility va évidemment au-delà de ce simple cas, et l’étendue des applications dépendra essentiellement de la palette de sensations proposées. Interfaces, accessibilité font évidemment partie des cibles les plus évidentes.
Coordonné par Tecnalia Research & Innovation (Espagne), le projet s’appuie sur 8 partenaires de 6 pays. On y retrouve, outre Tecnalia : Aalborg Universitet, Universita degli Studi di Genova, INRIA, Universitat de Valencia, Tecnalia Serbia Doo Beograd, Manus Machinae BV, SMARTEX S.R.L, IMMERSION.
Autrement dit, un regroupement qui comporte à la fois instituts de recherche et industriels. Ces derniers devront veiller à ce que le concept soit viable techniquement et commercialement.

Tactility

En pratique, cette première démonstration reposait sur l’électrostimulation (le même principe que les fameux engins qui ont fait la gloire des chaînes de télé-achat en vous promettant un corps parfait) : l’utilisateur plaçait trois doigts sur une série d’électrodes. Une démonstration en réalité mixte était ensuite affichée via un casque Hololens V2, le tout avec quelques effets sensoriels censés, par exemple, faire ressentir le déplacement de gauche à droite d’une moto virtuelle miniature qui roulait devant nos doigts.
Sans faire durer le suspense, le résultat actuel est aléatoire et assez décevant. Le système ne dispose pour le moment pas de calibration (pour s’adapter à une peau plus ou moins humide, par exemple) et les sensations varient beaucoup trop : une personne sentira un picotement très désagréable, une autre rien. De notre côté, nous avons ressenti une sensation équivalente à celle de poser un doigt sur les dents d’un peigne, mais seulement sur une partie des électrodes : pas de mouvement latéral perçu pour la moto.

Cette déception était attendue par l’équipe de Tactility : l’objectif de cette démonstration était justement, en partie, de recueillir des témoignages sur le ressenti et d’adapter le système.
Cet essai avait aussi en partie vocation à mettre en avant le projet de recherche. Nous aurons donc l’occasion d’aborder à nouveau Tactility au fur et à mesure de son avancée. Le projet était initialement prévu pour durer 36 mois, mais la situation actuelle pourra, on l’imagine, le retarder un peu. D’ici là, on pourra consulter le site officiel du projet.

Vue rapprochée des emplacements (en bas) sur lesquels l’utilisateur posait trois doigts.

L’article Tactility : l’avenir du gant à retour tactile ? est apparu en premier sur 3DVF.

Minecraft : des matériaux au path tracer, les secrets de la version raytracing

Par : Shadows

Elle n’est pas encore disponible, mais elle a déjà beaucoup fait parler d’elle : la future version raytracing du jeu Minecraft promet d’améliorer sensiblement les graphismes sans pour autant trahir l’esthétique du titre.

Pour parvenir à mettre en place cette approche, plusieurs étapes sont nécessaires : d’une part, la création d’un path tracer temps réel compatible avec NVIDIA RTX, et d’autre part la mise en place de matériaux PBR qui sauront en tirer parti.

C’est justement ce que présentent les deux vidéos ci-dessous, en environ 2h au total. En complément et notamment si vous comptez créer des matériaux pour cette nouvelle version, NVIDIA propose dans un article une série de liens dédiés avec guides, outils et tutoriels. On y trouvera en particulier un guide sur la création de textures PBR, et des bonnes pratiques pour convertir les mondes de la version Java vers RTX.

L’article Minecraft : des matériaux au path tracer, les secrets de la version raytracing est apparu en premier sur 3DVF.

Le Cryengine s’attaque enfin au marché mobile

Par : Shadows

Crytek annonce le lancement en beta d’un pipeline Android. Autrement dit, il devient enfin possible d’utiliser le moteur de jeu Cryengine sur des smartphones et tablettes.

Cette annonce fait suite à une première expérimentation par Crytek : le portage sur Oculus Quest, et donc du hardware mobile, de son jeu d’escalade en réalité virtuelle The Climb. A l’inverse, cette nouvelle initiative n’est qu’un début, l’annonce évoquant une “première étape”.

Vous pouvez dès à présenter tester ces nouvelles fonctionnalités en rejoignant le programme beta du moteur.

L’article Le Cryengine s’attaque enfin au marché mobile est apparu en premier sur 3DVF.

Kraken Pro dévoilé : mettez de l’ordre dans vos assets

Par : Shadows

Initialement présenté l’été passé au SIGGRAPH, voici Kraken Pro, solution développée par Turbosquid. Si l’entité est bien connue pour son marché de modèles 3D et textures, elle a beaucoup investi en R&D ces derniers temps, comme elle nous l’expliquait l’été passé.
Kraken Pro est directement issu de ces projets : il s’agit d’un service cloud qui promet de vous aider à organiser les assets de votre studio avec génération automatique de tags, métadonnées et vignettes, grâce entre autres à de l’intelligence artificielle.
Une fois la librairie en place, il est bien évidemment possible d’effectuer des recherches poussées (format, tag, etc) et de gérer collections, accès par une partie de l’équipe, etc.
Enfin, le tout peut évidemment s’intégrer dans un pipeline déjà en place et propose éditeur web 3D, conversion automatique.

On se rendra sur le site officiel pour plus de détails. Le prix relativement élevé du service le destine aux studios ; le tarif de base permet de gérer jusqu’à 10 000 modèles et 50 utilisateurs.

L’article Kraken Pro dévoilé : mettez de l’ordre dans vos assets est apparu en premier sur 3DVF.

Freak : Framestore évoque son nouveau moteur de rendu interne

Par : Shadows

A découvrir chez BeforeAndAfters, une interview de Mark Wilson (global head of CG) et Nathan Welster (head of rendering) du studio Framestore. Ils évoquent les raisons qui ont poussé l’entité à développer son propre moteur de rendu.

L’équipe explique son cheminement : après avoir basculé de RenderMan vers Arnold pour Gravity, le studio a développé énormément d’outils (shaders, intégrateurs, système de lights), pour arriver à un stade où, explique Mark Wilson, Arnold ne servait quasiment plus qu’à calculer les intersections entre rayons lumineux et géométries. A ce stade, une discussion interne a eu lieu sur l’intérêt de se passer totalement d’Arnold.

L’équipe a poursuivi dans cette voie, d’où l’émergence de son moteur “Freak”.

Framestore souligne que le coût d’un moteur interne est souvent nettement plus élevé que celui de l’achat de licences, mais le studio a des besoins spécifiques et travaille sur des projets à très grande échelle qui rendent viable le développement interne. Les deux interviewés soulignent que le moteur Freak est très modulaire, et a véritablement débuté en production avec Alita:Battle Angel.

D’autres points sont évoqués, comme le rendu GPU, le cloud, le machine learning ou encore USD. Nous vous invitons à lire l’ interview pour en savoir plus.

L’article Freak : Framestore évoque son nouveau moteur de rendu interne est apparu en premier sur 3DVF.

Production virtuelle et murs de LEDs : Pixomondo dans la lignée de The Mandalorian

Par : Shadows

Pixomondo dévoile en vidéo une expérimentation mise en place en février dernier avec le SIRT Centre, APG Displays et Epic Games. A Toronto, le studio a créé une démonstration des possibilités de la production virtuelle.

L’ensemble évoque évidemment le travail d’ILM, The Third Floor et Epic Games sur la série The Mandalorian (à ce sujet, voir notamment notre interview de The Third Floor, agrémentée d’un making-of vidéo par ILM).
Trois pans de mur affichaient le décor virtuel, une caméra servant à la prise de vue. Cette dernière était manifestement trackée (on peut d’ailleurs voir des caméras de motion capture surplomber le plateau). A noter aussi, à la 54ème seconde, l’aperçu d’un système permettant d’ajouter des sources d’éclairage à volonté : l’opérateur pointe la position voulue sur un mur, définit couleur, taille et puissance. L’idée est évidemment intéressante : elle reste dans l’optique d’utiliser le mur de leds à la fois comme décor et comme source d’éclairage, sans matériel supplémentaire, mais permet en même temps de dépasser les limites d’un simple éclairage par le décor et d’ajouter une touche de créativité. On peut par exemple imaginer utiliser ce genre de source pour créer un effet de rim lighting sur une chevelure, ou améliorer les reflets sur un regard.

Une chose est en tous cas claire : ILM n’est sans surprise pas le seul studio à s’intéresser aux techniques de production virtuelle les plus récentes. On peut donc s’attendre à voir exploser le nombre de projets qui feront appel à ces méthodes.

L’article Production virtuelle et murs de LEDs : Pixomondo dans la lignée de The Mandalorian est apparu en premier sur 3DVF.

NVIDIA lance une série de vidéos sur le raytracing

Par : Shadows

NVIDIA avait récemment publié en ligne Ray Tracing Gems, un ensemble de bonnes pratiques autour du raytracing temps réel disponibles sous forme d’un livre gratuit et destiné aux développeurs.

Eric Haine de NVIDIA, qui supervisait cet ouvrage, se lance désormais dans une série de vidéos sur le même sujet. En anglais, elles visent là aussi les développeurs, y compris les personnes n’ayant pas de bases sur le sujet : NVIDIA cherche clairement ici à faire de l’évangélisation afin de favoriser l’essor de sa technologie RTX pour les années à venir.

Trois vidéos sont déjà en ligne.

Les bases du raytracing :

Le raytracing face à la technique classique de la rastérisation :

Enfin, le matériel optimisé pour le raytracing :

L’article NVIDIA lance une série de vidéos sur le raytracing est apparu en premier sur 3DVF.

Pliant® Technologies Announces New U.S. Manufacturer’s Reps

AUBURN, AL, MARCH 3, 2020 — Pliant Technologies, a leading provider of professional wireless intercom solutions, has launched a new manufacturer’s representatives initiative with the appointment of three new firms: Highway Marketing, Plus Four Marketing, and Sigmet Corporation. With this new independent manufacturer’s representatives strategy, Pliant has expanded its reach and can provide top-of-the-line intercom ...

The post Pliant® Technologies Announces New U.S. Manufacturer’s Reps appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Houston Livestock Show And Rodeo™ Saddles Up With Pliant® Technologies’ CrewCom®

HOUSTON, FEBRUARY 19, 2020 — When Jason Martin, coms A1, and Dave Cheramie, coms A2, were tasked with integrating a new, modern intercom system for the Houston Livestock Show and Rodeo at NRG Stadium, the duo found a solution to meet all of their production needs with Pliant Technologies’ CrewCom wireless intercom system. For the ...

The post Houston Livestock Show And Rodeo™ Saddles Up With Pliant® Technologies’ CrewCom® appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

S&K Technologies, Inc. Acquires International Towers Incorporated (ITI)

    Last year, S&K Technologies, Inc. recently acquired the Tucson-based International Towers Incorporated (ITI), which will take place at the 2020 NAB Show. SKT CEO Chad Cottet states “acquiring ITI expands SKT service and capability offering into the Cellular and Broadband communications, tower and broadcast infrastructure, and security markets. Much like SKT, ITI has ...

The post S&K Technologies, Inc. Acquires International Towers Incorporated (ITI) appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Bulldog Broadcasting Network Leverages Studio Technologies’ Audio Solutions

Students Now Using Advanced Dante®-based Party-line Intercom for Enhanced Classroom Experience   KEARNEY, MO, JANUARY 8, 2020 – Kearney High School in Missouri provides students with firsthand broadcast experience through its Bulldog Broadcasting Network (BBN). The broadcasting class allows students to cover about 25 football and basketball games aired on ESPN3 each year, along with ...

The post Bulldog Broadcasting Network Leverages Studio Technologies’ Audio Solutions appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Barnfind Technologies Expands Operations in Asia with Launch of Singapore Office

Barnfind Technologies Expands Operations in Asia with Launch of Singapore Office Team of industry veterans tapped to lead growth initiative in key region Singapore – 8 January 2019 — Barnfind Technologies, manufacturer of multi-functional, signal neutral fiber transport solutions, today announced the opening of a new office located in Singapore. The office, which will serve ...

The post Barnfind Technologies Expands Operations in Asia with Launch of Singapore Office appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

TAG Video Systems Continues International Expansion by Appointing Graphic Image Technologies as its Distributor in South Africa

TAG Video Systems Continues International Expansion by Appointing Graphic Image Technologies as its Distributor in South Africa Provider of software-based, IP Multiviewers, Probing and Monitoring solutions grows presence in key region Tel Aviv – December 3, 2019 — TAG Video Systems, the world leader in integrated software-based IP Probing Monitoring and Multiviewer solutions has appointed ...

The post TAG Video Systems Continues International Expansion by Appointing Graphic Image Technologies as its Distributor in South Africa appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

❌