Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

TAG Video Systems Continues International Expansion by Appointing Graphic Image Technologies as its Distributor in South Africa

Par Desert Moon Communications

TAG Video Systems Continues International Expansion by Appointing Graphic Image Technologies as its Distributor in South Africa Provider of software-based, IP Multiviewers, Probing and Monitoring solutions grows presence in key region Tel Aviv – December 3, 2019 — TAG Video Systems, the world leader in integrated software-based IP Probing Monitoring and Multiviewer solutions has appointed ...

The post TAG Video Systems Continues International Expansion by Appointing Graphic Image Technologies as its Distributor in South Africa appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Barnfind Technologies Expands Operations in Asia with Launch of Singapore Office

Par Desert Moon Communications

Barnfind Technologies Expands Operations in Asia with Launch of Singapore Office Team of industry veterans tapped to lead growth initiative in key region Singapore – 8 January 2019 — Barnfind Technologies, manufacturer of multi-functional, signal neutral fiber transport solutions, today announced the opening of a new office located in Singapore. The office, which will serve ...

The post Barnfind Technologies Expands Operations in Asia with Launch of Singapore Office appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Bulldog Broadcasting Network Leverages Studio Technologies’ Audio Solutions

Par D Pagan Communications

Students Now Using Advanced Dante®-based Party-line Intercom for Enhanced Classroom Experience   KEARNEY, MO, JANUARY 8, 2020 – Kearney High School in Missouri provides students with firsthand broadcast experience through its Bulldog Broadcasting Network (BBN). The broadcasting class allows students to cover about 25 football and basketball games aired on ESPN3 each year, along with ...

The post Bulldog Broadcasting Network Leverages Studio Technologies’ Audio Solutions appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Witbe And Sofrecom Now Partners As They Support Customers In Indonesia With QoE Technologies

Par Andres Benetar

  Last October, Witbe (Euronext Growth – FR0013143872 – ALWIT), the leader in Quality of Experience Monitoring, proudly announced a new partnership with PT Sofrecom Indonesia, a consulting and engineering firm specializing in telecommunications. This partnership will take place at the 2020 NAB Show in Las Vegas. It will allow Sofrecom to offer support and ...

The post Witbe And Sofrecom Now Partners As They Support Customers In Indonesia With QoE Technologies appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

S&K Technologies, Inc. Acquires International Towers Incorporated (ITI)

Par Andres Benetar

    Last year, S&K Technologies, Inc. recently acquired the Tucson-based International Towers Incorporated (ITI), which will take place at the 2020 NAB Show. SKT CEO Chad Cottet states “acquiring ITI expands SKT service and capability offering into the Cellular and Broadband communications, tower and broadcast infrastructure, and security markets. Much like SKT, ITI has ...

The post S&K Technologies, Inc. Acquires International Towers Incorporated (ITI) appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE.

Aquifer : de la motion capture faciale abordable grâce à votre smartphone

Par Shadows

Découvrez Aquifer, un nouveau service de motion capture low cost. La plateforme s’appuie sur votre smartphone (iPhone X et plus récent pour le moment, mais une gestion Android est prévue) pour capturer vos expressions faciale puis les exporter.

Aquifer explique pouvoir capturer une cinquantaine de mouvements musculairs, y compris yeux et langue, à 60fps ; les données peuvent ensuite être prévisualisées puis exportées en FBX avec audio et vidéo, pour un usage dans votre outil favori.

Un second mode est encore plus rapide : les données sont directement streamées en temps réel vers Unity, avec la possibilité d’ajouter des exagérations au passage. Les mouvements sont lissés en temps réel pour nettoyer le résultat.
Ce mode sera bientôt également proposé avec Unreal Engine.

Sur le plan tarifaire, le service Aquifer est proposé sous forme d’abonnement mensuel. Le tarif est très accessible, le service étant encore en beta. A noter, 15 jours d’essai sont proposés.

L’article Aquifer : de la motion capture faciale abordable grâce à votre smartphone est apparu en premier sur 3DVF.

Aquifer : de la motion capture faciale abordable grâce à votre smartphone

Par Shadows

Découvrez Aquifer, un nouveau service de motion capture low cost. La plateforme s’appuie sur votre smartphone (iPhone X et plus récent pour le moment, mais une gestion Android est prévue) pour capturer vos expressions faciale puis les exporter.

Aquifer explique pouvoir capturer une cinquantaine de mouvements musculairs, y compris yeux et langue, à 60fps ; les données peuvent ensuite être prévisualisées puis exportées en FBX avec audio et vidéo, pour un usage dans votre outil favori.

Un second mode est encore plus rapide : les données sont directement streamées en temps réel vers Unity, avec la possibilité d’ajouter des exagérations au passage. Les mouvements sont lissés en temps réel pour nettoyer le résultat.
Ce mode sera bientôt également proposé avec Unreal Engine.

Sur le plan tarifaire, le service Aquifer est proposé sous forme d’abonnement mensuel. Le tarif est très accessible, le service étant encore en beta. A noter, 15 jours d’essai sont proposés.



L’article Aquifer : de la motion capture faciale abordable grâce à votre smartphone est apparu en premier sur 3DVF.

Capcom présente les technologies de son moteur de jeu propriétaire, RE Engine

Par Shadows

En octobre dernier, Capcom (Resident Evil, Monster Hunter) organisait une conférence au cours de laquelle l’entreprise a présenté ses dernières innovations techniques. Si l’utilisation de Houdini/Houdini Engine a été évoquée, c’est le moteur de jeu maison, le RE Engine, qui a occupé la majorité de la présentation.

Voici les vidéos enregistrées à cette occasion. Le tout est en japonais, mais il est possible d’avoir des sous-titres approximatifs via l’interface Youtube : activez les sous-titres puis avec la roue dentée sélectionnez “traduction automatique” dans la rubrique sous-titres.

On pourra en particulier jeter un oeil aux sessions 3-1 (rigging modulaire), 3-2 (retargeting, synchronisation de personnages), 3-3 (animation procédurale, motion matching) et 4-1 (physique, animations secondaires).

Via GameAnim.

L’article Capcom présente les technologies de son moteur de jeu propriétaire, RE Engine est apparu en premier sur 3DVF.

Le studio Creative Assembly dévoile son pipeline et ses techniques de rig/animation

Par Shadows

La chaîne Youtube de la Game Developers Conference a mis en ligne une conférence donnée par Michael Malinowski en 2018. Ce dernier y dévoile les coulisses du fameux studio de jeux vidéo Creative Assembly, connu pour son travail sur les titres et licences Total War, Alien: Isolation et Halo Wars 2.

La conférence se concentre sur les outils de rigging, animation et pipeline employés par l’équipe.

L’article Le studio Creative Assembly dévoile son pipeline et ses techniques de rig/animation est apparu en premier sur 3DVF.

Houston Livestock Show And Rodeo™ Saddles Up With Pliant® Technologies’ CrewCom®

Par D Pagan Communications

HOUSTON, FEBRUARY 19, 2020 — When Jason Martin, coms A1, and Dave Cheramie, coms A2, were tasked with integrating a new, modern intercom system for the Houston Livestock Show and Rodeo at NRG Stadium, the duo found a solution to meet all of their production needs with Pliant Technologies’ CrewCom wireless intercom system. For the ...

The post Houston Livestock Show And Rodeo™ Saddles Up With Pliant® Technologies’ CrewCom® appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Studio Technologies Announces New Dante-enabled StudioComm Multichannel Monitoring Solution at NAB 2020

Par D Pagan Communications

LAS VEGAS, FEBRUARY 20, 2020 – Studio Technologies introduces its new StudioComm Dante Audio-over-IP-enabled multichannel monitoring system, the Model 792 Central Controller and the Model 793 Control Console, at NAB 2020 (Booth C7049). The new system combines a robust rack-mounted main electronics unit with a desktop user control surface. The “fully-pro” signal path uses programmable ...

The post Studio Technologies Announces New Dante-enabled StudioComm Multichannel Monitoring Solution at NAB 2020 appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Les technologies du Mandalorien bientôt disponibles sous Unreal Engine

Par Shadows

Dans notre interview de Chris Edwards en partie consacrée à la série The Mandalorian, ce dernier expliquait que The Third Floor et ILM avaient travaillé étroitement avec Unreal Engine pour mettre en place le pipeline utilisé, et notamment le fameux affichage sur panneaux LED.

Dans un bref article, Jeff Farris d’Epic Games fait le bilan de cette expérience.
L’éditeur souligne que certains outils ont été développés, améliorés ou éprouvés dans le cadre du projet : les outils de collaboration multi-utilisateurs, le nDisplay System qui permet à un groupe de machines de rendre en temps réel des images massives de façon synchronisée, le système de compositing en direct qui a permis d’avoir des aperçus temps réel des séquences.
Epic Games évoque aussi le contrôle du mur de LEDs via un iPad, ou la possibilité d’enregistrer les données issues de prises de vue dans le Sequencer.

Toutes ces fonctionnalités, souligne Epic Games, sont soit déjà présentes dans Unreal Engine 4.24, soit arriveront dans la version 4.25. Comme nous l’expliquait Chris Edwards dans notre interview, Epic Games a bien compris que la production virtuelle représentait un marché intéressant. La guerre avec Unity se poursuit donc, pour le plus grand bien des utilisateurs qui se voient dotés d’outils toujours plus puissants.

On peut par conséquent s’attendre à voir de plus en plus de projets adopter le système de LEDs du Mandalorien, à petite ou grande échelle. Lors d’une la soirée de démonstration de motion capture chez Effigy, le 15 janvier dernier, des studios et techniciens français avaient d’ailleurs ouvertement indiqué leur intérêt pour cette approche.

L’article Les technologies du Mandalorien bientôt disponibles sous Unreal Engine est apparu en premier sur 3DVF.

Pliant® Technologies Announces New U.S. Manufacturer’s Reps

Par D Pagan Communications

AUBURN, AL, MARCH 3, 2020 — Pliant Technologies, a leading provider of professional wireless intercom solutions, has launched a new manufacturer’s representatives initiative with the appointment of three new firms: Highway Marketing, Plus Four Marketing, and Sigmet Corporation. With this new independent manufacturer’s representatives strategy, Pliant has expanded its reach and can provide top-of-the-line intercom ...

The post Pliant® Technologies Announces New U.S. Manufacturer’s Reps appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

NVIDIA lance une série de vidéos sur le raytracing

Par Shadows

NVIDIA avait récemment publié en ligne Ray Tracing Gems, un ensemble de bonnes pratiques autour du raytracing temps réel disponibles sous forme d’un livre gratuit et destiné aux développeurs.

Eric Haine de NVIDIA, qui supervisait cet ouvrage, se lance désormais dans une série de vidéos sur le même sujet. En anglais, elles visent là aussi les développeurs, y compris les personnes n’ayant pas de bases sur le sujet : NVIDIA cherche clairement ici à faire de l’évangélisation afin de favoriser l’essor de sa technologie RTX pour les années à venir.

Trois vidéos sont déjà en ligne.

Les bases du raytracing :

Le raytracing face à la technique classique de la rastérisation :

Enfin, le matériel optimisé pour le raytracing :

L’article NVIDIA lance une série de vidéos sur le raytracing est apparu en premier sur 3DVF.

Production virtuelle et murs de LEDs : Pixomondo dans la lignée de The Mandalorian

Par Shadows

Pixomondo dévoile en vidéo une expérimentation mise en place en février dernier avec le SIRT Centre, APG Displays et Epic Games. A Toronto, le studio a créé une démonstration des possibilités de la production virtuelle.

L’ensemble évoque évidemment le travail d’ILM, The Third Floor et Epic Games sur la série The Mandalorian (à ce sujet, voir notamment notre interview de The Third Floor, agrémentée d’un making-of vidéo par ILM).
Trois pans de mur affichaient le décor virtuel, une caméra servant à la prise de vue. Cette dernière était manifestement trackée (on peut d’ailleurs voir des caméras de motion capture surplomber le plateau). A noter aussi, à la 54ème seconde, l’aperçu d’un système permettant d’ajouter des sources d’éclairage à volonté : l’opérateur pointe la position voulue sur un mur, définit couleur, taille et puissance. L’idée est évidemment intéressante : elle reste dans l’optique d’utiliser le mur de leds à la fois comme décor et comme source d’éclairage, sans matériel supplémentaire, mais permet en même temps de dépasser les limites d’un simple éclairage par le décor et d’ajouter une touche de créativité. On peut par exemple imaginer utiliser ce genre de source pour créer un effet de rim lighting sur une chevelure, ou améliorer les reflets sur un regard.

Une chose est en tous cas claire : ILM n’est sans surprise pas le seul studio à s’intéresser aux techniques de production virtuelle les plus récentes. On peut donc s’attendre à voir exploser le nombre de projets qui feront appel à ces méthodes.

L’article Production virtuelle et murs de LEDs : Pixomondo dans la lignée de The Mandalorian est apparu en premier sur 3DVF.

Freak : Framestore évoque son nouveau moteur de rendu interne

Par Shadows

A découvrir chez BeforeAndAfters, une interview de Mark Wilson (global head of CG) et Nathan Welster (head of rendering) du studio Framestore. Ils évoquent les raisons qui ont poussé l’entité à développer son propre moteur de rendu.

L’équipe explique son cheminement : après avoir basculé de RenderMan vers Arnold pour Gravity, le studio a développé énormément d’outils (shaders, intégrateurs, système de lights), pour arriver à un stade où, explique Mark Wilson, Arnold ne servait quasiment plus qu’à calculer les intersections entre rayons lumineux et géométries. A ce stade, une discussion interne a eu lieu sur l’intérêt de se passer totalement d’Arnold.

L’équipe a poursuivi dans cette voie, d’où l’émergence de son moteur “Freak”.

Framestore souligne que le coût d’un moteur interne est souvent nettement plus élevé que celui de l’achat de licences, mais le studio a des besoins spécifiques et travaille sur des projets à très grande échelle qui rendent viable le développement interne. Les deux interviewés soulignent que le moteur Freak est très modulaire, et a véritablement débuté en production avec Alita:Battle Angel.

D’autres points sont évoqués, comme le rendu GPU, le cloud, le machine learning ou encore USD. Nous vous invitons à lire l’ interview pour en savoir plus.

L’article Freak : Framestore évoque son nouveau moteur de rendu interne est apparu en premier sur 3DVF.

Kraken Pro dévoilé : mettez de l’ordre dans vos assets

Par Shadows

Initialement présenté l’été passé au SIGGRAPH, voici Kraken Pro, solution développée par Turbosquid. Si l’entité est bien connue pour son marché de modèles 3D et textures, elle a beaucoup investi en R&D ces derniers temps, comme elle nous l’expliquait l’été passé.
Kraken Pro est directement issu de ces projets : il s’agit d’un service cloud qui promet de vous aider à organiser les assets de votre studio avec génération automatique de tags, métadonnées et vignettes, grâce entre autres à de l’intelligence artificielle.
Une fois la librairie en place, il est bien évidemment possible d’effectuer des recherches poussées (format, tag, etc) et de gérer collections, accès par une partie de l’équipe, etc.
Enfin, le tout peut évidemment s’intégrer dans un pipeline déjà en place et propose éditeur web 3D, conversion automatique.

On se rendra sur le site officiel pour plus de détails. Le prix relativement élevé du service le destine aux studios ; le tarif de base permet de gérer jusqu’à 10 000 modèles et 50 utilisateurs.

L’article Kraken Pro dévoilé : mettez de l’ordre dans vos assets est apparu en premier sur 3DVF.

Le Cryengine s’attaque enfin au marché mobile

Par Shadows

Crytek annonce le lancement en beta d’un pipeline Android. Autrement dit, il devient enfin possible d’utiliser le moteur de jeu Cryengine sur des smartphones et tablettes.

Cette annonce fait suite à une première expérimentation par Crytek : le portage sur Oculus Quest, et donc du hardware mobile, de son jeu d’escalade en réalité virtuelle The Climb. A l’inverse, cette nouvelle initiative n’est qu’un début, l’annonce évoquant une “première étape”.

Vous pouvez dès à présenter tester ces nouvelles fonctionnalités en rejoignant le programme beta du moteur.

L’article Le Cryengine s’attaque enfin au marché mobile est apparu en premier sur 3DVF.

Minecraft : des matériaux au path tracer, les secrets de la version raytracing

Par Shadows

Elle n’est pas encore disponible, mais elle a déjà beaucoup fait parler d’elle : la future version raytracing du jeu Minecraft promet d’améliorer sensiblement les graphismes sans pour autant trahir l’esthétique du titre.

Pour parvenir à mettre en place cette approche, plusieurs étapes sont nécessaires : d’une part, la création d’un path tracer temps réel compatible avec NVIDIA RTX, et d’autre part la mise en place de matériaux PBR qui sauront en tirer parti.

C’est justement ce que présentent les deux vidéos ci-dessous, en environ 2h au total. En complément et notamment si vous comptez créer des matériaux pour cette nouvelle version, NVIDIA propose dans un article une série de liens dédiés avec guides, outils et tutoriels. On y trouvera en particulier un guide sur la création de textures PBR, et des bonnes pratiques pour convertir les mondes de la version Java vers RTX.

L’article Minecraft : des matériaux au path tracer, les secrets de la version raytracing est apparu en premier sur 3DVF.

Tactility : l’avenir du gant à retour tactile ?

Par Shadows

Avant de devoir comme la majorité d’entre vous se confiner, l’équipe 3DVF a pu assister à une démonstration associée aux premiers balbutiements de Tactility, un ambitieux projet de recherche européen.

Le principe : sur 3 ans et avec 3,8 millions d’euros de budget, penser et prototyper des gants avec retour tactile pour la réalité virtuelle/augmentée. Attention, il ne s’agit pas ici de retour de force (avec une sensation d’appui quand les doigts serrent un objet virtuel) mais plutôt de faciliter les interactions via le ressenti physique, de la même manière que le “clic” d’une souris apporte une information plus intéressante que le ressenti physique de sa forme.
Cette approche répond finalement assez bien à un souci que nous avons pu avoir en utilisant des systèmes VR/AR/MR dans des conditions dégradées, avec par exemple les gestes d’interaction de l’Hololens V1 qui ne provoquaient pas de retour (visuel ou autre) : l’utilisateur ne savait donc pas si la commande était prise en compte.

Tactility
Le concept de ce que devrait donner le projet Tactility : des gants dotés de capacités d’électrostimulation.

Le projet de recherche Tactility va évidemment au-delà de ce simple cas, et l’étendue des applications dépendra essentiellement de la palette de sensations proposées. Interfaces, accessibilité font évidemment partie des cibles les plus évidentes.
Coordonné par Tecnalia Research & Innovation (Espagne), le projet s’appuie sur 8 partenaires de 6 pays. On y retrouve, outre Tecnalia : Aalborg Universitet, Universita degli Studi di Genova, INRIA, Universitat de Valencia, Tecnalia Serbia Doo Beograd, Manus Machinae BV, SMARTEX S.R.L, IMMERSION.
Autrement dit, un regroupement qui comporte à la fois instituts de recherche et industriels. Ces derniers devront veiller à ce que le concept soit viable techniquement et commercialement.

Tactility

En pratique, cette première démonstration reposait sur l’électrostimulation (le même principe que les fameux engins qui ont fait la gloire des chaînes de télé-achat en vous promettant un corps parfait) : l’utilisateur plaçait trois doigts sur une série d’électrodes. Une démonstration en réalité mixte était ensuite affichée via un casque Hololens V2, le tout avec quelques effets sensoriels censés, par exemple, faire ressentir le déplacement de gauche à droite d’une moto virtuelle miniature qui roulait devant nos doigts.
Sans faire durer le suspense, le résultat actuel est aléatoire et assez décevant. Le système ne dispose pour le moment pas de calibration (pour s’adapter à une peau plus ou moins humide, par exemple) et les sensations varient beaucoup trop : une personne sentira un picotement très désagréable, une autre rien. De notre côté, nous avons ressenti une sensation équivalente à celle de poser un doigt sur les dents d’un peigne, mais seulement sur une partie des électrodes : pas de mouvement latéral perçu pour la moto.

Cette déception était attendue par l’équipe de Tactility : l’objectif de cette démonstration était justement, en partie, de recueillir des témoignages sur le ressenti et d’adapter le système.
Cet essai avait aussi en partie vocation à mettre en avant le projet de recherche. Nous aurons donc l’occasion d’aborder à nouveau Tactility au fur et à mesure de son avancée. Le projet était initialement prévu pour durer 36 mois, mais la situation actuelle pourra, on l’imagine, le retarder un peu. D’ici là, on pourra consulter le site officiel du projet.

Vue rapprochée des emplacements (en bas) sur lesquels l’utilisateur posait trois doigts.

L’article Tactility : l’avenir du gant à retour tactile ? est apparu en premier sur 3DVF.

❌