Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

SubtitleNEXT attracts attention in Europe at APTRAD and Languages and Media conferences

Par : RadianceC

Studios take a keen interest in SubtitleNEXT’s performance-leading Live Subtitling capabilities         In response to audience requests following these recent successful events, the team at SubtitleNEXT will be holding a series of technology “SubtitleNEXT Friday Workshops” as of mid-October onwards, to demonstrate how to create subtitles from scratch or from source. The ...

The post SubtitleNEXT attracts attention in Europe at APTRAD and Languages and Media conferences appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Grâce à l’IA, l’expérience du stade depuis votre canapé

Par : Shadows

Depuis plusieurs années, des projets visent à améliorer l’immersion au sein des matches sportifs, en permettant aux spectateurs d’observer le terrain sous tous les angles.

De nombreux projets, une mise en place complexe

Dès 2017, nous vous avions par exemple parlé de Free Viewpoint Video System, un projet de Canon. Intel a lancé une initiative similaire avec True View. Dans les deux cas, l’idée est de disposer une armée de caméras autour du terrain, afin de générer de la vidéo volumétrique qui peut ensuite être observée sous tous les angles.

Dans le même esprit, Unity vient de dévoiler Metacast, qui utilise là aussi de la vidéo volumétrique.

Outre le fait de proposer de nouvelles images aux téléspectateurs, ces techniques peuvent avoir d’autres applications : VR, analyse de stratégie d’équipe, optimisation des performances sportives, arbitrage, etc.

Toutes ces annonces sont prometteuses, mais elles ont plusieurs défauts, comme la nécessité de devoir utiliser un ensemble complexe de caméras synchronisées. Le volume de données à traiter pose aussi question, d’autant que le temps réel est indispensable pour ce marché.

L’IA, une alternative ?

C’est ici qu’intervient un projet de R&D de l’ingénieur en vision informatique Guillaume Chican, qui propose une alternative beaucoup moins contraignante : n’utiliser qu’une seule caméra, et laisser le deep learning faire le reste.

Guillaume Chican (que nous avions déjà eu l’occasion de croiser durant Laval Virtual 2017, sur un tout autre projet) nous explique que dans son approche, le deep learning est utilisé à la fois pour la capture de la géométrie et le rendu des joueurs. Dans la vidéo de démonstration ci-dessous, qui alterne prises de vue réelles et survols du match générés par son approche, seul le terrain est créé avec du rendu 3D classique. Les joueurs sont entièrement confiés au machine learning.

Si la méthode n’a pour le moment été testée que sur du football, elle se déclinerait sans difficulté sur d’autres sports comme le basket, le tennis. En revanche, des disciplines comme le rugby poseront sans doute des défis, certaines manœuvres comme les mêlées représentant des cas très spécifiques qui demanderont probablement un développement dédié.
La technique n’est pas encore temps réel, mais Guillaume Chican y travaille. Un autre axe d’amélioration étant de proposer un rendu de meilleure qualité.

En termes d’usages, cette approche pourrait comme les propositions d’Intel, Canon et Unity être utilisée pour proposer de nouvelles images aux spectateurs, avec des analyses de matches, des retours sur une action précise, ou encore la possibilité, en temps réel, de changer de point de vue (un peu à la manière d’un jeu vidéo). En revanche, comme le rendu neural implique que l’image est générée de toutes pièces, un usage en arbitrage serait sans doute exclu.

Guillaume Chican souligne que combinée à un dispositif de réalité augmentée ou virtuelle, sa technique permettrait aux fans de reproduire l’expérience du stade grâce à une loge virtuelle, entre amis.

A noter enfin : puisque le système ne nécessite pas de matériel lourd, on peut imaginer un déploiement moins coûteux et plus facile. De quoi, peut-être, et dans un futur plus ou moins lointain, rendre cette technique accessible à davantage d’équipes, au sport amateur ou encore au secteur de l’éducation…
Pour le moment, nous n’en sommes évidemment pas là.

Pour en savoir plus

Pour toute question, Guillaume Chican peut être contacté sur LinkedIn.

L’article Grâce à l’IA, l’expérience du stade depuis votre canapé est apparu en premier sur 3DVF.

Material Jetting VS Binder Jetting : quel procédé choisir ?

Si les procédés de fabrication additive sont nombreux, certains se ressemblent sur certains points : matériaux utilisés, source de chaleur employée, tête d’impression, etc. On pense par exemple au Material Jetting et au Binder Jetting qui consistent à jeter, projeter…

Cover-VS-final

Pliant Technologies Releases 4-Wire Adapter for MicroCom XR

4-Wire I/O and Two-Way Radio Interface Enhances System’s Flexibility AUBURN, AL, SEPTEMBER 20, 2021 — Offering a solution to enhance the flexibility of its MicroCom XR wireless intercom system, Pliant Technologies announces the new 4-Wire I/O Interface and Two-Way Radio Headset Adapter (PAC-MC4W-IO). Designed with MicroCom XR wireless intercom customers’ workflows in mind, this small-but-mighty ...

The post Pliant Technologies Releases 4-Wire Adapter for MicroCom XR appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Pliant Technologies’ CrewCom Enhances Production Workflow for Auburn Community Church

Simple-to-operate and Easy to Set-up, CrewCom Proves Reliable for In-person and Live-stream Services AUBURN, AL, AUGUST 24, 2021 — Founded by a group of families committed to doing church differently, Auburn Community Church (ACC) is a non-denominational worship center that hosts both in-person and live-stream services for a diverse congregation. The church recently upgraded to ...

The post Pliant Technologies’ CrewCom Enhances Production Workflow for Auburn Community Church appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

SIGGRAPH 2021 : Adobe évoque avenir de Substance 3D, projets de recherche

Par : Shadows

A l’occasion du SIGGRAPH 2021, Adobe a voulu dévoiler quelques éléments sur l’avenir de sa gamme Substance 3D.

Sébastien Deguy (Vice-Président, 3D & Immersive – Adobe), Guido Quaroni (Senior Director of Engineering) et l’équipe de recherche Adobe ont donc pris une trentaine de minutes pour présenter à la fois quelques éléments des prochaines mises à jour, mais aussi des projets de R&D : l’occasion, donc, de revenir sur certaines publications techniques.

L’article SIGGRAPH 2021 : Adobe évoque avenir de Substance 3D, projets de recherche est apparu en premier sur 3DVF.

SIGGRAPH 2021 : Les meilleurs projets temps réel de l’année avec Real-Time Live!

Par : Shadows

Rendez-vous incontournable du SIGGRAPH, Real-Time Live présente chaque année une sélection de concepts innovants dans le secteur du temps réel, avec une règle d’or : les démonstrations sont faites en direct.

Au menu cette année, des liens entre arts et numérique, des projets sur les avatars et la communication, ou encore une vision de la classe du futur.
Vous pouvez découvrir ci-dessous l’enregistrement complet.
Si votre temps est précieux, nous vous proposons plus bas un résumé des différents concepts : vous pourrez ensuite revenir sur la vidéo et, avec les timings listés juste en-dessous, cibler uniquement les démos qui vous intéressent.

4:07 – The LiViCi Music Series : Real-Time Immersive Musical Circus Performance
10:59 – I am AI – AI-driver Digital Avatar made easy
18:40 – Shading Rig: Dynamic Art-Directable Stylised Shading for 3D characters
25:31 Coretet : VR Musical Instruments for the 21st Century
32:53 Technical Art Behind the Animated Shot « Windup »
40:37 Future Classroom
47:25 Normalized Avatar Digitization for Communication in VR

LiViCi : quand le cirque rencontre les nouvelles technologies

Premier projet de la sélection, le LiViCi (« Live and Virtual Circus ») était présenté par Athomas Goldberg, Samuel Tetreault en direct depuis le plateau de motion capture d’Animatrik Film Design. Le concept : mêler les arts du cirque avec les outils de motion capture et production virtuelle.
En pratique, des artistes exécutent une performance sur le plateau de motion capture ; celle-ci est retranscrite en temps réel sur des avatars 3D, avec une caméra virtuelle qui « filme » la scène. Des éléments live sont également intégrés à la scène, de sorte que l’on peut voir en même temps un artiste et son avatar.

Ce projet a reçu le prix du public (Audience Choice Award).

I Am AI : grâce à NVIDIA, de la visioconférence sans webcam !

Second projet de cette sélection 2021 : le résultat des travaux de NVIDIA Research. leur idée est d’utiliser le deep learning pour animer des avatars créés à partir d’une simple photo, à l’aide d’audio ou de texte. Ce sont uniquement ces derniers qui sont transmis afin d’animer l’avatar : aucun flux vidéo n’est envoyé, d’où des économies de bande passante.

Concrètement, vous pouvez donc utiliser une photo formelle de vous-même comme source pour l’avatar d’une réunion de travail, tout en étant en pyjama ou sur une plage. Et si des travaux font trop de bruit, au lieu de continuer à parler, vous pouvez taper au clavier le texte que prononcera l’avatar.

NVIDIA oblige, le système s’appuie sur le GPU. Il tourne à plus de 20fps avec une carte RTX.
Enfin, si vous souhaitez changer de tête, NVIDIA a aussi présenté un système de génération d’avatars stylisé.

Bien évidemment, cette innovation a aussi ses revers : une telle technologie facilite l’usurpation d’identité.

I am AI a remporté le Best in Show Award, prix décerné par un jury de professionnels du secteur.

Shading Rig : le toon shading s’améliore !

Le toon shading est une méthode classique pour donner un effet 2D à des animations 3D, mais les techniques d’ombrage actuelles posent problème : l’ombrage par défaut crée souvent des artefacts disgracieux nécessitant un nettoyage, et les techniques pour adoucir les ombres donnent généralement quelque chose de trop plat.
Lohit Petikam, Ken Anjyo, Taehyun Rhee présentent ici une approche qui permet d’avoir un résultat dynamique tout en conservant un bon contrôle sur le style, avec corrections dynamiques.

Coretet : la musique du 21ème siècle sera-t-elle virtuelle ?

Rob Hamilton est revenu sur un concept surprenant d’instruments de musique en réalité virtuelle, avec à la fois des instruments existants (violon, violoncelle…) et un autre totalement expérimental.
De quoi imaginer une nouvelle étape pour l’histoire des instruments électroniques après le thérémine, les premiers synthétiseurs ou encore la harpe laser de Jean-Michel Jarre. Et si, demain, les instruments virtuels se démocratisaient ? La réponse d’ici quelques années.

Windup : retour sur le court-métrage réalisé sous Unity

Chris Kang nous a proposé une très sympathique démonstration des coulisses de Windup, court-métrage/démo technique créée sous Unity. Timeline, contrôles divers, animation des feuilles, génération de racines en quelques clics à partir de curves ou encore shader pour donner un effet de vitre gelée dont partie des éléments présentés.

Et si vous aviez manqué le court quand nous l’avions publié, le revoici en intégralité :

Les cours du futur selon Ken Perlin

Ken Perlin (oui, le même qui a donné son nom au Perlin Noise de vos logiciels) du NYU Future Reality Lab, Zhenyi He, Un Joo Christopher, Kris Layng ont travaillé sur un projet de classe futuriste pour l’enseignement de la 3D.

L’idée est de rejeter l’approche classique et les réunions zoom au profit d’une classe immersive, à laquelle on accède via un écran classique ou en VR. Le système proposé (CLAY Software) permet une continuité entre les enseignements, passant par exemple de la création d’un personnage à son shading.
Si le concept peut sembler encore assez perfectible, nul doute que ces initiatives progresseront avec le temps, d’autant que le projet est open source.

Des avatars pour la VR

Enfin, McLean Goldwhite, Zejian Wang, Huiwen Luo, Han-Wei Kung, Koki Nagano, Liwen Hu, Lingyu Wei, Hao Li ont dévoilé un système de génération d’avatar pour la VR.

A partir d’une simple photo et d’un StyleGAN (technique d’intelligence artificielle), un visage 3D est généré ; dans les exemples présentés, les lunettes sont automatiquement supprimées s’il y en a sur la photo.
Un corps complet, riggé de façon paramétrique, est également créé. Le résultat : un avatar complet à votre image, qui s’anime en fonction de vos mouvements grâce aux manettes de l’Oculus Quest 2 (mais aussi via une gestion automatique des mouvements des pieds). Même les lèvres bougent et son animées quand la personne parle.

Des projets très divers

Arts expérimentaux, avatars, animation et école du futur : cette édition du Real-Time Live était éclectique et riche en concepts. Elle nous a offert une vision de ce qui nous attend peut-être à plus grande échelle dans les années à venir.
Nous avons particulièrement apprécié que le salon conserve au maximum le principe de démonstrations en direct, malgré la dématérialisation.

L’article SIGGRAPH 2021 : Les meilleurs projets temps réel de l’année avec Real-Time Live! est apparu en premier sur 3DVF.

SIGGRAPH 2021: la NASA vous emmène en voyage sur un astéroïde !

Par : Shadows

Si le festival d’animation du SIGGRAPH fait la part belle aux courts-métrages (notamment français), on y trouve aussi d’autres types de projets, comme des breakdowns de studios VFX ou de la visualisation scientifique.

C’est cette dernière catégorie qui nous intéresse aujourd’hui, puisque la NASA fait partie de la sélection grâce à son travail autour de l’astéroïde Bennu.

La mission spatiale OSIRIS-REx avait en effet permis de 2018 à 2020 de récolter un aperçu détaillé du sol, grâce à plusieurs techniques d’imagerie combinées. Le studio de visualisation scientifique du Goddard Space Flight Center, lui-même affilié à la NASA, en a tiré une « Visite de l’astéroïde Bennu » : un voyage de 5 minutes environ qui vous présentera les principales caractéristiques de cet astre céleste, avec un niveau de détail époustouflant.

Dan Gallagher (KBRwyle): Producer Kel Elkins (USRA): Lead Visualizer Rob Andreoli (AIMM): Videographer Ernie Wright (USRA): Visualizer Aaron E. Lepsch (ADNET): Technical Support

L’équipe a également dévoilé un making-of, qui explique que le relief est issu des données LiDAR captées lors de la mission spatiale OSIRIS-REx, habillées avec l’imagerie satellite de cette même mission. Tout est donc réel : les détails ne sont pas générés artificiellement.
L’équipe souligne également l’importance du lighting pour aider les spectateurs à comprendre le relief de rochers aux formes très complexes.
Enfin, la vidéo souligne que l’acquisition des données a été progressive : au fur et à mesure que la sonde spatiale se rapprochait de l’astéroïde, la sonde a capté des données de plus en plus précises, permettant d’affiner le modèle utilisé.

L’article SIGGRAPH 2021: la NASA vous emmène en voyage sur un astéroïde ! est apparu en premier sur 3DVF.

SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ?

Par : Shadows

A première vue, Neural Scene Graph Rendering est une publication anodine, voire décevante : avec des résultats qui se limitent à des rendus de scènes 2D et 3D particulièrement basiques, on peut même se demander si l’on est bien en 2021.

Mais les apparences sont trompeuses.

Le meilleur des deux mondes

Les auteurs de la publication, Jonathan Granskog, Till Schnabel, Fabrice Rousselle, Jan Novak de NVIDIA, nous proposent en fait ici davantage qu’un simple projet de recherche : leurs travaux s’inscrivent dans une vision à long terme, qui pourrait révolutionner la manière dont nous rendons nos scènes.

En effet, on dispose actuellement de deux approches radicalement différentes pour effectuer un rendu, autrement dit générer une image :

  • Le rendu 3D « classique », qui règne en maître dans les effets visuels et l’animation 3D, permet de créer des scènes très diverses mais pour lequel le photoréalisme parfait est très difficile à atteindre.
Projet Meet Mike (SIGGRAPH 2017) : un exemple des capacités du rendu 3D (ici, 3D temps réel)
  • Le rendu neural : il s’agit ici de rendu s’appuyant sur les techniques d’intelligence artificielle (deep learning).
    Les outils que vous avez pu voir ces dernières années qui créent des portraits d’humains qui n’existent pas, ou les outils GauGAN/Canvas de NVIDIA permettant de créer des paysages à partir d’une simple esquisse, font partie de cette catégorie.
    Ici, la « représentation neurale » sera un ensemble de variables, et le « moteur de rendu neural » sera la partie de l’outil qui génère l’image finale.
Images générées par un StyleGAN : aucun de ces humains n’est réel, les visages ont été créées par une intelligence artificielle.

Si l’on compare les deux approches, et par exemple dans le cas du rendu d’un visage, on a d’un côté le rendu 3D qui crée des résultats très bons mais sans doute pas aussi bons que l’approche neurale, qui s’appuie « juste » sur une architecture adaptée et la phase d’apprentissage à partir d’un ensemble de données.

Inversement, expliquent les auteurs de la publication, si l’on veut modifier le résultat (par exemple générer un visage d’extraterrestre), le rendu 3D permet facilement de changer le matériau ou le modèle utilisés. L’approche neurale, en revanche, est fortement contrainte par les données d’apprentissage et produire un résultat radicalement différent de ces données sera difficile.

En haut, le rendu 3D classique
En bas, le rendu neural

Souplesse, contrôle artistique, réalisme… Au fond, chaque approche a ses avantages et inconvénients.

D’où la vision à long terme qui sous-tend la publication : au lieu d’opposer les techniques, pourquoi ne pas les combiner ? Pourquoi ne pas générer des images en partie avec du rendu neural, en partie avec un moteur de rendu 3D classique ?
Par exemple, suggèrent les auteurs, le rendu neural pourrait se charger des parties difficiles à gérer avec le rendu 3D classique comme les visages, la fourrure.

L’idée est alléchante, mais n’est à ce stade qu’une simple idée. Reste donc à la concrétiser et à faire cohabiter deux approches qui n’ont rien à voir.

Une scène 3D rendue sans moteur de rendu classique

Nous arrivons enfin au projet de recherche proprement dit : l’équipe s’est intéressée à la façon dont un scene graph classique, autrement dit la description d’une scène 3D dans un outil traditionnel (avec liste des modèles, leur position, matériaux…) pourrait être traduite en représentation neurale, puis envoyée à un moteur de rendu neural.

A ce stade, il ne s’agit donc pas encore de mêler les rendus, mais uniquement de faire en sorte que des scènes 3D classiques puissent être « comprises » et traitées par une approche neurale.

L’équipe est parvenue à des résultats concluants, et en montre quelques exemples :

  • Une animation de volley :
  • un petit outil qui permet d’éditer en temps réel un scene graph neural, et avec rendu neural : autrement dit, sur cette session de création 3D, les objets et leurs matériaux, le rendu de la scène ne sont pas gérés par du rendu 3D classique mais bien par de l’intelligence artificielle.
  • La méthode peut aussi être appliquée à des animations 2D à base de sprites : là encore, le visuel est donc issu de rendu neural, pas d’un moteur 2D.

Retour vers la vision globale

Encore une fois, ces premiers résultats restent très basiques, mais il faut les considérer avec du recul : ce sont des tests précurseurs, pas une méthode destinée à être utilisée dès demain en studio.

En revanche, avec ces essais, l’équipe de recherche a prouvé la validité de son concept. L’approche a pu être appliquée a des cas variés et a donc un bon potentiel de généralisation a des situations et usages très différents.

Une première brique est donc posée vers la vision plus large évoquée par les auteurs, avec à terme une interopérabilité entre les maillons de la chaîne de rendu 3D classique et celle du rendu neural.

Pour autant, est-ce vraiment le début d’une révolution ? Réponse dans quelques années, selon les progrès techniques qui seront accomplis.

Pour aller plus loin, nous vous invitons à visionner cette vidéo de présentation d’une quinzaine de minutes, et en particulier le passage à partir de la 30ème seconde, qui revient sur cette vision à long terme.
Vous pouvez aussi consulter la page de la publication : Neural Scene Graph Rendering.

L’article SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ? est apparu en premier sur 3DVF.

4 jours pour tester les outils de production virtuelle d’Unreal Engine

Par : Shadows

Le collectif Bullitt et Epic Games ont récemment mis en place un test concret des outils VFX in-camera faisant partie des fonctionnalités de production virtuelle du futur Unreal Engine 4.27.

L’idée était de se placer dans une situation concrète proche des conditions classiques de production.

Le tout a été filmé sur le plateau LED de NantStudios, à Los Angeles, et l’équipe a été en mesure « de produire des pixels finalisés en tout juste quatre jours », annonce fièrement Epic Games.

Voici le résultat : un petit court-métrage avec acteurs, véhicule, et un mix de décors réels et viruels.

Au niveau technique, le projet s’est appuyé sur Level Snapshots (qui permet de matcher facilement les prises précédentes lorsque l’on revient sur un décor ou éclairage déjà utilisés), des outils d’interface pour un contrôle du système depuis un ordinateur portable ou une tablette, et la gestion colorimétrique OpenColorIO.

Des détails supplémentaires sont disponibles dans la vidéo ci-dessous et au sein d’un article dédié.

L’article 4 jours pour tester les outils de production virtuelle d’Unreal Engine est apparu en premier sur 3DVF.

MaterialX rejoint l’ASWF

Par : Shadows

L’Academy Software Foundation (ASWF), fondation pour les projets open source liés aux secteurs du cinéma et du divertissement, accueille un nouveau projet.
Après OpenColorIO, OpenEXR, OpenVDB ou encore Open Shading Language, c’est désormais MaterialX qui rejoint l’entité.

Initié en 2012 chez Lucasfilm, MaterialX est deveni au fil des ans le format principal utilisé par ILM pour décrire les matériaux. Rendu open-source en 2017, il a notamment été adopté par Pixar et Sony Pictures ImageWorks. Ce standard a par ailleurs été intégré dans de nombreux outils classiques du marché : Maya, 3ds Max, Substance Designer, RenderMan, Arnold, USD, Autodesk Standard Surface.

En devenant un projet ASWF officiel, MaterialX devrait continuer à se répandre, tout en bénéficiant des contributions issues des studios. D’autant plus que MaterialX répond à un vrai besoin : celui du transfert de matériaux entre outils.

En pratique, un « steering commitee » supervisera la maintenance et le développement de MaterialX. Ce comité comportera notamment des personnes de Lucasfilm, Pixar, Sony, Autodesk, Adobe, Foundry, SideFX, NVIDIA, Epic Games.

L’article MaterialX rejoint l’ASWF est apparu en premier sur 3DVF.

Global Growth Prompts TAG to Add Three to International Team

Global Growth Prompts TAG to Add Three to International Team Eitan Dvir joins as VP of Customer Success, Nir Cang as Director of Technical Operations, and Chris Welsh as Product Specialist  Tel Aviv — July 1, 2021 – Global growth has prompted TAG Video Systems to expand its international team with the appointment of three ...

The post Global Growth Prompts TAG to Add Three to International Team appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Mosaic Manufacturing : matériaux multiples, potentiel infini

Par : Thomas B.

Mosaic Manufacturing est une entreprise canadienne qui s’est fait connaître en 2014 en commercialisant la Palette. Cet équipement vient se connecter à une imprimante 3D à dépôt de filament et permet d’obtenir des pièces polychromes et multi-matériaux sans avoir à…

cover_article-mosaic-nouveautes

Le Multimaterial Dryer, une solution pour protéger ses bobines contre l’humidité

Par : Thomas B.

Industry Supplies est un fabricant relativement discret qui s’est notamment fait connaître pour avoir développé en 2018 l’imprimante 3D Portrait de KODAK. En parallèle, la société a développé sa propre marque dénommée Smart3D sous laquelle elle produit une imprimante 3D…

multimaterial-dryer-0
❌