Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 12 août 2022Vos flux RSS

Du plasma pour vos étoiles numériques

Par : Shadows
Temps de lecture : 3 minutes

De nombreux films, séries ont mis en scène des étoiles vues de très près. On pourra citer Sunshine (2007), Passengers (2016).
Représenter une étoile en gros plan est un défi, surtout si l’objectif est de mettre en scène la turbulente atmosphère de ces astres.
La couronne de notre soleil, par exemple, zone la plus externe de son atmosphère, présente une apparence fibreuse en raison de plasma éjecté dans l’espace, qui forme des filaments influencés par le champ magnétique. Ces éléments donnent des plans mémorables au cinéma, avec des étoiles à la texture riche et complexe. On trouve évidemment ce même type d’effet dans des jeux vidéo, ou pour de la visualisation scientifique.

Sunshine (2007)
Passengers (2016)

Au SIGGRAPH 2022, la publication Filament Based Plasma propose une nouvelle approche pour produire ce genre de résultat.
Le projet de recherche propose de modéliser ces effets de plasma à l’aide de filaments sous forme de courbes mathématiques, dont la configuration initiale peut être créée artistiquement ou générée de façon procédurale. L’équipe explique qu’une simple map de la surface de l’étoile, définissant le flux magnétique, permet de contrôler artistiquement l’effet.

En bas, la map créée par un artiste pour définir le flux magnétique. En haut le résultat final.

Dans les deux cas, des équations issues de la physique sont ensuite utilisées pour déterminer la forme des filaments, mais aussi pour calculer la lumière émise (effet de glow). Le rendu est effectué sous Houdini à l’aide de Mantra.

Nous éviterons ici de trop nous focaliser sur la technique sous-jacente (la publication complète, Filament Based Plasma, vous donnera plus de détails sur le plan physique et mathématique). Nous nous concentrerons plutôt sur la qualité du résultat d’un point de vue artistique, et sa proximité avec le réel. Et justement, l’équipe propose quelques comparaisons :

  • Au milieu, le champ magnétique solaire durant une éclipse totale. A droite, la méthode de la publication.
  • Images obtenues avec la méthode de la publication (« ours ») et images réelles (« footage ») capturées dans les longueurs d’ondes UV et rayons X.
  • Au centre, images réelles capturées le 21 octobre 2011 ; à droite un rendu obtenu avec la méthode proposée.

La vidéo de présentation, visible ci-dessous, montre plus de résultats, y compris avec des animations.

Si la méthode n’est pas temps réel, les temps de calcul restent très raisonnables : moins d’une minute pour les plans du soleil complet de la vidéo en 1080p et sur un Ryzen 7 5800X CPU, sachant que l’équipe souligne que l’essentiel des calculs pourraient être parallélisés sur GPU.

Filament Based Plasma est un projet de recherche présenté par Marcel Padilla (TU Berlin), Oliver Gross (TU Berlin), Felix Knöppel (TU Berlin), Albert Chern (UC San Diego), Ulrich Pinkall (TU Berlin), Peter Schröder (Caltech).

L’article Du plasma pour vos étoiles numériques est apparu en premier sur 3DVF.

MoonRay, le moteur de rendu de DreamWorks, devient open source !

Par : Shadows
Temps de lecture : 2 minutes

A l’occasion du SIGGRAPH 2022, DreamWorks Animation annonce que son moteur de rendu MoonRay va être mis à disposition en open source d’ici la fin de l’année.

MoonRay a été utilisé sur des films d’animation tels que Les Bad Guys, Les Croods 2, Dragons 3 : Le Monde Caché et le futur Le Chat potté 2 : la dernière quête (prévu pour la fin de l’année, et pour lequel nous vous proposerons bientôt une interview).

Sur le plan technique, MoonRay fait du raytracing Monte Carlo. Il comporte une librairie de matériaux physiques utilisés en production, un USD Hydra render delegate, gère le rendu multi-stations et le rendu dans le cloud via le framework de calcul distribué Arras (lui aussi inclus dans le code qui sera rendu open source), explique DreamWorks.
Le studio ajoute que MoonRay permet à la fois de faire du rendu photoréaliste et stylisé, qu’il propose un mode pixel matching XPU : en clair, les rayons lors du rendu peuvent être traités sur GPU et CPU en parallèle.
MoonRay s’appuie par ailleurs sur plusieurs technologies d’Intel, comme Embree et sa librairie dédiée au raytracing, ou le système de compilation ISPC. Le rendu de hair, fur a lui aussi été développé en collaboration avec Intel.

MoonRay sera proposé sous licence Apache 2.0 sur un site dédié. Nous vous tiendrons informés de sa mise à disposition ; d’ici là, nous vous invitons à regarder la vidéo ci-dessous, proposée par DreamWorks, qui met en avant les principales qualités de ce moteur de rendu.

L’article MoonRay, le moteur de rendu de DreamWorks, devient open source ! est apparu en premier sur 3DVF.

Avec sa démo Lion, Unity dévoile son avenir

Par : Shadows
Temps de lecture : < 1 minute

Unity présente au SIGGRAPH 2022 sa nouvelle démo technologique : Lion.

Cette démo temps réel combine différentes technologies du groupe : les outils Wētā Digital rachetés fin 2021, SpeedTree, Ziva, SyncSketch et l’Editor de Unity ont été employés.
Unity avance que la démo tourne à 30fps en 4K sur une PS5, mais ne permet pour le moment pas de le vérifier : il faudra vous contenter d’une vidéo, aucun téléchargement n’est disponible à ce stade.

Initialement, Lion était une démo non téemps réel mise au point par des élèves de la Monster Emporium Animation School, avec des lions créés grâce aux outils de Ziva VFX qui permet de simuler muscles et tissus mous. Unity a mis à jour cette démo pour la rendre temps réel, grâce notamment au système de déformations en machine learning de Ziva RT. Ces déformations sont exécutées dynamiquement dans le nouveau Ziva RT Unity player lancée en preview durant le SIGGRAPH 2022.
La démo s’appuie également sur la végétation de l’outil SpeedTree, ainsi que sur Wig, l’outil de hair et fur de Wētā Digital actuellement en pré-alpha.
Unity explique que le rendu et la simulation améliorés du hair visibles dans cette démo seront disponibles dans la version 2023.1 Tech Stream.

Enfin, l’équipe étant répartie dans différents pays, l’outil de collaboration SyncSketch a été indispensable pour mener à bien le projet.

L’article Avec sa démo Lion, Unity dévoile son avenir est apparu en premier sur 3DVF.

Comment Pixar améliore la diversité de ses personnages

Par : Shadows
Temps de lecture : 6 minutes

Ces dernières années, les studios Pixar ont fait plusieurs pas en direction d’une plus grande diversité dans leurs films d’animation. Une démarche qui se traduit derrière la caméra (Alerte rouge de Domee Shi est le premier des films du studio entièrement réalisé par une femme) mais aussi devant la caméra, avec des films d’animation tels que Soul, Alerte Rouge.

Au SIGGRAPH 2022, Pixar nous en dit un peu plus sur la manière dont cette volonté se traduit au sein du processus créatif, jusque dans les personnages secondaires, avec un outil dédié et une réflexion sur plusieurs années.

Soul et biais inconscients

Durant la production de Soul, le studio voulait coller à la réalité des quartiers de New York représentés à l’image : l’idée était que l’on verrait dans les foules et personnages d’arrière-plan 80 % de personnes issues de minorités (Afro-Américains, latinos, personnes d’origine asiatique, etc) et 50 % d’hommes et de femmes. Une bibliothèque de personnages correspondant à cette volonté fut donc créée. De cette manière, les foules générées aléatoirement auraient les bonnes proportions.
En pratique cependant, pour les personnages d’arrière-plan choisis manuellement, la même répartition était très différente : selon les calculs fait manuellement par l’équipe, sur les trois premières séquences entamées au début de la production, on trouvait 50 % de personnes issues de minorités, 70 % d’hommes.

Cela posait deux problèmes :

  • une diversité très inférieure à la direction artistique voulue, et absolument pas représentative des quartiers bien réels qui inspiraient le film ;
  • une partie des personnages se trouvaient utilisés bien trop souvent : 20 % d’entre eux étaient visibles 50 % du temps.

Un biais inconscient de la part des équipes avait donc fait dériver l’objectif, mais ces statistiques permirent d’ajuster le tir et, sur l’ensemble du film, on trouve 80 % de minorités, 48 % d’hommes, 52 % de femmes, un résultat quasi identique à la volonté de départ.

Pour Pixar, la conclusion était claire : disposer de statistiques automatisées aurait été d’une grande aide afin que l’équipe puisse, si elle le souhaitait, disposer d’éléments concrets pour contrer d’éventuels biais inconscients.

Soul
Crédit : Disney-Pixar

Ce type de réflexion n’est pas nouveau, comme l’explique l’équipe dans la présentation dévoilée au SIGGRAPH : des entités et initiatives ont déjà montré l’intérêt de mesurer la diversité, comme le Geena Davis Institute on Gender in Media, la Netflix + USC Annenberg Inclusion Initiative. La seconde a par exemple permis de souligner que la présence de rôles féminins parlants au sein des films les plus populaires aux USA était d’environ 34 % seulement en 2019, un chiffre stable depuis 10 ans. Les statistiques montrent par exemple que la part de femmes réalisatrices varie du simple au triple selon le studio : une analyse étant alors de voir dans ces disparités le reflet de choix et biais de recrutement, conscients ou non, et non pas un supposé déficit de femmes réalisatrices compétentes.

Reste à voir comment faire évoluer la situation. Dans sa présentation, Pixar souligne que comme un petit nombre de studios domine le box-office, ceux-ci ont un rôle potentiel énorme sur les représentations vues par le public.
Plutôt que d’attendre que les rapports évoqués plus haut soient mis à jour, une fois que les films sont sortis, les gros studios qui souhaitent plus de diversité dans leurs projets peuvent par conséquent choisir d’agir en amont, pendant la création des films.

Characater Linker : le chaînon manquant vers plus de diversité ?

D’où l’idée de mettre en place un outil au sein du pipeline de Pixar permettant de mesurer la diversité en prenant en compte tous les personnages d’un film donné, appelé Character Linker.

Character Linker
Character Linker
Crédit : Disney-Pixar

Ci-dessus à gauche, l’outil affiche tous les personnages du film.
À droite, les personnages de la séquence sélectionnée.
En bas, des statistiques sur leur répartition dans différentes catégories : genre, ethnicité, âge, morphologie, etc.
L’affichage des statistiques peut se faire sous forme de camembert mais aussi de barres : dans ce cas, Character Linker affiche aussi, s’il y en a, l’objectif ciblé pour le film.

On peut par exemple utiliser l’outil pour ajuster les personnages d’une scène. Une cour d’école manque de jeunes filles ? Il suffit alors de cliquer sur les parts de camembert « young » et « female », afin d’afficher à gauche les personnages de la bibliothèque qui correspondent, puis sélectionner un ou plusieurs de ces personnages et les ajouter à la séquence. Les statistiques de la scène sont ajustées en temps réel.
Character Linker gère aussi les « lineups » de personnages : des groupes précis comme, pour reprendre l’exemple de Pixar, des personnes travaillant sur un chantier visible dans le film.
Il est également possible de visualiser ces chiffres à l’échelle d’un plan, d’un acte du film, ou du film entier.
Mieux encore : une fois les personnages placés dans une scène, on peut disposer de chiffres sur leur temps effectif de présence à l’écran, mais aussi sur leur visibilité à l’image (un personnage distant ou coupé par le cadre est moins visible qu’un personnage en gros plan).
Enfin, les métadonnées OTIO (OpenTimelineIO) issues des dialogues audio permettent d’avoir des chiffres sur le temps de parole des personnages et groupes de personnage.

En coulisses, Character Linker s’appuie sur quatre étapes :

  • le tagging des personnages ;
  • l’identification, plan par plan, de la présence des personnages et de leur degré de visibilité ;
  • l’agrégation des données ainsi générées ;
  • leur visualisation.

Du côté technique, Pixar explique que l’identification se fait via une base de données tenue à jour lors du traitement des plans de la production, grâce à l’analyse des fichiers USD de ces plans (pour chaque frame, on calcule quels personnages sont visibles, et leur degré de visibilité dans l’image). L’usage d’USD plutôt que de faire des rendus finalisés permet de traiter plus rapidement les scènes.
L’agrégation va ensuite consister à récupérer ces données, les condenser pour en tirer les statistiques voulues. Elle se fait chaque nuit.

Mise en pratique avec Alerte Rouge

Le film Alerte Rouge a été l’occasion d’utiliser Character Linker. La réalisatrice Domee Shi avait le sentiment que l’école de l’héroïne, censée se situer dans le Chinatown de Toronto, ne collait pas à la réalité : il y avait trop peu d’élèves ayant des origines en Asie orientale, et elle en voulait deux fois plus. Character Linker a permis à l’équipe crowds d’analyser les personnages, et de constater que 20 % des élèves étaient originaires d’Asie orientale. Ils ont alors ajusté quelques groupes clés de personnages qui avaient une forte présence à l’écran, et ce taux est passé à plus de 40 %. Le résultat, approuvé par la réalisatrice, aida à valider l’utilité de Character Linker, qui avait donc permis d’agir rapidement et efficacement pour coller à la vision artistique du projet.

Alerte Rouge et son école.
Crédit : Disney-Pixar

Quelles pistes pour l’avenir ?

Pixar explique que si Character Linker est utile, son outil mérite tout de même des améliorations.
Par exemple, la visibilité à l’écran pourrait être affinée : un personnage au centre de l’écran ou mis en valeur par l’éclairage a plus d’impact qu’un personnage dans un coin sombre de l’écran. Les techniques de machine learning pourraient aider à pondérer la visibilité par cet impact plus ou moins grand qu’ont les pixels aux yeux des spectateurs.
En outre, les assets sont régulièrement personnalisés sur certains plans : Pixar donne l’exemple de fauteuils roulants, souvent ajoutés à la main et non pas présents dans les assets de départ. Pouvoir les suivre par des statistiques serait sans doute utile.

Pixar souligne également que son système a des limites et fait face à des défis. Il est évidemment difficile de l’appliquer dans certains contextes comme les films avec des personnages non humains. De plus, la diversité ne se limite pas à l’apparence des personnes : elle peut aussi passer par le storytelling, comme l’a montré le couple du très récent Buzz L’Eclair (voir notre interview du réalisateur et de la productrice, qui évoque cet aspect de diversité).
Par ailleurs, appliquer des labels implique des choix qui ne sont pas neutres : on peut définir des catégories plus ou moins large, en choisissant par exemple de créer un label « Asie orientale » ou de scinder par zone géographique/pays (Japon, Chine, Corée…). Sans compter les personnes ayant des origines mixtes.

En clair : il convient de rester très prudent face à ces outils, qui ne sont pas une solution miracle applicable aveuglément. Les catégories étudiées, les tags utilisés sont susceptibles d’évoluer d’un film à l’autre et doivent être questionnés au fil des projets et du temps.

Enfin, l’équipe du projet explique avoir eu des craintes au départ : ce type d’approche peut générer controverses et critiques. Mais les personnes du studio ont rapidement accueilli l’initiative positivement. Character Linker a été vu comme un moyen de disposer de plus d’informations pour faire de meilleurs films, pas comme un outil de contrôle ou d’accusation.

Pour en savoir plus, une publication est disponible chez Pixar, en accès libre. Si vous disposez d’une accréditation SIGGRAPH 2022, vous pouvez voir la présentation vidéo du projet, plus détaillée.

Character Linker est présenté au SIGGRAPH 2022 par Paul J. Kanyuk, Mara MacMahon, Emily Wilson, Peter Nye, Jessica Heidt, Joshua Minor des studios Pixar, Gordon Cameron d’Epic Games.

Pour aller plus loin

  • Vous pouvez suivre 3DVF sur YoutubeTwitterInstagramLinkedInFacebook.
  • Ci-dessous, notre interview d’Angus MacLane et Galyn Susman de Pixar, sur Buzz L’Eclair : à partir de 1 minute 20, l’équipe discute du personnage d’Alisha et de la question de la diversité et sa représentation à l’écran.

L’article Comment Pixar améliore la diversité de ses personnages est apparu en premier sur 3DVF.

NVIDIA allège vos données volumétriques : NeuralVDB, le futur d’OpenVDB ?

Par : Shadows
Temps de lecture : 2 minutes

NVIDIA dévoile au SIGGRAPH la technologie NeuralVDB, présentée comme le moyen « d’amener la puissance de l’IA dans OpenVDB ».

OpenVDB est pour rappel une librairie informatique largement utilisée dans les effets visuels et l’animation pour la simulation et le rendu de données volumétriques. OpenVDB comporte à la fois une structure de données et des outils.
En bref, donc : OpenVDB est un élément indispensable pour les simulations d’eau, feu, fumée en animation et effets visuels.

NeuralVDB propose de faire évoluer ce standard, avec à la clé des gains séduisants : jusqu’à 100 fois moins de mémoire utilisée, ce qui est un atout majeur étant donné la place imposante souvent demandée par les simulations.
Il devient donc possible de travailler sur des simulations plus lourdes, ou de les manipuler sur des stations de travail bien moins puissantes.

En outre, NeuralVDB s’appuie aussi sur les avancées de la librairie NanoVDB, présentée l’an passé par NVIDIA et qui permettait d’apporter de l’accélération GPU au sein d’OpenVDB, avec des gains de performances suffisants (selon NVIDIA) pour permettre d’envisager de la simulation et du rendu en temps réel.

Plus léger, plus rapide, NeuralVDB permet par ailleurs d’utiliser les données d’une frame pour la suivante. NVIDIA explique que cela permet d’accélérer l’entraînement par 2, et d’apporter de la cohérence temporelle. En clair, vous aurez moins besoin d’effets tels que le motion blur pour obtenir un résultat satisfaisant.

Reste désormais à voir si NeuralVDB débarquera dans nos outils, et quand. L’adoption ne devrait pas rencontrer de gros freins techniques, selon NVIDIA, qui explique avoir pensé NeuralVDB pour assurer la compatibilité avec les pipelines VDB existants. Le groupe promet une beta « bientôt » : nous suivrons donc ce dossier de près.
Si vous le souhaitez, une page dédiée chez NVIDIA permet de s’inscrire pour recevoir les futures annonces liées à cette technologie.

L’article NVIDIA allège vos données volumétriques : NeuralVDB, le futur d’OpenVDB ? est apparu en premier sur 3DVF.

Omniverse DeepSearch : ne triez plus vos assets, NVIDIA cherche pour vous !

Par : Shadows
Temps de lecture : < 1 minute

NVIDIA profite du SIGGRAPH pour officialiser l’arrivée de DeepSearch dans Omniverse Enterprise.

Derrière cet outil se cache une promesse simple : utiliser l’IA pour effectuer des recherches dans des bibliothèques d’assets, sans avoir à les tagger.

Pour les studios d’animation, effets visuels ou encore de jeux vidéo, l’intérêt est évident : ne plus avoir à s’infliger le travail fastidieux de classement et ajout de tags, mais aussi pouvoir réutiliser des assets qui n’avaient jamais été correctement triés et soigneusement rangés dans une bibliothèque.

DeepSearch est donc désormais disponible dans la version Enterprise (payante) d’Omniverse.
NVIDIA en profite pour montrer ce que donne DeepSearch en pratique chez ILM. Le studio explique en vidéo comment DeepSearch lui permet d’explorer sa collection massive de photos d’environnements avec ciel, qui ont été prises aux quatre coins du monde. Puisque DeepSearch gère le langage naturel, des requêtes comme « gloomy moody sky » (ciel maussade et sombre) sont donc comprises par le système.

Rappelons au passage que notre partenaire Progiss est revendeur des solutions Omniverse. Si vous souhaitez en savoir plus, vous pouvez les contacter par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com.
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Roissy, à côté de Paris) ou dans les vôtres.

L’article Omniverse DeepSearch : ne triez plus vos assets, NVIDIA cherche pour vous ! est apparu en premier sur 3DVF.

Unity et Microsoft, main dans la main dans le cloud

Par : Shadows
Temps de lecture : < 1 minute

Unity et Microsoft annoncent un nouveau partenariat : Unity va s’appuyer sur les services cloud de Microsoft (Azure) pour proposer de nouveaux services au secteur de la création.

En bref, il s’agira de proposer des outils ou service tirant parti des capacités du cloud en matière de stockage (par exemple pour des projets très lourds en données, comme les jumeaux numériques) ou de calcul (par exemple pour de la simulation).
Unity rappelle d’ailleurs que certains de ses produits s’appuient déjà sur le cloud sous une forme ou une autre : Unity Game Services, Parsec, DevOps, Wētā Digital, Digital Twins, PIXYZ, Unity Headless Rendering, etc.

Nous suivrons évidemment les annonces à venir concernant les conséquences de cette nouvelle. Notons enfin que Unity et Microsoft ont déjà annoncé des partenariats stratégiques par le passé : il s’agit donc de la poursuite d’une collaboration de longue date.

L’article Unity et Microsoft, main dans la main dans le cloud est apparu en premier sur 3DVF.

Open Review Initiative : cap vers l’open source pour Autodesk, DNEG, Sony #SIGGRAPH2022

Par : Shadows
Temps de lecture : 2 minutes

L’Academy Software Foundation (ASWF),  fondation dédiée aux projets open source liés aux secteurs du cinéma et du divertissement, annonce au SIGGRAPH le lancement d’un nouveau projet centré sur la revue de projet et nommé Open Review Initiative.
Plusieurs entités majeures apportent leur contribution : Autodesk, les studios DNEG et Sony Pictures Imageworks.

Un Comité pour les unifier tous

L’objectif du projet est simple : travailler sur la mise en place d’un système d’outils open source unifié pour le playback et le reviewing de médias liés au secteur du cinéma (et donc, notamment, de vidéos, séquences d’images), utilisable tout au long de la production.

Autodesk, DNEG et Sony Pictures Imageworks apportent du code déjà en place : Autodesk rend RV open source, DNEG fait de même avec son outil xSTUDIO, et enfin Sony Pictures ImageWorks verse une partie de l’écosystème itView.
De quoi éviter de réinventer la roue, et réutiliser des briques déjà éprouvées en production.

Rappelons au passage que RV est issu d’un rachat d’Autodesk auprès de Tweak Software, en 2015 ; la technologie avait ensuite été intégrée au sein de la solution de gestion de production ShotGrid. Autodesk indique que cette nouvelle n’est pas à voir comme un abandon, et que l’éditeur compte bien continuer à assurer le support commercial de RV, via l’écosystème ShotGrid.

Quelles étapes ?

Le Technical Steering Committee (TSC), comité en charge de chapeauter l’initiative, aura fort à faire : tout en se focalisant sur le playback dans un premier temps, le but sera de faire converger graduellement les trois sources de code afin d’aboutir à un framework cohérent et moderne, capable de gérer à la fois la revue et l’approbation des contenus.
En pratique, le comité sera composé à la fois d’employés des trois entreprises qui contribuent et d’ingénieurs, utilisateurs de l’industrie.
Les personnes intéressées et souhaitant contribuer au projet peuvent d’ailleurs consulter la page « getting involved » de l’ASWF.

Pour l’heure, aucune roadmap précise n’est annoncée : il faudra donc patienter et suivre les avancées du projet dans les mois à venir.

L’outil RV d’Autodesk

L’article Open Review Initiative : cap vers l’open source pour Autodesk, DNEG, Sony #SIGGRAPH2022 est apparu en premier sur 3DVF.

À partir d’avant-hierVos flux RSS

BHV Unleashes Outsourced Engineering Paradigm at IBC to Answer Industry Need for Reduced Risk and Lower Development Costs

BHV Unleashes Outsourced Engineering Paradigm at IBC to Answer Industry Need for Reduced Risk and Lower Development Costs Company Returns to Amsterdam with Market Leading Technology Design and Development Available as a Service Owslebury, UK – 25 July 2022 – Re-branded and expanded, BHV is returning to IBC 2022 with a new logo, look and […]

The post BHV Unleashes Outsourced Engineering Paradigm at IBC to Answer Industry Need for Reduced Risk and Lower Development Costs appeared first on Broadcast Beat.

OptiTrack to Preview Motive 3.1 at SIGGRAPH 2022

At SIGGRAPH 2022, 3D tracking systems provider OptiTrack will preview Motive 3.1, the latest iteration of its robust motion tracking software featuring ‘Trained Marketsets.’ With the new feature, OptiTrack systems will enable users to track flexible and dynamic objects beyond biped skeletons, such as quadrupeds, fabric, ropes, and even trampolines, and do so with industry-leading […]

The post OptiTrack to Preview Motive 3.1 at SIGGRAPH 2022 appeared first on Broadcast Beat.

Ateliere Media Supply Chain Solutions Modernize OTT Workflows and Supercharge Content Libraries in the Cloud at IBC2022

Cloud-native solutions enable customers to onboard immense content libraries and key workflows into the cloud in days; advanced deduplication technology reduces storage footprint by up to 70%, lowering cloud costs and carbon imprint Beverly Hills, CA – August 4, 2022 – Ateliere Creative Technologies, a leader in media supply chain solutions, invites IBC2022 attendees to […]

The post Ateliere Media Supply Chain Solutions Modernize OTT Workflows and Supercharge Content Libraries in the Cloud at IBC2022 appeared first on Broadcast Beat.

Telestream to Showcase Latest Solutions Encompassing Production Through Distribution at IBC 2022

At IBC 2022, Telestream (Booth 7.C16), a global leader in digital media, both file-based and live, will demonstrate its comprehensive portfolio of solutions that empower production and post production teams, operations personnel, and engineers to ensure the highest quality customer experience while providing maximum business value. IBC 2022 will provide the first showcase of the company’s […]

The post Telestream to Showcase Latest Solutions Encompassing Production Through Distribution at IBC 2022 appeared first on Broadcast Beat.

Marshall Takes Pan-Tilt-Zoom Camera Technology to the Next Level with Debut of its First 4K60 Digital ePTZ Camera at 2022 IBC Show

New CV420e Features an Impressive 9 1/2 Megapixel 4K Sensor and USB3.0, IP and HDMI Capabilities AMSTERDAM, AUGUST 3, 2022 – Marshall Electronics announces the release of the CV420e, it’s first-ever digital PTZ (ePTZ) camera at the 2022 IBC Show (Stand 11.C23). The CV420e is suitable for professional broadcast and proAV applications including professional sporting […]

The post Marshall Takes Pan-Tilt-Zoom Camera Technology to the Next Level with Debut of its First 4K60 Digital ePTZ Camera at 2022 IBC Show appeared first on Broadcast Beat.

L’équipe 3DVF sera au SIGGRAPH 2022

Par : Shadows
Temps de lecture : < 1 minute

Du 8 au 11 août, l’édition 2022 du SIGGRAPH se tiendra à Vancouver, au Canada. Comme chaque année, on y retrouvera annonces du secteur 3D, innovations techniques, publications scientifiques novatrices, projets artistiques surprenants.

L’équipe 3DVF sera sur place pour couvrir le salon et vous proposer articles, interviews, vidéos durant le salon et dans les semaines qui suivront : N’oubliez pas de nous suivre sur les réseaux (YoutubeTwitterInstagramLinkedInFacebook) pour ne rien rater de notre couverture du salon.

Si vous comptez aller sur place, n’hésitez pas à nous contacter si vous souhaitez échanger avec nous et nous présenter vos annonces et nouveautés !

D’ici là, voici les aperçus vidéo postés par l’équipe SIGGRAPH, avec un aperçu des différents programmes.

L’article L’équipe 3DVF sera au SIGGRAPH 2022 est apparu en premier sur 3DVF.

SIGGRAPH 2022 : Exaion présente ses solutions cloud

Par : Shadows
Temps de lecture : 3 minutes

L’entreprise française Exaion sera cet été au SIGGRAPH 2022 (du 8 au 11 août à Vancouver), et y montrera ses solutions cloud pour les studios d’animation et effets visuels.
Filiale d’EDF, Exaion fournit des services dédiées pour l’industrie 2D/3D, grâce à des partenariats avec deux entreprises déjà spécialisées dans ce domaine. La vision d’Exaion: permettre aux indépendants et petites/moyennes structures de devenir des « entreprises étendues », avec une offre 100% numérique, collaborative et évolutive. L’idée étant par exemple de permettre à l’équipe d’un studio de collaborer avec des freelances et d’autres studios partenaires au sein d’un même espace numérique. Et puisque les services sont évolutifs, un studio peut renforcer ponctuellement son stockage en ligne ou sa puissance de calcul si un projet le nécessite.

A l’approche du SIGGRAPH, Exaion fait une double annonce.

Exaion se déploie en Amérique du Nord

Exaion nous explique que selon eux, beaucoup de studios adopteront Omniverse, la plateforme de collaboration temps réel dans le cloud de NVIDIA. Celle-ci permet pour rappel de partager des données, travailler sur des projets 3D et jumeaux numériques, ou encore de développer des outils spécifiques. Exaion se penche donc sur le sujet et veut déployer Omniverse sur ses serveurs, de façon à ce que les studios disposent d’une solution clés en mains, sans avoir à gérer d’installation fastidieuse.

Pour y parvenir, Exaion a formé un partenariat avec deux sociétés déjà bien implantées dans le secteur de la création numérique :

  • Progiss, partenaire de 3DVF et société française spécialisée dans les solutions logicielles, matérielles, les services à destination des studios créatifs, des artistes freelance ou encore des écoles d’animation/effets visuels/jeux vidéo ;
  • Daregraphic, société spécialisée dans les remote graphics située à Montréal.

Concrètement, Progiss et Daregraphic vont aider Exaion à déployer Omniverse, mais aussi aider les studios à définir leurs besoins avant de basculer vers cette plateforme, et les aider à faire la bascule. Exaion explique que son objectif est de faire en sorte que les clients se concentrent sur leur coeur de métier, Exaion/Progiss/Daregraphic gérant la maintenance et la partie technique.

Cette offre, qui sera donc notamment disponible en France, pourra peut-être faciliter l’adoption d’Omniverse, d’autant que les entités de petite/moyenne taille n’ont pas forcément le temps ou les ressources nécessaires pour gérer la partie technique d’un tel système : la déléguer a donc du sens. Cela pourra aussi inciter des studios à tester Omniverse sans risque pour voir si l’outil répond à leur besoin : ces derniers mois, nos échanges autour d’Omniverse avec différentes entreprises du secteur montraient clairement qu’un travail d’évangélisation est encore nécessaire pour convaincre les studios à faire le saut.

Exaion donnera plus de détails sur ces sujets durant le SIGGRAPH 2022.

Des solutions cloud bientôt disponibles en Amérique du Nord

Jusqu’à présent, les studios d’Exaion étaient localisés en France, puisque leur maison mère est EDF. L’entreprise ne proposait donc pas de services cloud hors Europe.

Mais Exaion veut évidemment se développer dans l’industrie créative dans son ensemble. Elle annonce donc qu’une branche canadienne est en préparation, avec un datacenter qui sera installé à Montréal, au Canada.

Exaion précise qu’un premier datacenter d’interconnexion entre l’Europe et l’Amérique du Nord (nom de code: QC0) sera mis en service en août. Il servira de base arrière aux datacenters d’Exaion. L’étape suivante aura lieu en septembre, avec la mise en service d’un premier datacenter à Montréal. Exaion disposera donc de serveurs fonctionnels pour Omniverse à la rentrée.

Exaion au SIGGRAPH : les informations pratiques

Pour plus d’informations sur Exaion et leurs solutions cloud, vous pouvez visiter le stand #1119 durant le SIGGRAPH, et consulter leur site. Exaion partagera son stand avec ses deux partenaires : Progiss pour les clients en France/Europe que vous pouvez contacter par e-mail, Daregraphic pour l’Amérique du Nord qui dispose d’une page contact. Vous pouvez les contacter si vous souhaitez planifier un rendez-vous durant le SIGGRAPH.

Précisons enfin que 3DVF sera au SIGGRAPH 2022 en tant que partenaire média officiel. N’oubliez pas de nous suivre sur les réseaux (YoutubeTwitterInstagramLinkedInFacebook) pour ne rien rater de notre couverture du salon, et n’hésitez pas à nous contacter si vous souhaitez échanger sur place!

L’article SIGGRAPH 2022 : Exaion présente ses solutions cloud est apparu en premier sur 3DVF.

Exploramos la parte más visual de Sónar Festival 2022

Par : volatil

Nunca olvidaremos esta edición de Sónar Festival. Y es que no hay nada como beber agua cuando tienes mucha sed. Desde nuestro punto de vista, lo visual, los shows audiovisuales, los proyectos relacionados con el arte digital y el vídeo, han tenido una presencia y un protagonismo mayor que en otras ediciones, y eso nos hace felices. Más de 122.000 asistentes de 122 países. Un encuentro multitudinario protagonizado por un calor sofocante y muchas ganas de pasarlo bien. Vamos a mencionar los shows audiovisuales que más disfrutamos, nos perdimos el de Hamill Industries y su experiencia coreográfica audiovisual única. También el concierto de Quayola junto a Andrea Santicchia (io.seta) y sus dos pianos de cola (qué rabia).

1- Paranoid London & las visuales de Bob Jaroc. Una mezcla de gráfica con grandes dosis de geometría y velocidad, con imágenes reales y escabrosas, con un toque gore y desagradable sin perder la elegancia.

2- La armonía y la belleza de las visuales de Desilence, rompían con la música rota de un piano de cola tocado por Toni Saigi y los efectos de sonido de Carlos Falanga, que graba y actúa como IHHH.

3- Niño de Elche + Ylia + Banda “La Valenciana”: ‘Concert de músika festera’ fue un concierto rompedor y arriesgado, loco, una mezcla de lo más tradicional con lo más innovador, instrumentos y música electrónica. En la pantalla, frases sencillas y colores estridentes que iban cambiando. Los problemas de sonido y los cortes bruscos, no impidieron que el show se mantuviera a flote.

4- Moderat y las visuales de PFA Studios fue para nosotros uno de los mejores shows. Al principio estábamos muy críticos con los contenidos visuales que acompañaban a los nuevos temas. Pixel art, gráfica 2D y poca profundidad, pero poco a poco fueron ganándonos el corazón y acabaron con imágenes impresionantes, figurativas y de una gran calidad.

5- Maria Arnal i Marcel Bagés presentaron su espectáculo Hiperutopia, un viaje cósmico por el universo de Clamor, creado especialmente para Sónar 2022 y con las visuales y el diseño de iluminación a cargo de Andreu Fabregas & Granes de Cube.BZ.

6-  Adam Smith y Marcus Lyall no defraudaron con su espectacular trabajo para The Chemical Brothers. En formato videoclip, cada canción tenía su guión, su contenido y su protagonismo en el show, y eso nos encanta. ¡Grandes!

La entrada Exploramos la parte más visual de Sónar Festival 2022 aparece primero en Vjspain Comunidad Audiovisual, Mapping, Vj, Diseño Interactivo.

ASRock DeskMeet : des barebones pour processeurs AMD et Intel

Mise à jour : Les barebones DeskMeet X300 (AMD) et B660 (Intel) sont désormais disponibles. Le modèle X300 se négocie à 235.53€ sans frais de port chez Amazon1 et le modèle B660 à 300.34€ toujours chez Amazon. Il faudra équiper ces engins compacts de mémoire vive et de stockage mais également d’un processeur pour pouvoir les utiliser.

Billet d’origine du 7/01/2022 : Les ASRock DeskMeet B660 compatibles avec les processeurs Intel Core de 12ème génération grâce au chipset Intel B660 ainsi que les DeskMeet X300 adaptés aux puces AMD sous Socket AM4 avec un chipset AMD X300 sont officiellement annoncés par la marque.

Construits dans un châssis qui optimise la circulation d’air et la gestion des câbles, les ASRock DeskMeet sont faciles à assembler et permettent une maintenance facilitée. La marque annonce qu’un de ces engins peut être monté en une dizaine de minutes seulement. Avec 4 emplacements mémoire sur chaque carte pour un maximum de 128 Go de DDR4 la solution semble prête à tout type de mission.

La version Intel proposera un emplacement PCI Express 4.0 x16 pour intégrer une carte vidéo, un emplacement M.2 2280 PCIe NVMe et trois ports SATA 3.0. Un second emplacement M.2 2230 permettra d’ajouter une carte wifi et Bluetooth de son choix. La connectique comprend quatre ports USB 3.0 dont un au format type-C, un USB 2.0, un port Ethernet Gigabit, une sortie HDMI, un VGA et un DisplayPort en plus des traditionnels ports jacks audio.

L’alimentation dans une modèle comme dans l’autre est confiée à une solution de 500 watts 80 Plus Bronze. Chaque Desk Meet mesure 16.8 cm de large pour 21.93 cm de profondeur et 21.83 cm de hauteur.

Minimachines-01-2022

Le modèle Asrock DeskMeet X300 pour processeurs AMD Ryzen sous Socket AM4 se distingue uniquement sur quelques points de la version Intel. Un port M.2 2280 PCIe NVMe est toujours présent mais il ne reste que et 2 ports SATA 3.0 seulement que l’on distingue à chaque fois sous les emplacements de mémoire vive. Sur les deux modèles de machine, il sera possible d’intégrer un système de refroidissement processeur de 53 mm et une carte graphique d’une longueur maximale de 200 mm.

Pas encore de prix pour ces deux DeskMeet pas plus qu’une date de sortie pour le moment.

ASRock DeskMeet : des barebones pour processeurs AMD et Intel © MiniMachines.net. 2022.

Hitomi to show how its MatchBox Latency option takes the guesswork out of through delay on your broadcast at IBC 2022

Hitomi Broadcast’s MatchBox now measures the delay between an event happening in real life and seeing it in picture – latency. Taken either from the front of multiple cameras or at various points through the broadcast chain, readings are displayed in real time with milli-second accuracy. MatchBox Latency further strengthens Hitomi’s applications for remote and ...

The post Hitomi to show how its MatchBox Latency option takes the guesswork out of through delay on your broadcast at IBC 2022 appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Rohde & Schwarz to showcase integrated end-to-end media workflows and software-upgradable transmitters at IBC 2022

 Demonstrates live workflows for ingest, transcoding, storage, multiviewing, branding, and playout alongside 5G Broadcast live streaming  At IBC 2022, Rohde & Schwarz, a global leader in broadcast media and transmitter technologies will demonstrate how its solutions deliver a unique combination of robustness, rock-solid reliability, flexibility, and scalability. Visitors to IBC 2022 will see multiple live ...

The post Rohde & Schwarz to showcase integrated end-to-end media workflows and software-upgradable transmitters at IBC 2022 appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

IBC2022 Spotlights Leading-Edge Creativity and Decisive Social Interventions in Awards Shortlist

IBC Innovation Awards shortlist highlights advances in audience engagement IBC Social Impact Awards demonstrate vital importance of equality and sustainability initiatives Pre-show virtual ceremony to be followed by live celebration at IBC2022 London, UK, 6 July – IBC has announced the 2022 shortlist for its prestigious Innovation and Social Impact Awards. The IBC Innovation Awards ...

The post IBC2022 Spotlights Leading-Edge Creativity and Decisive Social Interventions in Awards Shortlist appeared first on Broadcast Beat - Broadcast, Motion Picture & Post Production Industry News and Information.

Les Larmes de la Seine : un court Pôle 3D au sujet poignant

Par : Shadows
Temps de lecture : 10 minutes

Ces dernières années, les élèves de l’école Pôle 3D nous ont proposé des courts-métrages de fin d’études aux sujets forts et variés. Après Migrants en 2020, qui avait reçu de multiples prix et sur lequel nous vous avions proposé une interview, Les larmes de la Seine a lui aussi droit à de nombreuses sélections et sera présenté cet été durant le SIGGRAPH 2022, dont 3DVF est partenaire : le film a même d’ores et déjà reçu le prix « Best in Show » du festival d’animation du SIGGRAPH.

Nous vous proposons d’en savoir plus sur ce film au travers de sa bande-annonce et d’une interview de son équipe.

Le 17 Octobre 1961, les “travailleurs algériens” de France décident de manifester pacifiquement dans les rues de Paris contre le couvre-feu qui leur a été imposé par la préfecture de police.

Réalisation : Yanis BELAID, Eliott BENARD, Nicolas MAYEUR, Etienne MOULIN, Hadrien PINOT, Lisa VICENTE, Philippine SINGER and Alice LETAILLEUR
Musique: Ibrahim Maalouf, Pierre-Antoine Naline, Luis Galceran
Sound Design: Lisa Vicente
Final Mix: Thomas Rouvillain, Nextsoundlab
Distribution: Patrick De Carvalho – Je Regarde

3DVF : Bonjour à toute l’équipe, et merci d’avoir accepté de nous en dire plus sur Les Larmes de la Seine. Le court aborde un sujet fort : le 17 octobre 1961, une manifestation non déclarée mais pacifique de « travailleurs algériens » est organisée à Paris pour marquer le refus du couvre-feu imposé aux seules personnes originaires du Maghreb. Dans la nuit, la police française réprime très violemment cette manifestation, avec des estimations allant de 38 à plus de 200 morts selon les sources.
Des faits qualifiés de « sanglante répression » par François Hollande en 2012.
Pourquoi avoir choisi ce sujet ?

Yanis BELAID : Je suis issu de l’immigration algérienne et polonaise en France, cet événement fait partie de moi puisque ma famille, notamment mon grand père Mohammed Belaid, me parlait souvent de la guerre d’Algérie notamment dans le nord.
J’avais vraiment l’envie profonde de parler de ce sujet.
Lorsque j’ai proposé l’idée du film, ce qui fût le plus surprenant était que la plupart des personnes du groupe n’étaient même pas au courant que cet événement avait eu lieu, bien qu’il ne soit vieux que de 60 ans.
Ce constat fait écho au sein du groupe : il fallait faire découvrir ce bout d’histoire au nombre encore trop grand de personnes n’étant pas au courant.

3DVF : Quels étaient vos rôles respectifs sur le film ?

L’équipe Les Larmes de la Seine : Bien que la plupart des membres avaient plusieurs casquettes sur le projet, l’équipe était séparée en 3 groupes : la team animation, la team art et la team tech.
Dans la team animation nous avions Eliott en position de lead anim, ainsi que Philippine et Alice en animation.
Dans la team art nous avions Yanis en position de lead, avec Lisa et Hadrien en lighting compositing.
Et l’ensemble des tâches techniques de la team tech étaient réparties entre Nicolas et Etienne, avec notamment respectivement les FX / le tool dev / l’environnement modeling et le rig / la crowd simulation et le shot finalling.

3DVF : Le court nous présente le point de vue de Kamel, dont la caméra permet de suivre le déroulé de la soirée. Pourquoi avoir fait ce choix ?

La première partie du film se veut démonstrative, et la caméra embarquée s’y prêtait très bien car elle nous immerge dans la manifestation et retrace en globalité le parcours des travailleurs algériens. Cela a permis également de faire un gros travail sur le son, qui immerge le spectateur dans notre récit afin qu’il vive et ressente l’intensité de ce qu’il s’est passé au travers du film.
Le déroulé du film retrace le parcours qui a réellement été réalisé le soir de la manifestation, en montrant des points clés de la ville de Paris, autant dans l’esthétique que dans l’image. Nous avons voulu être le plus fidèle possible sur le déroulement des événements, la similitude avec l’environnement, et les actions qui se sont produites ce soir-là : c’est donc sur ça que nous avons axé nos recherches.

3DVF : A la troisième minute, le film bascule totalement lorsque le protagoniste, frappé par un coup de matraque, est jeté dans la Seine. La narration et la réalisation évoluent, mêlant le réel (l’usage de bus, les milliers de manifestants envoyés au Palais des Sport pour identification, où certains subiront des brutalités policières) et la fiction (un esprit festif, un concert dans lequel policiers et manifestants font la fête ensemble).
Pouvez-vous revenir sur cette décision artistique ?

Pour la deuxième partie du film, nous voulions continuer de raconter les événements du 17 octobre 1961 mais en amenant l’idée, notre vision, de communion. Il est très important de se souvenir de l’histoire de notre pays, d’accepter les zones sombres, pour bâtir le futur. Et cette fête, cette communion, est le symbole de cela.

3DVF : Plus largement, quelle a été votre réflexion sur la représentation de la violence et des faits, un sujet toujours délicat et aux réponses multiples ? On se souvient notamment de Funan de Denis Do, tout en retenue, Souvenir souvenir de Bastien Dubois (voir notre interview) qui mettait en scène des actes terribles de façon « frontale et cartoon », pour reprendre ses mots…
Comment avez-vous décidé quoi montrer, comment le montrer ? En particulier, comment avez-vous pensé la fin de la séquence du concert, avec le sang qui coule sur les danseurs ?

Nous ne voulions pas être accusateurs. Nous voulions montrer les faits. Faire connaître cet événement et donner envie aux gens de se renseigner sur cette nuit a été l’objectif principal de notre travail.
Montrer de la violence, pour montrer de la violence n’était pas notre but… Mettre de l’huile sur le feu sur un sujet aussi délicat et important, ne colle pas à notre objectif et au fond du film que l’on voulait mettre en scène.
Du coup, il a fallu doser et être habile avec ce que l’on montrait.

3DVF : Avez-vous eu des retours de la part de victimes survivantes, témoins, proches de personnes ayant vécu la manifestation ?

Parmi les retours que nous avons pu avoir sur le film, ceux qui sont les plus touchants sont souvent ceux provenant de personnes particulièrement touchées par ce sujet : des personnes issues de l’immigration, ayant de la famille, qui ont de près ou de loin vécue cette histoire ou des histoires similaires.
Durant certains festivals, certaines personnes sont venues juste pour nous dire merci.
Merci d’aborder cette thématique et cet événement. Cela prouve le besoin d’aborder des sujets comme celui-ci.

3DVF : Comment avez-vous abordé le character design puis la modélisation, le surfacing et le hair ? Quelles étaient vos intentions artistiques ?

Les recherches sur les personnages ont été la première étape dans notre recherche de stylisation du film, notamment au travers de la fabrication de notre personnage principal : Nabil.
Nous sommes partis directement dans la 3D, après avoir confectionné une banque de références provenant de la 3D ou la stop motion, afin de trouver le look et les intentions premières du visuel de nos personnages.
Nous avions comme intention de détacher le rendu visuel des propos que nous abordions; ce style puppet est adapté car il permet de traiter notre sujet sans être trop frontal, et il peut également être vu et assimilé par une tranche d’âge plus jeune. Une fois que le design était trouvé, le travail de surfacing et de hair à rapidement pu être mis en place. Dans la même démarche que le modeling, l’intention était de recréer des matières réelles, sur des références de stop motion et d’objets récupérés, en gardant une échelle de personnages miniatures.

3DVF : L’animation de la première partie évoque la stop-motion, ou peut-être plutôt le côté haché lié à la caméra utilisée par le personnage.
Quelques mots sur ce travail d’animation ? Avez-vous rencontré des difficultés ?

L’une des intentions principales du film était de retranscrire des mouvements de caméra réalistes, semblables aux images d’archives d’une caméra au poing. Nous avons pu pousser le détail de ces animations de caméra grâce à un outil fabriqué par Etienne, qui récupère les mouvements d’un boîtier à l’aide d’un gyroscope, afin qu’en animation nous ayons un contrôle total sur nos cadrages, que nous venons esthétiser dans Maya.
Pour l’animation des personnages, le but était d’avoir un style d’animation qui coulait avec le reste de la stylisation du film, nous voulions quelque chose qui semblait avoir été animé à l’aide de marionnettes et recréer ces petites imperfections. Toutefois, nous voulions quand même garder un style qui reste propre à la 3D et nous avons donc réalisé de nombreux tests avant d’arriver à ce résultat, qui mixe toutes ces intentions.
Comme le style final se rapproche du 12 fps, l’une des principales difficultés était liée au motion blur et aux simulations, car en ayant une image sur deux figée, cela créait des anomalies dans les calculs et rendait le tout très complexe. Nous avons donc affiné notre style d’animation pour que les images ne soient pas totalement fixes par rapport à la précédente, afin de simplifier les étapes suivantes dans la production tout en gardant
ce style qui est propre au film.

3DVF : Comment ont été mis en place les décors, avec les rues de Paris, les abords de la Seine ?

Pour fabriquer les décors de notre film, nous avons utilisé plusieurs méthodes. Tout d’abord le hard surface modeling pour les décors principaux, et au premier plan. Il permettait d’avoir un niveau de détail très poussé, en se basant sur de nombreuses références. Nous sommes restés les plus fidèles possible à l’esthétique des bâtisses parisiennes, que nous voulions reconnaissables au premier coup d’oeil, mais aussi au positionnement réel des endroits iconiques de la ville.
Pour les bâtiments du second plan, nous avons développé un système de bâtiment procédural, permettant à l’aide d’un plan au sol et de quelques paramètres, d’avoir n’importe quelle structure de bâtiment haussmannien en se basant sur les positions des bâtiments depuis une vue satellite.
Une fois ces décors placés, nous les avons habillés avec de nombreux props, modélisés en hard surface. Nous avons également, pour certains éléments importants, utilisé la photogrammétrie, qui consiste à photographier de nombreuses fois un objet à 360° pour le scanner, et venir le réintégrer en 3D. Cela nous a été utile notamment pour les bus et les camionnettes de police, que nous avions en modèle réduit, pour être le plus fidèle possible à ce style maquette miniature.

3DVF : Un très gros travail a été mené sur le lighting et la phase de rendu/compositing, avec des teintes fortes allant de l’orangé au bleu en passant par le rose, et une image traitée pour lui donner un grain, un côté ancien. Quels ont été les plans les plus délicats à gérer sur ces étapes ?
Comment avez-vous procédé ?

Les plans qui ont été les plus difficiles à gérer sont ceux de la partie sous l’eau au milieu du film, car ils permettent la transition entre les deux parties du film qui sont assez différentes dans le traitement de la lumière.
Il devait donc être assez équilibré pour mélanger ces deux ambiances opposées, tout en gardant cette crédibilité d’une ambiance sous-marine.
Nous avons donc dû tout d’abord gérer ce premier plan, dans lequel Nabil tombe dans l’eau, qui se compose de beaucoup d’aspects différents notamment les FX de splash et de bulle sous l’eau combinés avec quelques triches en compositing pour équilibrer le tout.
Puis la seconde difficulté à été de trouver la bonne direction pour la partie que l’on nomme « Upside down » qui met face à face les deux surfaces d’eau qui ont dû être homogénéisées, tout en gardant cet aspect de vide dans lequel Nabil se trouve.

3DVF : Comment avez-vous géré le concert, que ce soit en termes d’animation, de foules, de réalisation avec la gestion des ralentis et de l’effet de temps gelé ?

Pour cette partie du film nous avons basé notre mise en scène à partir de la musique d’Ibrahim Maalouf “True Sorry”, tout à été construit en fonction des différentes variation de la musique, ce qui nous a permis d’adapter la mise en place des plans en fonction de l’émotion transmise par la trompette d’Ibrahim Maalouf.
Pour ce qui est de la construction des plans, nous les avons séparés en différent layers, en fonction des besoins de chaque plan, avec des personnages au premier plans animés, un deuxième layer avec des animations utilisées et instanciées et offsetées, puis quand c’était nécessaire une dernière couche de crowd simulée en fond pour habiller l’image.
Pour la scène gelée, nous voulions la fabriquer comme une fresque, en se concentrant sur les petites scénettes avec Nabil pour venir ajouter par la suite tous les ingrédients qui la rendent crédible, comme les confettis par exemple, car figer de la 3D peut vite paraître étrange, alors il fallait ajouter des éléments dynamiques pour crédibiliser le tout.

3DVF : Quelques mots également sur les FX ?

Nous nous sommes imposé de nombreux défis dès le début de la production des Larmes de la Seine, certains d’entre eux été liés aux effets spéciaux, nous devions notamment créer une foule dense et cohérente, et nous avons effectué un important travail sur les fluides dans le film.
Tous les effets du film ont été réalisés sur Houdini Fx.
Pour créer une large foule il nous a fallu constituer une grande banque d’animation.
Nous avons simulé une partie de la foule, mais nous avons aussi simulé des petits groupes de foule que les animateurs pouvaient utiliser et placer à la main et ainsi travailler la composition de l’image au plan par plan.
Nous avons réalisé plusieurs types d’effets différents, des fluides et des fumées.
Comme pour le reste du film, nous avons développé ensemble l’aspect graphique des effets. Le sang qui coule sur la foule en liesse dans la scène de fin du film a été un défi autant sur le plan technique qu’esthétique.

Nous avons donc anticipé ces étapes très tôt ce qui a permis à la team Fx de relever les défis qui s’offraient à eux.

3DVF : La pandémie a-t-elle eu un impact sur la production ? Par exemple en termes de travail à distance, de communication ?

Forcément la pandémie n’a pas aidé au bon développement de notre petit bébé. Le film a été fabriqué en très grande partie en télétravail. La conception du film a duré 2 ans, et nous avons pu revenir dans notre école les 5 derniers mois. Je ne vous cache pas que ces 5 mois étaient du sport! Mais c’est ça qu’on aime et ce fut que du bonheur.

3DVF : Quel bilan tirez-vous de ce projet ?

Honnêtement ? Que du bonheur.
Travailler sur un sujet comme celui-là, qui nous tenait tous à coeur, avec des personnes humainement exceptionnelles, un kiff.
Il y a eu des moments difficiles forcément, notamment durant les différents confinements. Mais honnêtement c’était que du bonheur et on a la chance que notre histoire commune continue à travers les festivals.
C’est que le début!
Pour finir, merci à 3DVF pour l’attention que vous portez à notre travail!

Making-of vidéo du court-métrage

Pour en savoir plus

  • Les larmes de la Seine sera visible cet été au SIGGRAPH 2022, dans le Computer Animation Festival’s Electronic Theater.
    Vous pouvez réserver vos accréditations en physique ou hybride sur le site officiel, et il est possible de s’accréditer pour l’Electronic Theater uniquement si vous le souhaitez.
  • Un article sur le 17 octobre 1961 sur Wikipedia.

L’article Les Larmes de la Seine : un court Pôle 3D au sujet poignant est apparu en premier sur 3DVF.

Frankelda’s Book of Spooks : tremblez face à la stop-motion mexicaine ! [Annecy 2022]

Par : Shadows
Temps de lecture : < 1 minute

A l’occasion du Festival d’Annecy, nous avons pour échanger avec l’équipe derrière la plus longue production en stop-motion du Mexique : Frankelda’s Book of Spooks, une série horrifique destinée au jeune public.

Avec ses 5 épisodes de 13 minutes environ, elle représente un travail d’autant plus colossal qu’il s’agit d’une série d’anthologie, à la manière des Contes de la Crypte ou de Chair de Poule : les décors et personnages changent à chaque épisode, et il a donc fallu créer et animer tout un bestiaire.
Un projet porté par Cinema Fantasma en collaboration avec Darkframe Digital.

Voici notre interview en compagnie de Roy Ambriz (co-réalisateur) et Marta Hernaiz (productrice). Le duo nous présente également Ballad of the Phoenix, projet de long-métrage en stop-motion, et évoque le secteur de la stop-motion au Mexique.
Avec en prime des images de ces deux projets, et un aperçu du fonctionnement de la marionette de Frankelda !

L’interview est en anglais ; des sous-titres français sont disponibles et peuvent être activés/désactivés via l’interface Youtube.

Crédits et informations :

Created by the Ambriz Brothers
Written, directed and produced by Arturo & Roy Ambriz
Executive Producers: Rodolfo Ambriz Avelar, Adriana Rendón
Animation Director: Beto Petiches
Director of Photography: Irene Melis
Art Director: Ana Coronilla
Original music and songs: Kevin Smithers
Starring: Mireya Mendoza, Arturo Mercado Jr., Luis Leonardo Suárez
Length: 5 episodes of 14 minutes each
Country of origin: Mexico
Original language: Spanish

L’article Frankelda’s Book of Spooks : tremblez face à la stop-motion mexicaine ! [Annecy 2022] est apparu en premier sur 3DVF.

La fin du monde n’est que trop réelle : On The Morning You Wake, une oeuvre VR à ne pas manquer

Par : Shadows
Temps de lecture : 3 minutes

13 janvier 2018, 8h08 : 1,4 million d’habitants à Hawaï reçoivent un message d’alerte officiel leur indiquant qu’un missile balistique est en route vers l’archipel, qu’il ne s’agit pas d’un exercice et qu’ils doivent immédiatement trouver un abri.

Quand l’impensable se produit

Ce scénario peut sembler improbable, il est pourtant bien réel : le message a réellement été envoyé et reçu, laissant une population entière dans l’incertitude face à ce qui semblait être leur mort imminente. Ce n’est que 38 minutes plus tard qu’un second message officiel leur indiquera qu’il s’agissait d’une erreur. 38 minutes d’attente et d’effroi face à une menace tout à fait crédible : du fait de sa position stratégique, Hawaï dispose de silos à missiles balistiques et serait effectivement une cible de choix en cas de conflit nucléaire.

On The Morning You Wake (To the End of the World) est une adaptation de cet évènement en réalité virtuelle, sous forme d’un documentaire immersif poignant.
Le déroulé de cette matinée fatidique nous est raconté par différents témoignages, qui mettent en lumière les réactions et ressentis des habitants : ici, une personne qui tente désespérément de retrouver ses proches à l’autre bout de l’île, là, un habitant qui envoie ce qui sera peut-être son dernier appel téléphonique, plus loin encore une survivante des bombardements atomiques américains sur le Japon qui, traumatisée par la survie après les bombardements, préfère ne pas se réfugier dans un abri, optant ainsi pour la mort plutôt que de revivre cet épisode terrifiant de son enfance.
Autant de témoignages qui montrent différentes façons d’aborder la terrible menace, de la lutte éperdue à la résignation en passant par l’incrédulité.

La vidéo volumétrique, un choix artistique pertinent

Ces témoignages sont d’autant plus poignants qu’ils sont restitués en vidéo volumétrique, une technique que nous avions notamment évoquée dans notre interview vidéo de 4DViews, spécialiste du domaine. Les témoins sont en quelque sorte filmés en 3D, ce qui renforce leur présence : ce ne sont pas de simples avatars 3D mais de « vrais » humains qui nous racontent ce qu’ils ont vécu.
Pour restituer Hawaï, en revanche, l’équipe a opté pour un rendu stylisé, avec un décor souvent constitué d’un nuage de points ou de triangles. En somme, un paysage aussi fragmenté que les vies des témoins ce fameux matin de janvier.
Enfin, l’expérience s’appuie également sur les mots de Jamaica Heolimeleikalani Osorio, poétesse et activiste hawaïenne.

Plus qu’un documentaire, un message politique

Si l’aspect documentaire d’On the Morning You Wake est sans aucun doute sa force principale, son message va plus loin qu’une simple mise en image de témoignages. L’expérience VR nous invite surtout à la réflexion sur la pertinence des armes nucléaires, dont la menace permanente s’est faite plus ténue dans nos esprits depuis l’effondrement du bloc soviétique. Son danger peut sembler autrement plus lointain que celui d’autres problèmes actuels comme la pandémie, les conflits armés traditionnels ou encore le changement climatique.

On the Morning You Wake ambitionne de nous questionner de nouveau sur l’arme atomique, mais aussi son absurdité en cas d’utilisation : comme l’explique une des personnes qui témoignent, le message appelant à trouver un abri est parfaitement ridicule sur l’archipel d’Hawaï, dont la taille réduite fait que les survivants ne trouveront en sortant de leur cachette qu’un territoire désolé, avec un espoir de survie très mince.

Ce message pacifiste et antimilitariste débouchera-t-il sur des avancées concrètes, dans un contexte de guerre en Ukraine qui a vu la menace nucléaire être explicitement agitée coté russe ? Ce n’est pas certain.
Mais ce documentaire en réalité virtuelle vous fera forcément réfléchir sur la question. Ce qui est, sans doute, déjà beaucoup.

Découvert durant le NewImages Festival, On The Morning You Wake (To the End of the World) est disponible gratuitement sur Meta Quest. Nous vous conseillons fortement de le découvrir dès à présent.

Créée par Mike Brett, Steve Jamison, Arnaud Colinart & Pierre Zandrowicz, l’expérience est écrite par Jamaica Heolimeleikalani Osorio, Mike Brett & Steve Jamison, co-produite par Archer’s Mark, Atlas V, Arte France, VR for Good META, Games for Change, Princeton University’s Program on Science and Global Security, Studio Novelab.

L’article La fin du monde n’est que trop réelle : On The Morning You Wake, une oeuvre VR à ne pas manquer est apparu en premier sur 3DVF.

Rekordbox 6.6.4: Cloud Analysis uses other DJs analysis files + stream support for bpm supreme

Pioneer DJ’s flagship software has a new update coming this summer – and with it, two key features to note. rekordbox ver. 6.6.4 was announced today, which offers a brand-new Cloud Analysis tool and support for the streaming service bpm supreme. Let’s take a look at the latest additions. Cloud Analysis: get quicker track data, thanks […]

The post Rekordbox 6.6.4: Cloud Analysis uses other DJs analysis files + stream support for bpm supreme appeared first on DJ TechTools.

❌