Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Ceux qui restent : une bande-annonce sous Unreal Engine 5

Par : Shadows

Lead 3D artist actuellement en poste chez Prodigious à Montpellier, Flavien Lens nous présente son dernier projet : une bande-annonce destinée au roman Ceux qui Restent, de Sophie Castillo.

Flavien Lens nous explique avoir réalisé cette bande-annonce en l’espace de 6 mois sur son temps libre. L’idée était d’utiliser UE5, son système d’éclairage Lumen et MetaHuman.
En pratique la production est loin d’avoir été de tout repos : crashes, pertes de données, bugs, UE5 est encore en beta et cela se ressent. En revanche, le rendu instantané a été d’une grande aide. Pour Flavien Lens, Lumen est “plus mature, visuellement et techniquement, plus beau, stable et optimisé” que ce que propose UE4.
Sa conclusion : UE5, allié aux humains réalistes de MetaHuman et aux librairies de Megascans, permet d’envisager une production 3D comme un tournage live, avec plus de temps passé sur la mise en scène, l’animation et l’éclairage, moins sur la modélisation et le surfacing. En prime, le temps réel permet d’itérer, revenir en arrière, brouiller les frontières entre les étapes du workflow.

Ceux qui Restent, de son côté, est un roman fantastique ciblant un public de type jeunes adultes. En voici le pitch :

Après un road-trip à travers les États-Unis, Noah et Ava Seydi sont sur le point de regagner la France.
Mais quelques heures avant le départ prévu de La Nouvelle-Orléans, de violentes intempéries clouent soudain tous les avions au sol et les poussent à changer leurs plans.
Les jumeaux se rabattent alors sur le seul logement encore disponible en cette période d’Halloween : une vieille maison isolée qui fait froid dans le dos.
Ils n’ont pas le choix et font contre mauvaise fortune bon cœur.
IIs vont vite s’apercevoir qu’ils n’en sont pas les seuls locataires.

L’article Ceux qui restent : une bande-annonce sous Unreal Engine 5 est apparu en premier sur 3DVF.

L’IA au service du montage, de l’animation et des métadonnées

Par : Shadows

Nous poursuivons notre retour sur le SATIS 2021 avec un sujet d’actualité : l’IA et le deep learning dans le secteur de la création.

Stéphane Singier, responsable filière des Industries Culturelles et Créatives chez Cap Digital, avait convié plusieurs personnes pour en discuter, avec de droite à gauche et par ordre d’intervention :

  • Matthieu Parmentier – Head of Data & Artificial Intelligence chez France Télévisions ;
  • Fabien Pisano – Sales Head South Europe chez Sony France ;
  • Olivier Reynaud – CEO chez Aive ;
  • Yassine Tahi – Co-founder / CEO chez Kinetix

Vous trouverez sous la vidéo un compte-rendu des échanges.

France Télévisions : la métadonnée vaut de l’or

Matthieu Parmentier de France Télévisions a entamé le tour de table avec une présentation des usages d’IA et des données au sein de France Télévisions. Depuis deux ans, le groupe dispose d’un département dédié sur ce sujet. L’idée est de mettre en place au sein de l’espace sécurisé France Télévisions une plateforme de services (qu’ils soient développés en interne ou chez des tiers) pour les entités du groupe, de façon à ce que les données ne quittent jamais cet espace sécurisé : hors de question de faire transiter massivement données et contenus en externe.

Un des enjeux majeurs est la mise en avant des programmes et contenus générés par France Télévisions sur Internet, en replay ou encore via les nouvelles plateformes, ce qui nécessite des métadonnées adaptées comme les tags, une description mais aussi des timings de début et fin de générique (indispensable pour pouvouvoir zapper ce dernier, enchaîner les épisodes / contenus). Sans ces éléments, un contenu sera difficilement mis en valeur et donc moins regardé, moins facile à valoriser.
Problème, cette étape est fastidieuse, l’idée est donc d’utiliser de l’IA pour automatiser cette étape.

En pratique, un des enjeux est d’entraîner les IA au quotidien, afin de les améliorer progressivement. A terme, d’autres objectifs sont envisageables, comme le sous-titrage.

Sony : le sport, secteur de rêve pour l’IA ?

Fabien Pisano de Sony France, de son côté, a souligné que les contenus répétitifs sont la cible idéale des traitements par IA. Le sport est donc un secteur de choix, à plus forte raison pour les disciplines très codifiées, avec des actions qui se retrouvent encore et encore : on peut penser ici aux sports de ballon (à plus forte raison si les arrêts de jeu sont fréquents, comme en football américain ou rugby).
Résultat : pour un sport comme le football américain, on peut demander à une IA de préparer environ 80% des moments forts qui seront ensuite utilisés lors d’une mi-temps, d’un récapitulatif de fin de match.

Aive : le montage les yeux fermés

Chez Aive, on s’intéresse à un autre enjeu : le montage. Avec la démultiplication des réseaux et plateformes, créer les multiples déclinaisons d’un projet est devenu un défi à part entière pour les marques et créatifs. Chaque contenu doit être créé en plusieurs formats (classique, carré, vertical…) et durées (2 minutes, 1 minute, 10 secondes…) pour mieux toucher les multiples cibles.

L’objectif d’Aive est de “rendre élastique” les vidéos en termes de durée et contenu afin d’éliminer ce problème. Concrètement, le principe est le suivant : un humain crée la vidéo standard, par exemple un contenu de 2 minutes en 16/9, et Aive se charge automatiquement de générer les multiples variantes utiles en termes de durée, format, avec mentions à indiquer (par exemple des mentions légales, le site mangerbouger.fr en bas d’une pub de céréales, etc) et sous-titres selon le cas.

Pour l’heure, Aive cible surtout les formats courts et le secteur des marques, donc de la publcité : un choix logique, ce domaine étant plus codifié. Mais à terme, l’entreprise se verrait bien travailler sur des formats plus longs, en prenant en compte des données comme l’intensité des émotions générées par tel ou tel segment d’une vidéo.

La commercialisation du service devrait se faire en 2022.

Kinetix : l’animation sans effort ?

Enfin, place à Kinetix, que nous vous avions présentée plus tôt dans l’année via une interview. La startup propose de générer des animations à partir de vidéos envoyées sur sa plateforme.

Notez que depuis nos premiers articles, le modèle économique a évolué : alors qu’auparavant la limitation majeure portait sur la durée des vidéos traitées, désormais le décompte ne se fait que si vous exportez les animations. Rappelons également qu’il est possible de tester gratuitement la plateforme (avec une limite de 30 secondes d’export par mois et un usage non commercial des résultats).

En outre, la nouvelle version 1.3 est sortie depuis le tournage de la table ronde, avec une timeline qui permet d’éditer, mêler des animations, ainsi que des librairies. On y trouve également une meilleure gestion du sol ou encore un système de fonds et props.

Le SATIS a été l’occasion pour Kinetix de présenter plus en détail ses plans ; en particulier, la volonté de KInetix n’est pas de se limiter au marché des studios et de l’animation professionnelle, mais de surfer sur l’engouement actuel pour la notion de metaverse, de mettre des outils créatifs entre les mains d’un public large, sans nécessiter de maîtrise technique.

L’article L’IA au service du montage, de l’animation et des métadonnées est apparu en premier sur 3DVF.

Crise, emploi, avenir : le point sur les VFX en France

Par : Shadows

Les enregistrements vidéo du SATIS arrivent désormais en ligne, et nous allons en relayer les conférences les plus marquantes. Voici pour commencer un état des lieux du secteur VFX en France.

Autour de la table, de gauche à droite :

  • Emmanuel Pichereau, directeur créatif/superviseur VFX chez One of Us Paris ;
  • Emma Deleva – Journaliste, qui assure la modération ;
  • Olivier Emery, PDG et fondateur de Trimaran ;
  • Anouk Deiller – Cheffe du service des industries techniques et de l’innovation – Direction du numérique au Centre national du cinéma et de l’image animée (CNC) ;
  • Laurens Ehrmann – CEO / Creative Director chez The Yard VFX.

Vous trouverez sous la vidéo notre compte-rendu de l’échange.

Pandémie, télétravail, sécurité

La table-ronde a évidemment débuté par un bilan de l’impact de la pandémie.

Côté Trimaran, après une phase de chômage technique liée au confinement, le travail a pu reprendre.
Même son de cloche chez The Yard ; Laurens Ehrmann souligne que le télétravail est désormais l’exception.
One of Us n’étant implanté à Paris que depuis juillet, l’antenne parisienne n’a donc pas vécu les débuts de la crise, mais Emmanuel Pichereau a indiqué qu’à Londres, le télétravail a été rapide (mise en place en 4 jours) et a duré bien plus longtemps qu’en France. Le but actuel de One of Us : la flexibilité et l’adaptation aux situations et demandes individuelles. En revanche le présentiel est imposé aux juniors.

En ce qui concerne les contraintes de sécurité, Laurens Ehrmann souligne que même les gros studios américains ont relâché leurs règles, tout simplement car ils n’avaient pas le choix. En pratique, la sécurité informatique a de toutes façons bien progressé ces dernières années, l’inconnue majeure étant la sécurité physique, l’humain.
Anecdote intéressante : au début de la mise en place du télétravail, Disney voulait imposer à ses sous-traitants une pièce dédiée fermée avec caméra… Avant d’assouplir les choses face aux réalités du terrain.
En revanche, un renforcement des règles est à prévoir selon les éventuelles fuites à venir.

Nouvelles plateformes, emploi

Le marché est actuellement bouleversé par l’arrivée de nouvelles plateformes qui créent un appel d’air : pour se démarquer, ces acteurs doivent créer du contenu, et donc faire appel aux studios VFX.

Laurens Ehrmann évoque un “Far West”, et souligne que le marché de l’emploi est déséquilibré, avec un manque d’artistes. The Yard signe déjà des projets prévus pour 2023, et doit même refuser des offres de projets, malgré une croissance de la taille du studio.

Anouk Deiller du CNC donne le même son de cloche d’une forte hausse de la demande par les plateformes. D’après les chiffres et remontées, le CNC voit également d’autres tendances, comme une démocratisation des VFX (qui sont accessibles à des projets à budget plus réduits), une hausse des budgets VFX pour les films français, ou encore l’émergence des séries “prestige” avec beaucoup d’effets visuels (Bazar de la Charité, Germinal). Enfin, la fameuse directive SMA a un impact encore difficile à mesurer.
Globalement, le CNC voit une hausse de la demande des VFX pour des projets français.

Concernant le marché de l’emploi, le panel souligne que le recrutement en France est rendu plus difficile du fait de projets moins attirants pour les artistes qu’une production Marvel. Le Tax Shelter en Belgique a par ailleurs tendance à attirer une partie des VFX de projets français.

Un peu plus loin dans l’échange, la table ronde souligne la difficulté de faire revenir des mid ou seniors partis à l’étranger au début de leur carrière. Ceci étant dit, la France est soudain devenue plus attractive pour ces personnes avec le Covid, la crise pouvant être plus facile à vivre dans l’hexagone en raison notamment du système social en place. D’autant plus avec le télétravail qui permet de ne pas forcément devoir vivre sur Paris.
Autre frein pour les studios français : les studios internationaux qui recrutent les élèves lors des jury de fin d’études, voire avant.

La conclusion ? Une nécessité pour les entités françaises de se positionner elles aussi très tôt auprès des élèves en fin de cursus, et d’arriver avec de beaux projets qui sauront les attirer face aux paillettes hollywoodiennes, canadiennes, anglaises.

One of Us à Paris : pourquoi ?

La table ronde a été l’occasion de revenir sur l’installation à Paris de One of Us : un choix qui peut interroger les studios déjà en place.

Pour Emmanuel Pichereau, les crédits d’impôt n’ont pas été la raison principale, même s’il avoue que cela a évidemment facilité les choses. L’objectif premier était d’avoir un pied sur le continent afin de garder un lien avec l’UE malgré le Brexit. Par ailleurs, il souligne la présence de talents en région parisienne : le but était donc aussi d’étendre l’équipe du studio au-delà de la sphère londonienne.

Excuse My French, French Keys, France VFX

Enfin, la table ronde a été l’occasion d’évoquer différentes initiatives, comme l’émergence de nouvelles structures. Excuse My French et French Keys, évoquées par Olivier Emery (lui-même lié à Excuse My French), se positionnent en structures indépendantes ou semi indépendantes avec de superviseurs qui pilotent des projets, sans forcément se rattacher toujours au même studio VFX.

France VFX (ex V2F), de son côté, est pour rappel une entité ayant pour but de fédérer le secteur et créer un dialogue, partant notamment du constat qu’en s’opposant, les studios ont surtout créé une baisse des prix. Une dizaine de studios membres veulent travailler à l’international, et cette volonté est un des axes de travail principaux de France VFX, qui avait déjà organisé un voyage aux USA afin de démarcher des clients locaux. L’entité projette d’ailleurs justement de renouveler l’opération en fonction des conditions sanitaires, tout en travaillant en France sur la mise aux normes (en particulier, de sécurité) des studios afin de pouvoir accueillir les productions internationales.

Bilan : un avenir radieux ?

Une forte demande, un recrutement intense, des initiatives pour se développer : en écoutant cette table ronde, l’avenir des VFX made in France semble en bonne voie.

Plusieurs inconnues ou défis restent cependant à garder en tête : l’évolution de la pandémie bien entendu, les adaptations indispensables pour pouvoir prétendre aux projets venus d’Outre-Atlantique, et enfin la concurrence des studios étrangers, qui imposent de bien planifier le recrutement.
On rappellera au passage aux studios qui nous lisent que nous disposons d’une plateforme emploi : si vous n’en avez pas déjà profité, n’hésitez pas à nous contacter sur contact@3dvf.com, nous pourrons vous donner tous les détails nécessaires, et surtout vous proposer une offre d’essai gratuit.
Enfin, il s’agit aussi de trouver les initiatives adaptées pour se démarquer : échanges entre studios, approches innovantes. On pensera également, même si ce n’était pas le coeur de la table ronde, à l’importance de bien suivre ou même anticiper les évolutions technologiques, à l’instar de Mac Guff qui a misé sur le deep learning.

L’article Crise, emploi, avenir : le point sur les VFX en France est apparu en premier sur 3DVF.

Spline développe une solution de camera tracking

Par : Shadows

Nous avions déjà eu l’occasion de vous présenter Spline, studio basé près de Paris et qui propose services et outils variés : studio de tournage, production virtuelle, ralentis extrêmes, motion control grâce à des robots industriels.

A l’occasion du SATIS, qui se tenait récemment au Nord de Paris, nous avons pu croiser l’équipe et en savoir plus sur leurs projets en cours.

Nouveau robot, 6m d’envergure

Dans l’immédiat, il s’agira surtout d’étoffer les capacités de motion control de Spline avec un troisième bras robotisé plus grand que les précédent, et donc une portée supérieure (6m d’envergure) : il devrait être parfait, par exemple, pour les tournages impliquant une voiture. Notez au passage que le nouveau robot, malgré sa taille, reste transportable et peut donc se rendre sur un tournage si nécessaire.

Une solution de tracking en vue

A plus long terme, Spline travaille sur un ambitieux projet de camera tracking, avec un système qui évoque fortement l’approche adoptée par Ncam. Spline explique que son système Flynn ne nécessite pas de marqueurs, est sans fil, avec une calibration simplifiée et une plateforme permettant d’intégrer en temps réel des visuels issus d’Unreal Engine.
Spline nous a également indiqué vouloir se différencier de concurrents comme Ncam en proposant un système moins cher, plus léger, tout en restant capable d’effectuer un tracking 3D performant.

A droite, le capteur, visible en bas du rig. A gauche, le boîtier du système, avec un S orangé.

En pratique, le système se compose d’un capteur et d’un boîtier. Encore en phase de développement, Flynn évolue au fil des mois : d’où une apparence différente entre la photo ci-dessus prise au SATIS et la vidéo de démonstration visible plus bas, qui est plus ancienne.

En attendant une finalisation du concept, Spline préfère ne pas encore commercialiser ce produit ; en revanche, l’équipe recherche des projets tests qui pourraient éprouver l’ensemble : n’hésitez donc pas à les contacter.

La fiction en vue

Motion control sur de longues distances, tracking avancé : avec ces initiatives, Spline compte bien se diversifier et se développer sur le marché de la fiction, le secteur de la publicité constituant jusqu’ici son secteur d’activité principal. Nous aurons évidemment l’occasion de vous en reparler.

D’ici là, on peut consulter sur le site de Spline le détail des prestations et services proposés par l’entité.

L’article Spline développe une solution de camera tracking est apparu en premier sur 3DVF.

Carrefour du cinéma d’animation, du 8 au 12 décembre

Par : Shadows

Après une pause l’an passé pour des raisons évidentes, le Carrefour du Cinéma d’Animation est de retour au Forum des Images (Paris) pour une 18ème édition qui aura lieu du 8 au 12 décembre.

Le programme est chargé, et de nombreuses personnalités du secteur seront présentes : Florence Miailhe, Michaela Pavlátová, Tomm Moore, Niki Lindroth von Bahr, Jim Capobianco, Alain Ughetto, Jérémie Périn, Sarah Van Den Boom, Marie Desplechin…

Au programme, entre autres :

  • une exposition d’aquarelles et images peintes de Florence Miailhe, artiste dont le premier long-métrage La Traversée sera à (re)découvrir ;
  • L’artiste tchèque Michaela Pavlátová, réalisatrice de courts-métrages et issue d’un mouvement d’animation féministe des années 70, donnera une masterclass. Elle présentera aussi en avant-première son premier long, Ma Famille Afghane, Prix du Jury à Annecy 2021.
Tram – Michaela Pavlátová
Ma famille Afghane – Michaela Pavlátová
  • Des long-métrages inédits ou en avant-première comme Belle de Mamoru Hosoda présenté par Tomm Moore (qui a travaillé avec Hosoda sur la réalisation), Les voisins de mes voisins sont mes voisins de Anne-Laure Daffis et Léo Marchand, le film philippin Hayop Ka ! The Nimfa Dimaano Story du réalisateur Avid Liongoren, le conte Princesse Dragon ! en présence de ses réalisateurs Jean-Jacques Denis et Anthony Roux, Cryptozoo et My Entire High School Sinking into the Sea de Dash Shaw, The Spine of Night de Philip Gelatt pour les amateurs de medieval fantasy…
Les voisins de mes voisins sont mes voisins – Anne-Laure Daffis et Léo Marchand
Belle – Mamoru Hosoda
Hayop Ka ! The Nimfa Dimaano Story – Avid Liongoren
  • Un focus stop-motion avec une projection de Mad God, le film du monument des effets spéciaux Phil Tippett (10 décembre), plusieurs focus sur des projets encore en cours de création tels que Interdit aux chiens et aux italiens d’Alain Ughetto en présence d’une partie de l’équipe du film (nous vous avions présenté le film en 2020), Séraphine (que nous avions évoqué en mars) présenté par sa réalisatrice Sarah Van Den Boom, la scénariste Marie Desplechin et la productrice Valérie Montmartin, le futur long-métrage The Inventor de Jim Capobianco passé chez Disney et Pixar et créé en collaboration avec Tomm Moore et Pierre-Luc Granjon qui seront sur place, la réalisatrice suédoise Niki Lindroth von Bahr proposera un making-of de ses courts passés ainsi qu’une présentation de l’épisode qu’elle réalise actuellement pour The House (Netflix)…
Interdit aux chiens et aux italiens – Alain Ugh
Séraphine – Sarah Van Den Boom
  • L’animation japonaise sera évidemment représentée, avec notamment une “soirée Japanim” au cours de laquelle sera projeté Le Roi Cerf de Masashi Andô (collaborateur de Satoshi Kon, Hayao Miyazaki).
  • L’animation sera politique avec True North sur les condition de vie dans les camps de prisonniers politique en Corée du Nord, My Favorite War et son plaidoyer pour les libertés individuelles : la réalisatrice Ilze Burkovska Jacobsen interviendra en visioconférence.
  • Un Rendez-vous de l’animation sera organisé par Ecran Total avec une table ronde Jeunes talents : « Comment les accompagner et comment conçoivent-ils leur métier ?” en compagnie de Lionel Fages (producteur, Cube Creative Productions), Delphine Maury (productrice, Tant Mieux Prod), Hanna Mouchez (productrice et distributrice, MIAM ! Animation), Antoine Liétout (producteur, Laïdak Films) et Léa Lespagnol (autrice).
    Toujours au sein de ce Rendez-vous, un prix de la “Personnalité de l’Année” sera dévoilé par Ecran Total.
  • Les courts ne seront pas oubliés, avec des dizaines de projets répartis en plusieurs programmes. Films d’écoles ou d’artistes établis, techniques multiples, carte blanche pour l’EMCA d’Angoulême, Cadavre Exquis animé par une trentaine d’étudiants à partir d’un dessin de Florence Miailhe…
  • Enfin, les projets en cours de production auront leur place : Allah n’est pas obligé de Zaven Najjar sur le parcours d’un enfant soldat entre Guinée et Libéria, présence du réalisateur Jérémie Périn et de l’équipe artistique du film Mars Express (voir notre article de juin dernier) pour présenter les enjeux du projet, Focus sur Folivari et le studio Fost que l’entité a lancée il y a trois ans : l’occasion d’aborder Ernest et Célestine 2, voyage en Charabie en présence des réalisateurs Julien Chheng et Jean-Christophe Roger. Enfin, Patrick Imbert reviendra sur la fabrication du Sommet des Dieux, sorti à la rentrée.

Vous l’aurez compris : le programme est très dense. Nous vous invitons à faire un tour sur le site officiel pour le découvrir en intégralité et réserver vos places, sachant qu’une carte Forum Festival (15€) permet de bénéficier d’un accès illimité. Vous pouvez également, bien entendu, réserver les séances de façon individuelle (7€).

L’article Carrefour du cinéma d’animation, du 8 au 12 décembre est apparu en premier sur 3DVF.

Unity et Weta signent l’accord de l’année

Par : Shadows

Unity et Weta Digital annoncent un accord au montant faramineux : pas moins de 1,625 milliard de dollars, soit 1,4 milliard d’euros.

A la clé : l’acquisition par Unity de l’ensemble des outils, du pipeline, de la propriété intellectuelle et des spécialistes techniques de Weta (275 ingénieurs).

Le studio Weta Digital en tant que tel continuera son travail de studio d’effets visuels en entité indépendante sous le nom WetaFX, mais deviendra de fait le plus gros client de Unity dans le secteur des Medias et du Divertissement.

Des outils mis à disposition du monde

L’enjeu pour Unity est évident : le groupe va pouvoir proposer l’ensemble des outils jusqu’ici réservés à Weta Digital et ses équipes, avec par exemple :

  • Manuka, un moteur de rendu en path tracing ;
  • Gazebo, moteur de rendu interactif utilisé pour la visualisation temps réel, la prévisualisation, la production virtuelle ;
  • Loki, outil de simulation physique qui gère eau, feu, fumée, hair, cloth, muscles, plantes ;
  • Des outils de workflow de lighting et gestion colorimétrique comme PhysLight, PhysCam, HDRConvert qui permettent d’avoir de l’éclairage spectral, de répliquer les effets d’objectifs optiques et capteurs, et viennent donc compléter Manuka et Gazebo ;
  • Koru, un système de rigging ;
  • Facial Tech, des solutions pour la capture faciale, le transfert vers un modèle cible, la manipulation de muscles faciaux ;
  • Barbershop, des outils de hair et fur proposant un workflow complet de pousse et grooming, avec à la clé des modèles prêts à simuler physiquement ;
  • Tissue, pour créer des modèles avec muscles et peau afin d’appliquer des simulations ;
  • Apteryx, un outil dédié aux plumes ;
  • World Building : des outils pour la création de décors et le set dressing, jusqu’à l’échelle planétaire ;
  • Lumberjack, outil de végétation ;
  • Totara, outil de simulation et croissance procédurale pour les biomes et la végétation ;
  • Eddy, un plugin qui permet de générer des simulations de fluides, feu et fumée au moment du compositing ;
  • Des outils de revue de production ;
  • Live Viewing, des outils gérant le mélange entre contenu live et 3D temps réel, pour la visualisation sur plateau ;
  • Projector, solution de planification, gestion de ressources.
Totara

Unity explique que son objectif sera, à une date encore non définie, de proposer ces outils aux artistes et studios, combinés à une plateforme cloud.

Unity avance également qu’il sera possible d’utiliser ces solutions « directement dans les outils de création de contenu » comme Maya et Houdini, et bien évidemment d’envoyer les données et de les manipuler dans Unity.
Le groupe donne sa vision ainsi : « vous serez capable d’utiliser les outils de création que vous connaissez et aimez déjà, tout en ayant accès à un ensemble toujours plus large d’outils utilisés dans des films comme Avatar et Wonder Woman« .

Mieux encore, Unity compte donner accès à une librairie d’assets issus des projets passés de Weta, et qui continuera à s’étoffer au fil des ans et des productions de WetaFX. Au menu : environnements naturels et urbains, objets du quotidien, textures, matériaux, etc.

Que devient le studio VFX ?

Nous le disions en introduction, le studio reste indépendant, et sera possédé en majorité par Peter Jackson. Si les équipes de R&D passent dans l’ombrelle Unity, les 1700 personnes qui constituent le reste du studio continueront donc à faire des films. Et à utiliser les outils désormais développés par Unity.

Un accord soumis à conditions

La somme mise sur la table par Unity sera payée en cash et actions. Prem Akkaraju, qui était le PDG de Weta jusqu’en 2020 et est le créateur de la solution cloud du studio, restera dirigeant de WetaFX. Joe Marks, CTO de Weta (Chief Technology Officer), rejoint unity tout en gardant le même titre.

L’accord devrait être finalisé et effectif d’ici le dernier trimestre financier 2021 de Unity, le temps que toutes les formalités financières et légales soient actées.

Que penser de cette annonce ?

Il va sans dire que cette nouvelle est un bouleversement majeur dans le monde de la création. Les rachats successifs d’Unreal pouvaient sembler montrer qu’Epic Games était voué à dominer peu à peu son rival : Unity montre ici qu’il ne compte pas se laisser distancer, et qu’il sera au contraire un acteur majeur des années à venir.

Avec cette acquisition, Unity se positionne aussi aux côtés des leaders du secteur VFX comme Autodesk, SideFX et Houdini, bien au-delà du jeu vidéo et de la 3D temps réel.

Reste désormais à voir arriver ces produits sur le marché. Il faudra évidemment les adapter et les rendre utilisables par un maximum de studio, les outils internes pouvant avoir tendance à ne pas toujours être simple d’accès. Le fait d’avoir acquis non pas juste les outils mais également les équipes qui sont derrière sera ici un atout indispensable.

En parallèle, avec Weta en client et via ses futurs utilisateurs, Unity diversifie considérablement ses sources de revenus : de quoi disposer d’une assise plus large et plus stable. Parfait pour préparer l’avenir avec sérénité, et continuer à avancer.

Du point de vue des studios, cette annonce est probablement très positive : elle montre que Unity a encore les capacités de frapper fort face à Unreal, mais annonce aussi de nouvelles alternatives à de nombreux outils actuels. Plus de concurrence, donc, qui ne pourra qu’être bénéfique.

Pour plus de détails, on pourra consulter l’annonce chez Unity, et les vidéos ci-dessous qui mettent notamment en scène Peter Jackson :

L’article Unity et Weta signent l’accord de l’année est apparu en premier sur 3DVF.

40 millions d’euros pour l’industrie créative

Par : Shadows

Dans le cadre des programmes France Relance et du PIA 4 (4ème Programme d’Investissement d’Avenir), le gouvernement a annoncé plusieurs dispositifs pour les industries culturelles et créatives.

4 dotations de 10 millions d’euros pour vos projets

L’objectif annoncé est d’accompagner la transition numérique et écologique de l’ensemble de la filière ICC (industries culturelles et créatives), et notamment l’audiovisuel, le cinéma, le spectacle vivant, le patrimoine, l’architecture, le jeu vidéo.
En pratique, plusieurs appels à projets ont été dévoilés, avec des dotations à la clé.

Si l’un des appels (portant sur la billetterie) ne concerne à priori pas les entreprises qui nous lisent, les 3 autres ont plus de pertinence :

  • Expérience augmentée du spectacle vivant : l’axe central ici est de répondre aux problématiques de virtualisation du spectacle vivant, notamment par le streaming.
  • Numérisation du patrimoine et de l’architecture, par exemple pour la préservation ou pour créer des offres culturelles nouvelles.
  • Alternatives vertes : l’objectif ici est de favoriser la mise en place de solutions environnementales/sociétales durables au sein de la filière.

Chaque appel bénéficie d’une dotation de 10 millions d’euros, qui sera répartie entre différents projets retenus (jusqu’à 2 millions d’euros par projet pour certains appels).

Comment en bénéficier ?

Si nous relayons ces appels, c’est évidemment car certaines entreprises du secteur de l’image peuvent en bénéficier : par exemple, sur la numérisation 3D d’oeuvres au sein de musées, ou sur le spectacle vivant (on peut ici imaginer une diffusion VR de contenus, par exemple).
Attention, s’agissant de subventions, il n’y a pas d’avance remboursable (contrairement à un dispositif tel que le RIAM du CNC).

Pour en savoir plus, nous vous invitons à consulter le site du pôle de compétitivité Cap Digital, qui a résumé les principaux enjeux de chaque appel.
La date limite de candidature des différents appels est fixée au 3 décembre. Cap Digital propose à ses membres un accompagnement moyennant l’envoi d’une demande d’ici le 10 novembre, mais rien ne vous oblige à passer par leur intermédiaire.

Cap Digital a également mis en ligne une vidéo qui revient en détail sur l’appel (un problème sonore est présent, mais est résolu à partir de 2 minutes 20). La voici, précédée du plan de la présentation.

00:00:00 Introduction et présentation de Cap Digital par Matthieu Parmentier, Head of Data & Artificial Intelligence chez France Télévisions et Délégué spécial à l’entreprenariat et à la transition écologique des ICC chez Cap Digital

00:02:46 Présentation du contexte et de la stratégie nationale d’accélération des ICC par Fabrice Casadebaig, Conseiller spécial du directeur général en charge de la stratégie nationale d’accélération des ICC au Ministère de la culture (Direction des médias et des industries culturelles).

00:09:50 Présentation de la Banque des Territoires en tant que opérateur du PIA4 Culture par Maud Franca, Directrice adjointe du Programme des Investissements d’Avenir en charge de l’économie numérique, Banque des Territoires, Groupe Caisse des dépôts.

00:17:28 Présentation de l’Appel à manifestation d’intérêt (AMI) Solutions de billetterie innovantes par Ludovica Marsili, Chargée de projets PIA Culture, patrimoine et numérique à la Banque des Territoires, Groupe Caisse des dépôts

00:24:05 Questions & réponses avec les participants via le live chat par Jennyfer Lecompte, Head of Research & Innovation Program chez Cap Digital

00:28:39 Présentation de l’Appel à projets (AAP) Expérience augmentée du spectacle vivant et de l’Appel à projets (AAP) Numérisation du patrimoine et de l’architecture par Manon Ayala, Chargée de projets PIA Culture, patrimoine et numérique à la Banque des Territoires, Groupe Caisse des dépôts

00:36:36 Questions & réponses avec les participants via le live chat par Jennyfer Lecompte, Head of Research & Innovation Program chez Cap Digital

01:04:52 Présentation de l’Appel à projets (AAP) Alternatives vertes par Ludovica Marsili, Chargée de projets PIA Culture, patrimoine et numérique à la Banque des Territoires, Groupe Caisse des dépôts

01:13:50 Questions & réponses avec les participants via le live chat par Jennyfer Lecompte, Head of Research & Innovation Program chez Cap Digital

01:22:41 Conclusion par Cap Digital, par Jennyfer Lecompte, Head of Research & Innovation Program chez Cap Digital

L’article 40 millions d’euros pour l’industrie créative est apparu en premier sur 3DVF.

Le PIDS revient : envoyez vos projets, gagnez un Genie Award !

Par : Shadows

Après une édition 2021 dématérialisée pour cause de pandémie, le PIDS (Paris Images Digital Summit) est de retour en 2022 en version hybride !

Du 26 au 29 janvier, ce festival va mettre à l’honneur les dernières tendances et nouveaux projets du secteur des effets visuels, mais aussi de la production virtuelle, de l’immersion et du jeu vidéo. Il sera possible d’y assister en ligne mais aussi sur place, à Enghien-les-Bains. 3DVF partenaire média.

Le programme est en cours de finalisation, et nous aurons l’occasion de vous le dévoiler bientôt. D’ici là, un appel à projets a été lancé dans le cadre des Génie Awards, la remise de prix du festival, qui récompense le meilleur de la création française.

Les catégories sont les suivantes :

Effets visuels – Long Métrage (que les VFX soient visibles ou en support)
Effets visuels – Fiction TV (visibles ou support)
Effets visuels – Publicité (visible ou support)
Effets visuels – Environnement (sont acceptés les environnements créés pour les longs-métrages, fictions TV, publicités, clips, cinématiques, film VR/360°)
Effets visuels – Personnage ou créature (là encore, sont acceptés les personnages/créatures créés pour les longs-métrages, fictions TV, publicités, clips, cinématiques, film VR/360°)
Meilleur film étudiant VFX/CGI
Meilleure innovation
(logicielle ou matérielle, pour la création numérique et les VFX dans les secteurs du cinéma et de l’animation)

Pour concourir sur la Catégorie A (les différents prix des meilleurs effets visuels), vous devez être une société d’effets visuels française, et le projet doit être sorti entre le 1er décembre 2020 et le 31 décembre 2021.

Pour concourir dans la Catégorie B (meilleur film étudiant), le projet doit être issu de la promotion 2019/2020 et contenir au moins 50% d’images calculées par ordinateur (animation ou VFX). Les projets sont proposés par les écoles (attention, 3 films maximum par école !)

Enfin, pour concourir dans la Catégorie C, la solution logicielle/matérielle doit être sortie entre le 1er janvier 2019 et le 31 décembre 2020.

Un formulaire en ligne permet de déposer les dossiers de candidatures ; la deadline est fixée au 18 décembre.
Le jury dévoilera les nommés le 7 janviers, les lauréats étant dévoilés durant la cérémonie de remise des prix, le 26 janvier.

L’article Le PIDS revient : envoyez vos projets, gagnez un Genie Award ! est apparu en premier sur 3DVF.

Digital Pioneers : comme nous, soutenez ce documentaire !

Par : Shadows

Nous avons à de nombreuses reprises relayé le travail de Thomas Martin alias Gorkab, dont l’émission CGM sur Youtube s’intéresse à l’histoire des effets visuels au cinéma. Nous avions même déjà collaboré avec lui autour d’interviews réalisées durant la VIEW Conference à Turin, en Italie.

Il est aujourd’hui de retour avec un nouveau projet, et pas des moindres !
Il ambitionne de réaliser Digital Pioneers, un documentaire sur l’histoire du studio Digital Productions. Vous connaissez forcément leurs projets : les vaisseaux spatiaux de The Last Starfighter (1984), les nuages de Jupiter pour 2010: The Year We Make Contact (1984), la chouette animée du Labyrinth de Jim Henson (premier animal virtuel dans un film !)…

Le but du documentaire serait donc d’interviewer une partie de l’équipe de l’époque, mais dans de bonnes conditions : autrement dit, face à face, aux USA et avec une qualité de production digne de ce nom plutôt que de se contenter d’interviews mal cadrées sur Skype.

Pour y parvenir, et créer le documentaire d’1h30 environ au moins qui sera disponible en français et anglais, Thomas Martin a d’ores et déjà reçu le soutien du CNC, à hauteur de 15 000€. Il a également lancé une campagne Kickstarter afin de doubler ce budget et de pouvoir payer l’équipe, gérer la post-production, financer de l’animation et des VFX pour le documentaire.
C’est ici que vous intervenez : moyennant quelques euros, vous pouvez soutenir le projet. Votre don vous permettra de figurer au générique ou, selon le montant, de voir le film en avant-première (il sera à terme diffusé sur Youtube), d’obtenir des cartes postales avec les créations de Digital Productions, un Blu-Ray, des badges, pièces commémoratives en métal précieux ou encore la possibilité d’être crédité en tant que producteur exécutif.
N’hésitez pas à découvrir la page Kickstarter et la bande-annonce ci-dessous pour plus de détails !

Sachez enfin que 3DVF va bien évidemment soutenir financièrement ce projet ; nous aurons donc l’occasion de vous en reparler !

L’article Digital Pioneers : comme nous, soutenez ce documentaire ! est apparu en premier sur 3DVF.

Pour Acer, l’avenir de la création passe par le relief

Par : Shadows

Acer dévoile le ConceptD 7 SpatialLabs Edition, un nouvel ordinateur portable destiné aux créatifs. Le produit se démarque de la concurrence par un écran relief sans lunettes.

Les personnes qui nous lisent régulièrement ne seront pas surprises : au printemps dernier, nous avions évoqué les plans d’Acer sur le sujet.

Une configuration au goût du jour

Sur le papier, le ConceptD 7 SpatialLabs Edition propose un processeur Intel Core série H de 11ème génération, plusieurs options côté graphique dont la RTX 3080 de NVIDIA. Un écran UHD 4K vient compléter le tout, avec certification Pantone, 100% de couverture de l’espace Adobe RGB et un Delta E<2.
Rien de surprenant jusqu’ici, la gamme ConceptD d’Acer nous ayant habitués à ce type de positionnement.

En ce qui concerne l’écran relief, il s’agit d’une technologie lenticulaire qui permet donc d’éviter le recours aux lunettes : des lentilles au niveau de l’écran renvoient vers chaque oeil une image différente, d’où la perception du relief.
Bien évidemment, il est aussi possible d’utiliser l’écran de façon classique.

Le relief : vraie avancée ou fonction gadget ?

La démarche d’Acer peut poser quelques questions. En effet, la vague du relief amorcée à la fin des années 2000 avec Avatar est désormais bien loin, et la stéréoscopie ne fait plus vendre auprès du grand public.
Mais justement, ce produit ne se destine pas au grand public. Et Acer ne se contente d’ailleurs pas de proposer un simple écran.

On retrouve ainsi sur la machine le « SpatialLabs Model Viewer », un outil de visualisation d’objets 3D qui dispose de plugins pour différents outils 3D (Autodesk Fusion 360, Autodesk Inventor, 3Ds Max, Rhinoceros, Cura, Blender, SketchUp et Zbrush), mais permet également d’importer les formats 3D courants (OBJ, FBX, STL, Collada, glTF, DAE, IGES, 3DS, Blend, PLY).
Un système mêlant capteurs et IA ajoute par ailleurs un effet de parallaxe lorsque l’utilisateur déplace ou tourne sa tête.

Outre le viewer, Acer a incorporé un lecteur vidéo maison qui gère le relief, et une solution SpatialLabs Go censée générer un effet relief à partir de contenus 2D (photos, vidéos, jeux, visioconférences).

Enfin, un site dédié aux développeurs SpatialLabs est lancé ; il propose notamment un plugin Unreal Engine, et Acer évoque la prise en charge d’Ultraleap (solution de suivi des mains).

Quels usages ?

En termes de marché, Acer esquisse quelques cas d’usage concrets.Le groupe évoque par exemple un configurateur de voiture pour les concessionnaires et clients, des visites guidées pour architectes d’intérieur, ou encore l’observation géospatiale.

Marketing en quête « d’effet wow », industrie, secteur de la création : plus globalement, cet écran pourra être une alternative aux casques VR ou écrans avec lunettes, moins contraignant et plus facile d’usage, même si le fait de ne gérer qu’une seule personne à la fois est un handicap certain.

Premières impressions

Nous avons eu l’occasion d’avoir brièvement ce produit entre les mains dans les locaux d’Acer.

L’effet de relief est convaincant, avec un jaillissement généreux et une bonne définition : même si l’écran lenticulaire implique évidemment de diviser la résolution horizontalement, l’écran 4K permet un affichage de qualité, loin devant ce que l’on pouvait voir il y a une dizaine d’années.

Nous n’avons pas pu tester la conversion de contenus 2D en 3D, et nous ne pourrons donc pas vous donner notre avis sur le sujet à ce stade.
En revanche, la visualisation de modèles 3D est satisfaisante, de même que le visionnage de vidéos.

Le ConceptD 7 SpatialLabs Edition sera disponible en fin d’année aux alentours de 3600€ TTC.

L’article Pour Acer, l’avenir de la création passe par le relief est apparu en premier sur 3DVF.

D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch

Par : Shadows

Nous suivons l’équipe de Brunch depuis plusieurs années déjà : nous avions notamment eu l’occasion de vous proposer des interviews en leur compagnie autour d’une cinématique pour The Division 2 d’Ubisoft, puis d’une autre destinée à Riot Games et son Teamfight Tactics.

C’est désormais dans l’univers PlayerUnknown’s Battlegrounds (PUBG) que nous plonge Brunch, avec une cinématique sortie cet été pour promouvoir un nouveau jeu mobile lié à la licence.
Réalisée par Boddicker (Jean-Charles Kerninon et Clément Lauricella), produite par Eddy, cette cinématique adopte un rendu stylisé qui tranche avec l’approche photoréaliste de nombreuses bandes-annonces de jeu.

En compagnie de Brunch, nous vous invitons à découvrir le projet, ses coulisses et ses défis techniques et artistiques.
Démarche visuelle, narration poussée, travail en lien avec de la musique, animation en step, contraintes narratives liées à Youtube, vous saurez tout sur les coulisses de cette cinématique.

Et comme le projet adopte un rendu non photoréaliste, nous en avons profité pour échanger avec les réalisateurs sur les tendances actuelles en matière de rendu stylisé, mais aussi sur l’impact de l’IA et du deep learning sur l’avenir du rendu.

Le résultat : une interview dense et riche en informations à découvrir après avoir (re)vu la cinématique PUBG !

3DVF : Bonjour Boddicker/Brunch ! La cinématique PUBG : NEW STATE – La chute de Troi que vous avez récemment dévoilée trouve ses origines dans une autre licence : le travail que vous aviez fait pour The Division 2 d’Ubisoft, sur lequel nous vous avions d’ailleurs déjà interviewés.

Boddicker (Jean-Charles Kerninon et Clément Lauricella) : Tout à fait. En fait, PUBG Studio avait sorti une grosse cinématique, dans un style très photoréaliste et proche du jeu (en termes d’actions, de lighting). Or ils se sont rendus compte que cette approche ne fonctionnait pas : le projet était certes très beau et bien géré, il ne se démarquait pas du reste des cinématiques jeux vidéo en termes de rendu. La cinématique n’avait donc pas marqué le grand public autant que PUBG l’avait espéré.

Ils sont donc venus nous voir avec comme ambition d’aller vers quelque chose de plus stylisé, et d’avoir une narration plus approfondie pour sortir du lot.

Ils avaient eu l’occasion de voir notre travail sur The Division 2 (que nous avions co-réalisé avec Olivier Lescot), et cela correspondait à leur vision, un style fort et une vraie histoire.

Cinématique d’Olivier Lescot & Boddicker pour The Division 2

3DVF : Plus concrètement, quel était la demande, quels aspects du jeu fallait-il souligner ?

Il s’agissait d’accompagner la sortie d’un jeu mobile, PUBG : NEW STATE. L’action se situe dans le futur, et il y a une nouvelle map, des éléments plus technologiques (même si l’équipe est revenue en arrière par rapport à certains plans initiaux).
L’idée était notamment de mettre en place un lore, avec plusieurs factions du jeu. Quelques personnages principaux étaient déjà écrits mais sans avoir d’apparence visuelle associée, car ils n’étaient pas inclus dans le jeu.

Le brief, au fond, était assez simple : le studio avait trois gangs, trois factions, avec leurs leaders. Et une nuit, une équipe de chasseurs devait arriver et tuer tout le monde.
A partir de là on a pu écrire un scénario et leur proposer.

Visuellement, aucune référence, quartier libre pour présenter ce qu’on voulait, ils n’ont même pas demandé un style spécifique. La seule demande était d’éviter le photoréalisme.

Il y a eu une évolution dans le concept, nous avions proposé quelque chose de très narratif, avec des dialogues, une histoire accompagnée par de la musique (nous savions qu’un groupe de musique serait impliqué mais la musique n’était pas encore définie).
Cependant, eux voulaient vraiment appuyer la cinématique sur la musique.

Au final la cinématique est un mix de ces visions, avec un côté clip mais tout en gardant de la narration, et une longue intro sans musique. Ils nous ont tout de même bien permis de nous exprimer.
L’absence de dialogues a aussi des avantages : on a des non-dits, du mystère du fait par exemple que le dialogue final n’est pas audible (même si on l’a écrit dans le script !).

3DVF : Comment avez-vous géré ces contraintes au niveau sonore ?

Cela a beaucoup changé notre façon de réaliser et monter, par exemple nous avons mis en place beaucoup de coupes au moment des tirs.

Pendant longtemps il y a eu un flou pour savoir ce qui prenait le pas : est-ce que la musique devait s’adapter à l’image, ou l’inverse. On a reçu des maquettes que l’on a transformées, découpées, on a rallongé des moments… Nous avions aussi une courbe d’intensité pour le film que nous voulions respecter…

Les tests se sont poursuivis très tardivement, et au final le plus simple a été que le client nous fournisse la musique, qu’elle ne bouge plus et que l’on s’adapte, que l’on cale dessus nos rythmes, nos plans.

3DVF : Quelle était la taille de l’équipe, et combien de temps a duré le projet ?

5 mois de production, c’est un de nos plus longs projets.

Pour l’équipe, une quarantaine de personnes sur l’ensemble du projet mais sans dépasser la douzaine de personnes en même temps.

Et avec donc Eddy à la production, Brunch à la fabrication.

3DVF : Une ambiance nocturne peut être délicate à gérer au compositing, est-ce que ça a été le cas ici ?

Pas autant qu’on aurait pu le craindre. Evidemment, il a été nécessaire d’égaliser les plans durant la production, mais visuellement on est sur une nuit très graphique, teintée, pas sur une obscurité totale. Et comme les graphistes s’occupaient de séquences entières, on a pu facilement obtenir une unité de séquence.

3DVF : En termes de chara design, comment se sont passées les choses ?

Pour les leaders, nous n’avions pas de design, aucun élément, juste une fiche descriptive de la personnalité (faits d’arme par exemple).

Par contre nous avions quelques charas designs ou skins de personnages « lambda » qui étaient pressentis pour intégrer le jeu, nous avons donc étudié ces éléments afin d’avoir une cohérence visuelle. C’est ensuite que l’on a imaginé nos designs.

Nous avons eu une liberté énorme.

En pratique, quand on travaille sur le design de personnages, il y a des plannings, plusieurs designers en parallèle qui font plusieurs propositions par personnage, et c’est ensuite qu’il faut trouver un style global pour le film.

Or entre en design 2D et une retranscription 3D il est toujours difficile de se projeter ou d’avoir une bonne cohérence sur l’ensemble des designs. Il n’est jamais évident de dire à un graphiste « on voudrait tel type de rendu » et d’avoir un design adapté, c’est plutôt à l’étape de fabrication que l’on intègre tout ça, que l’on adapte tous les personnages, qu’on se les approprie. En décidant du type de textures, de la patte graphique.

D’autant plus que nous sommes des techniciens, nous maîtrisons la 3D plus que la 2D.

Si a posteriori on compare les characters designs et le résultat final, ça se ressemble mais il y a clairement une différence.

3DVF : Comment avez-vous abordé les visages ?

Notre parti pris était de nous affranchir d’un look 2D, de règles un peu idiotes que beaucoup se mettent pour avoir un « look 2D » ou « look 3D », on ne voulait pas que les gens pensent que le but était « d’imiter de la 2D », ce qui est très laborieux.

Nous avons donc opté pour garder du détail en modélisation, mais aussi pour le fait de mettre de la matière, de la texture. De même, sur les masques des chasseurs, on a assumé le côté 3D, mis une patine, des reflets réalistes et non bakés.

Un point qu’il faut souligner, c’est l’importance ici de la confiance que l’on nous a accordée. Sur ce genre de projet il faut généralement tout de suite, dès le pitch, montrer ce à quoi montrera le film. Ici, nous avons pu faire des essais, des recherches, le client et la production ont vraiment fait confiance, malgré l’attente que génère ce processus.

3DVF : Toujours sur les détails, le travail sur les yeux est impressionnant, de la texture, des reflets…

Il y a de la triche sur certains plans, avec par exemple des spéculaires 2D sur des petites plaques que l’on fait trembler pour créer du mouvement, par exemple à la fin quand Marion parle au Sherif et que ses yeux s’écarquillent. Ou quand une autre héroïne est allongée, avant de se faire exécuter. A l’inverse, sur d’autres plans ça ne marche pas visuellement, donc soit on retirait totalement, soit on mettait du spéculaire 3D.

Au final, tant que ça marche, peu importe la technique.

On a surtout gardé cet effet quand nous voulions raconter quelque chose avec le spéculaire, jouer sur les émotions.

3DVF : Vous avez opté pour une animation en step. Or il nous a semblé que certains FX sont animés avec plus de fluidité…

Pas tout à fait.

En fait on a adapté le framerate au plan, voire pendant le plan. Par exemple sur un plan un antagoniste court, manque de tomber, la caméra le suit et s’attarde. La caméra est fluide au début, puis beaucoup moins sur la fin pour renforcer le côté nerveux.

Les FX sont tous en step, mais comme ça bouge très vite on a cette sensation de fluidité. Et comme animer en 2 nous semblait parfois trop fluide, nous sommes parfois passés sur une animation en 3 ! Ca dépend vraiment du plan. Ca s’est fait au ressenti.

Pages suivantes : animation, FX, chara design, violence Youtube, rendu stylisé, machine learning.

L’article D’une cinématique PUBG à l’avenir du rendu : rencontre avec Brunch est apparu en premier sur 3DVF.

Engineering Emmy Awards : and the winner is…

Par : Shadows

Le 21 octobre se tiendra l’édition 2021 des Engineering Emmy Awards. La cérémonie, analogue aux Sci-Tech Academy Awards des Oscars mais pour le petit écran, récompense chaque année les personnes et entités qui ont apporté des contributions techniques dans le domaine de la télévision.

Cette année, aux côtés de CEDAR Studio (solution de restauration audio et suppression de bruit) et des systèmes d’éclairage SkyPanels proposés par la marque ARRI, des simulateurs de foules et moteurs de rendu seront primés.

Les foules, reines des séries

Ces dernières années, les simulations de foules deviennent un outil incontournable pour les séries à grand spectacle. The Walking Dead, Game of Thrones, Once Upon a Time en sont de bons exemples.

C’est donc très logiquement que l’éditeur de logiciels Golaem (photo d’en-tête) va être primé. Un prix qui intervient alors que l’outil a récemment soufflé 10 bougies, et que la version 8 approche à grands pas.
Golaem Crowd a notamment été employé sur les séries Game of Thrones, Love, Death & Robots, Jack Ryan, The Walking Dead, Lego City Adventures (un projet évoqué dans notre interview du studio Circus, pages 3 et 4), Watchmen, Lost in Space, The Expanse, Versailles, …

L’outil Massive sera lui aussi primé. Cette solution a été employée entre autres sur Game of Thromes, Fear The Waliing Dead.

Les moteurs de rendu, toujours indispensables

Outre la simulation de foules, les Engineering Emmy Awards récompenseront aussi le rendu, avec deux produits : Arnold et son système d’illumination globale, ainsi que V-Ray de Chaos. Le choix des lauréats repose en partie sur leur popularité dans les studios.

Les 73emes Engineering Emmy Awards seront remis le 21 octobre à Los Angeles.

L’article Engineering Emmy Awards : and the winner is… est apparu en premier sur 3DVF.

Grâce à l’IA, l’expérience du stade depuis votre canapé

Par : Shadows

Depuis plusieurs années, des projets visent à améliorer l’immersion au sein des matches sportifs, en permettant aux spectateurs d’observer le terrain sous tous les angles.

De nombreux projets, une mise en place complexe

Dès 2017, nous vous avions par exemple parlé de Free Viewpoint Video System, un projet de Canon. Intel a lancé une initiative similaire avec True View. Dans les deux cas, l’idée est de disposer une armée de caméras autour du terrain, afin de générer de la vidéo volumétrique qui peut ensuite être observée sous tous les angles.

Dans le même esprit, Unity vient de dévoiler Metacast, qui utilise là aussi de la vidéo volumétrique.

Outre le fait de proposer de nouvelles images aux téléspectateurs, ces techniques peuvent avoir d’autres applications : VR, analyse de stratégie d’équipe, optimisation des performances sportives, arbitrage, etc.

Toutes ces annonces sont prometteuses, mais elles ont plusieurs défauts, comme la nécessité de devoir utiliser un ensemble complexe de caméras synchronisées. Le volume de données à traiter pose aussi question, d’autant que le temps réel est indispensable pour ce marché.

L’IA, une alternative ?

C’est ici qu’intervient un projet de R&D de l’ingénieur en vision informatique Guillaume Chican, qui propose une alternative beaucoup moins contraignante : n’utiliser qu’une seule caméra, et laisser le deep learning faire le reste.

Guillaume Chican (que nous avions déjà eu l’occasion de croiser durant Laval Virtual 2017, sur un tout autre projet) nous explique que dans son approche, le deep learning est utilisé à la fois pour la capture de la géométrie et le rendu des joueurs. Dans la vidéo de démonstration ci-dessous, qui alterne prises de vue réelles et survols du match générés par son approche, seul le terrain est créé avec du rendu 3D classique. Les joueurs sont entièrement confiés au machine learning.

Si la méthode n’a pour le moment été testée que sur du football, elle se déclinerait sans difficulté sur d’autres sports comme le basket, le tennis. En revanche, des disciplines comme le rugby poseront sans doute des défis, certaines manœuvres comme les mêlées représentant des cas très spécifiques qui demanderont probablement un développement dédié.
La technique n’est pas encore temps réel, mais Guillaume Chican y travaille. Un autre axe d’amélioration étant de proposer un rendu de meilleure qualité.

En termes d’usages, cette approche pourrait comme les propositions d’Intel, Canon et Unity être utilisée pour proposer de nouvelles images aux spectateurs, avec des analyses de matches, des retours sur une action précise, ou encore la possibilité, en temps réel, de changer de point de vue (un peu à la manière d’un jeu vidéo). En revanche, comme le rendu neural implique que l’image est générée de toutes pièces, un usage en arbitrage serait sans doute exclu.

Guillaume Chican souligne que combinée à un dispositif de réalité augmentée ou virtuelle, sa technique permettrait aux fans de reproduire l’expérience du stade grâce à une loge virtuelle, entre amis.

A noter enfin : puisque le système ne nécessite pas de matériel lourd, on peut imaginer un déploiement moins coûteux et plus facile. De quoi, peut-être, et dans un futur plus ou moins lointain, rendre cette technique accessible à davantage d’équipes, au sport amateur ou encore au secteur de l’éducation…
Pour le moment, nous n’en sommes évidemment pas là.

Pour en savoir plus

Pour toute question, Guillaume Chican peut être contacté sur LinkedIn.

L’article Grâce à l’IA, l’expérience du stade depuis votre canapé est apparu en premier sur 3DVF.

Critique : « 7 Jours », un anime moderne et optimiste, mais pas naïf

Par : Shadows

7 jours sort aujourd’hui dans les salles obscures françaises, via le distributeur Eurozoom. Ce film d’animation japonais est réalisé par Yuta Murano et animé par les studios Ajiadō. Nous avons pu le voir en avant-première, et nous vous en proposons donc une critique.


7 jours nous invite à suivre le jeune Mamoru, qui découvre que sa voisine Aya va déménager alors qu’il n’a jamais osé lui avouer ses sentiments pour elle.

Le scénario va rapidement prendre une tournure surprenante lorsque Mamoru propose à Aya de fuguer pour fêter ses 17 ans. Réfugiés dans une mine désaffectée, nos deux adolescents sont rapidement rejoints par d’autres jeunes de leur entourage, et croisent le chemin d’un réfugié thaïlandais qui fuit la police.

L’histoire légère se mue alors en révolte : le groupe passera plusieurs jours à s’opposer aux adultes, multipliant ruses et affrontements, tout en savourant une liberté précaire.

A la lecture de ce pitch, on pourrait craindre un n-ième film sur le passage à l’âge adulte, un John Hughes à la sauce anime totalement inoffensif. Il n’en est rien.

Certes, les personnages sont sans doute un peu trop stéréotypés, et le déroulé pourra parfois sembler manichéen.
Mais 7 jours complexifie la situation via des révélations en cascade, qu’elles soient intemporelles ou résolument d’actualité : corruption, réseaux sociaux, secrets inavoués, fautes passées, harcèlement, choix entre des idéaux lourds de conséquences et des solutions de facilité, question des migrants.
En résultent des échangent entre personnages qui dépassent les schémas classiques et évitent de sombrer dans la naïveté. On appréciera aussi un traitement des réseaux sociaux qui nous montre les deux visages des échanges en ligne, positifs comme négatifs. De quoi, là encore, apporter de la nuance là où de (trop) nombreux autres films n’en ont aucune.

7 jours a beau être issu d’un romain de Soda Osamu de 1985 dont le succès avait déjà donné lieu à une adaptation live quelques années plus tard (cette dernière a droit à une référence discrète dans l’anime), c’est une oeuvre qui se veut définitivement moderne.
Graphiquement, le scénario est soutenu par un character design plutôt efficace, et un joli travail sur les décors.

Le film devrait plaire au public adolescent par ses thématiques, son traitement, ses sujets d’actualité.
Les adultes, eux, pourront peut-être y raviver une étincelle d’optimisme et de rébellion qu’ils avaient trop longtemps oubliée.

7 Jours sort au cinéma aujourd’hui 6 octobre 2021.
Durée :1h28.
Séances disponibles sur Allociné.

L’article Critique : « 7 Jours », un anime moderne et optimiste, mais pas naïf est apparu en premier sur 3DVF.

Blue Curry : une délicieuse leçon (Gobelins 2021)

Par : Shadows

Nous continuons à découvrir les projets Gobelins 2021 avec Blue Curry de Magali Dunyach, Chien-Ju Hung, Jimin Jung, Vajra Pancharia, Léa Pietrzyk.
Un film qui parle de cuisine, et de bien plus encore…

Les plus belles leçons de vie sont apprises à travers les expériences les plus simples. Quand votre cuisine se transforme en salle de classe… Et que Maman vous sert une assiette de sagesse.

Soundtrack / Musique : Antoine DUCHENE
Sound editor / Montage sonore : Laurent JIMENEZ
Mix / Mixage : Benjamin CABAJ

L’article Blue Curry : une délicieuse leçon (Gobelins 2021) est apparu en premier sur 3DVF.

D’impressionnantes expressions faciales signées Chris Jones

Par : Shadows

Chris Jones a mis en ligne le résultat de son travail sur les expressions faciales réalistes.

Le réalisme de ses animations est saisissant ; Chris Jones explique qu’il travaille sous Blender et Krita, aucune motion capture n’étant employée (il a juste utilisé des vidéos en tant que références).

Chris Jones détaille la partie technique sur Blender Artists : maps de rides créées à la main, masques sont utilisées, ou encore un « crâne » interne ont notamment été utilisés.

Notez enfin que Chris Jones n’en est pas à son coup d’essai : nous avions déjà eu l’occasion de vous proposer la vidéo ci-dessous en 2014. A l’époque, il utilisait Lightwave.

L’article D’impressionnantes expressions faciales signées Chris Jones est apparu en premier sur 3DVF.

Lynx : et si l’avenir de la réalité mixte venait de Paris ?

Par : Shadows

La société Lynx lance une campagne Kickstarter pour son casque de réalité mixte (VR, AR) sans fil, le Lynx R-1.

Le produit fonctionne au choix de façon autonome ou filaire, et se démarque notamment par son design très compact par rapport aux casques du marché, ainsi que par son prix abordable au vu des caractéristiques (à partir de 530€TTC).

Des caractéristiques techniques alléchantes

Le Lynx R-1 dispose d’un système optique atypique,. La forme complexe de ses lentilles sont la clé de l’épaisseur réduite du casque.

Pour le reste, le Lynx R-1 dispose du même processeur qu’un Oculus Quest 2 ou un Vive Focus 3, d’une résolution supérieure au Valve Index mais inférieure au Quest 2 :

  • affichage de 1600×1600 pixels par oeil à 90Hz ;
  • caméras couleur avec affichage pass-through à latence réduite ;
  • processeur Qualcomm XR2, 6Go de RAM, 128Go de stockage interne ;
  • tracking 6DoF ;
  • WiFI 6, Bluetooth 5 ;
  • compatibilité SteamVR via un câble au lancement, et à terme en WiFi ;
  • slot pour carte SD, jusqu’à 1To de stockage additionnel ;
  • hauts-parleurs stéréo, prise jack 3,5mm, microphones ;
  • distance inter-pupillaire ajustable de 56 à 72mm ;
  • OS : Android 10 ;
  • SDK fourni, support OpenXR prévu à terme.

On notera l’absence de tracking du regard : cette fonction était initialement prévue quand Lynx visait un marché bien plus haut de gamme (avec un tarif 3 fois plus élevé), mais l’entreprise a depuis choisi de cibler un public bien plus large : la suppression du tracking fait donc partie des éléments qui ont permis de baisser le tarif.

Une vidéo mise en ligne par l’équipe donne une idée du rendu visuel en réalité augmentée? L’image est filmée à travers les lentilles sans retouche, et il convient de garder en tête qu’il s’agit d’un prototype.

En termes d’ergonomie, l’équipe a choisi de placer la batterie à l’arrière, de façon à équilibrer le poids de l’engin sur la tête.

Au vu des images du produit, vous aurez sans doute réalisé que le produit laisse passer la lumière par les côtés, ce qui n’est pas un souci en réalité augmentée mais pose problème pour l’utilisation en mode VR : de la lumière parasite sera présente.
Lynx y a évidemment pensé et un accessoire magnétique est inclus pour régler le problème. Une version de cet accessoire compatible avec des lunettes est aussi prévue.

Où en est le produit ?

A ce stade, le Lynx R-1 est en phase de pré-production : le design et les composants ont été validés, et il reste à produire en masse le casque.

D’où une campagne Kickstarter : pour 530€TTC, vous pourrez disposer d’un modèle standard, et pour 745€TTC, de l’édition limitée dotée d’une face avant transparente. La version Pro (950€TTC) permet de son côté de revendre le produit et de disposer d’un meilleur support.
Notez enfin que si vous vivez hors UE ou n’êtes pas assjeti à la TVA, l’équipe a pensé à vous.

Pour plus de détails et soutenir le projet, rendez-vous sur Kickstarter. Comme toujours, nous vous invitons à bien lire les informations données et à garder en tête que Kickstarter n’est pas un système de précommande : des risques sont toujours présents sur ce type d’initiative.

Que penser du Lynx R-1 ?

Sur le papier, le produit semble très intéressant, et nous essaierons de rapidement pouvoir le tester en conditions réelles.
Les solutions de réalité mixte du marché, comme le Microsoft Hololens 2, le Magic Leap ou les produits Varjo, sont proposée à des tarifs nettement plus élevés qui les rendent inaccessibles aux passionnés et en font un investissement non négligeable pour les petites entreprises.
Le Lynx R-1, de son côté, est bien plus abordable. Le support de Unity via le SDK proposé, mais aussi l’arrivée d’OpenXR d’ici la fin de l’année pour gérer également Unreal ou Godot vont grandement faciliter son usage pour les développeurs.

Le Lynx R-1 est donc un projet que nous allons suivre de près.

L’article Lynx : et si l’avenir de la réalité mixte venait de Paris ? est apparu en premier sur 3DVF.

Windows 11 est de sortie : nouveautés, compatibilité, déploiement

Par : Shadows

Microsoft lance officiellement aujourd’hui Windows 11, nouvelle version majeure de son OS. La mise à jour est gratuite si vous disposez déjà de Windows 10.

Quelles nouveautés ?

Les évolutions sont évidemment nombreuses par rapport à Windows 10, avec entre autres :

  • de nombreux changements en ce qui concerne l’interface et l’expérience utilisateur au quotidien, dont une barre des tâches centrée, une refonte du menu démarrer, un renouvellement des sons systèmes ;
  • côté jeu, la fonction « Auto HDR » qui rajoute automatiquement du HDR sur les jeux DirectX 11/12, DirectStorage qui devrait considérablement améliorer les temps de chargement sur les jeux qui en tireront parti, ou encore la possibilité de souscrire au Xbox Game Pass, un abonnement qui donne accès à une centaine de jeux PC ;
  • l’intégration de Teams par défaut, mais pas de Skype : ce dernier pourrait du coup prendre progressivement sa retraite ;
  • la section paramètres a été revue et est plus complète ;
  • le grand retour des widgets ;
  • une meilleure gestion du multitâches avec en particulier un docking largement amélioré que les personnes utilisant des écrans de grande taille, ou du multi-écrans, devraient apprécier ;
  • la refonte de la boutique Microsoft, plus pratique et performante ; elle permet par ailleurs désormais d’installer des applications Android ;
  • un mode tablette optimisé ;
  • Enfin, plus de performances et un OS moins gourmand en ressources : il faudra évidemment le vérifier en pratique et dans la durée.

On pourra regretter à l’inverse que certaines fonctions n’aient pas subi d’amélioration notable, comme le système de sauvegarde qui aurait bien besoin d’une refonte.

Windows 11, mais pas pour tout le monde

Microsoft a mis à disposition un test de compatibilité qui vous indiquera si votre machine Windows 10 peut tourner sous Windows 11 : en pratique, il faudra en particulier que votre machine dispose de TPM 2.0 (nos confrères d’INpact Hardware ont publié un guide sur comment le détecter et activer), et que votre processeur soit relativement récent.

Si les critères sont restrictifs en théorie, ils le sont moins en pratique : Microsoft explique qu’il est possible d’installer Windows 11 sur du matériel non éligible (auquel cas un avertissement s’affichera avant installation), et que l’on peut contourner l’obligation de TPM. Attention, ces approches ne sont recommandées que si vous savez ce que vous faites, et vous ne bénéficierez plus de certaines garanties.

Comment télécharger la nouvelle version ?

Pour les plus impatients, ou si vous avez de nombreuses stations à gérer, une page de téléchargement est disponible, avec assistant d’installation, outil de création de clé USB ou DVD de démarrage, ou encore image ISO.

Notez cependant que vous pouvez aussi tout simplement patienter le temps que Windows Update vous propose spontanément la mise à jour. C’est d’ailleurs la méthode officiellement recommandée par Microsoft pour le grand public.
Etant donné le nombre de machines concernées, cela va prendre du temps : Microsoft explique qu’il étalera les propositions de mise à jour jusque mi 2022.

Bien évidemment, nous vous recommandons de sauvegarder vos données avant la mise à jour… Ce qui devrait d’ailleurs être fait régulièrement.

Et après ?

Reste à voir si cette nouvelle version majeure saura convaincre le grand public, ainsi que le secteur professionnel. Nous aurons de notre côté sans nul doute l’occasion de revenir sur le sujet lors de prochains tests matériels.

L’article Windows 11 est de sortie : nouveautés, compatibilité, déploiement est apparu en premier sur 3DVF.

Le tour du Monde en 80 Jours : derrière le film, les concept arts et character designs !

Par : Shadows

Cet été, nous vous avions proposé une interview autour du film d’animation Le Tour du Monde en 80 Jours, réalisé par Samuel Tourneux, fabriqué chez Circus et Mac Guff sous la direction artistique de Mathieu Vavril.

Depuis, certains artistes ont pu mettre en ligne des travaux réalisés durant le développement visuel. Nous vous proposons donc une nouvelle plongée dans le film, centrée sur les concept arts et character designs.

La bande-annonce du film

Julien Le Rolland a travaillé sur le character design ; voici une sélection de ses créations pour le film ; on pourra en trouver d’autres sur son profil Artstation.

Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia

Yann Boyer, de son côté, était le Lead Background Artist durant le développement visuel. Il a travaillé sur de nombreux décors du film. Là encore, vous trouverez d’autres visuels sur Artstation.

Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia
Crédit : Cottonwood Media – Studiocanal – France 3 Cinema – Umedia

N’hésitez pas à (re)lire notre interview sur le film, ou à consulter les portfolios de Yann Boyer et Julien Le Rolland.

L’article Le tour du Monde en 80 Jours : derrière le film, les concept arts et character designs ! est apparu en premier sur 3DVF.

La Traversée : le nouveau film de l’animatrice Florence Miailhe au cinéma

Par : Shadows

Réalisé par Florence Miailhe, le film d’animation La Traversée est actuellement visible au cinéma : un projet qui a connu une longue gestation, puisque le travail sur le film a débuté il y a 15 ans. La fabrication proprement dite a duré 3 ans.
Ce film d’animation utilise une technique dont Florence Miailhe s’est faite une spécialité : la peinture sur verre.

Un village pillé, une famille en fuite et deux enfants perdus sur les routes de l’exil…
Kyona et Adriel tentent d’échapper à ceux qui les traquent pour rejoindre un pays au régime plus clément. Au cours d’un voyage initiatique qui les mènera de l’enfance à l’adolescence, ils traverseront de multiples épreuves, à la fois fantastiques et bien réelles pour atteindre leur destination.

Voici la bande-annonce, suivie de deux vidéos qui vous en apprendront plus sur les coulisses du film.

L’article La Traversée : le nouveau film de l’animatrice Florence Miailhe au cinéma est apparu en premier sur 3DVF.

BOL, un nouveau nom dans l’animation et l’illustration

Par : Shadows

Découvrez BOL, nouvelle maison de production basée en Espagne et issue des studios d’animation Device, All In Pixel et Amigo Total.

Le concept : 21 talents du monde de la réalisation et de l’illustration, mais aussi une équipe de production et création à leurs côtés.
BOL explique que le choix des artistes s’est fait en raison de « leurs forces uniques et leurs voix diverses qui couvrent un vaste spectre de narratifs, styles et techniques ».BOL propose ses services à la fois en images fixes et animations.

En coulisses, BOL a en fait déjà commencé à travailler sur différents projets depuis un an. L’entité profite d’ailleurs de son officialisation pour dévoiler ses deux dernières productions :

  • pour les valises Away, une série d »animations mettant en scène des lieux mythiques, de l’Atlantide à Babylone. La réalisation a été confiée à Genís Rigol, la direction artistique à Emma Roulette.
    BOL explique que l’objectif était de mettre en avant les sensations associées à chaque lieu.
  • Une intro destinée à la licence de basketball Utah Jazz. Des vidéos des joueurs ont été manipulées et déformées : flous, gradients, animations brisées, impression et scan à répétition ont permis de donner des effets variés, avant de lier l’ensemble à l’aide de motion graphics.
    La réalisation est signée Amigo Total, la direction artistique Dan McKinney.
Produced by BOL
Directed by Amigo Total

On pourra trouver sur le site de BOL plus de détails sur l’équipe et les artistes qui composent l’entité.

L’article BOL, un nouveau nom dans l’animation et l’illustration est apparu en premier sur 3DVF.

Série League of Legends, studio à Montpellier : une riche actualité pour Fortiche

Par : Shadows

L’équipe de Fortiche Production, studio créé par Jérôme CombePascal Charrue et Arnaud Delord, est très active actuellement.
Deux nouvelles viennent en effet marquer l’actualité du studio : un déménagement et une nouvelle série d’animation.

Fortiche Montpellier s’installe dans ses locaux définitifs

Fin 2020, nous vous annoncions que Fortiche lançait deux studios à Montpellier et aux Canaries. L’antenne de Montpellier avait toutefois entamé ses projets dans des locaux temporaires : elle annonce désormais avoir intégré ses locaux définitifs.

Fortiche nous donne au passage quelques détails sur l’organisation interne :

Ce studio accueille un département Animation et un département CFX (Characters’ FX, dédié à la simulation des vêtements et cheveux des personnages) respectivement supervisés par Alexis Wanneroy et Julien Lefebvre, entourés d’équipes d’animatrices.teurs, de graphistes et de chargé.e.s de production.

Alexis Wanneroy est pour rappel un ancien animateur des studios DreamWorks, Julien Lefebvre étant un superviseur CFX passé par plusieurs studios canadiens, dont DNEG.

Crédit photo : Fortiche prod
Crédit photo : Fortiche prod
Crédit photo : Fortiche prod

Côté projets, Fortiche Montpellier travaille sur plusieurs projets en collaboration avec la maison mère parisienne, donc la série Arcane.

Arcane, la série évènement

Fortiche et le studio de jeux vidéo Riot Games collaborent depuis déjà plusieurs années : on se souvient notamment du fameux clip K/DA – POP/STARS, qui avoisine le demi-milliard de vues sur Youtube.

Il était donc logique que Riot poursuivre son partenariat avec Fortiche pour la série d’animation Arcane dérivée de l’univers du jeu League of Legends. Celle-ci sera dévoilée le 7 novembre prochain sur Netflix, en aval de la compétition mondiale annuelle dédiée au jeu.

Côté scénario, nous suivrons notamment les origines de personnages de la licence tels que Jinx, Vi, Jayce, Caitlyn :

Tout en narrant les origines de champions de League of Legends, Arcane se positionne comme une série animée à part entière dans un univers complexe, emprunt de dilemmes moraux et une histoire pleine de suspens, sublimée par une animation à couper le souffle réalisée par le studio français Fortiche. Partenaire de longue date, Fortiche s’est illustré par le passé grâce à la grande qualité de ses réalisations, comme Get Jinxed!, Warriors, Rise ou encore POP/STARS du groupe virtuel de pop K/DA.

La série met en scène l’équilibre précaire entre la riche cité de Piltover et les bas-fonds du district de Zaun, deux lieux connus du monde de Runeterra comme “terres du progrès” et qui abritent les esprits les plus brillants. Un équilibre menacé par la création du Hextech, une technologie permettant à quiconque de contrôler l’énergie magique. C’est dans cette atmosphère tendue, que deux sœurs au passé complexe – Jinx et Vi – verront leurs valeurs et croyances respectives remises profondément en question, d’une façon aussi inattendue que cruciale pour la destinée du monde de Runeterra et de ses deux citadelles.

Les épisodes seront dévoilés en trois actes de trois épisodes : le premier acte sera disponible le 7 novembre, les deux suivants les 13 et 20 novembre.

L’article Série League of Legends, studio à Montpellier : une riche actualité pour Fortiche est apparu en premier sur 3DVF.

Contretemps : Anna face à l’enfer du quotidien (promotion Gobelins 2021)

Par : Shadows

Laurine Baille, Gabriel Gérard, Lise Légier, Chloé Maingé et Claire Sun dévoilent Contretemps, leur court de fin d’études issu de la promotion Gobelins 2021.

Anna, atteinte de TOCs, tient un quotidien ordonné. Celui-ci est bouleversé lorsque sa sœur Maeve oublie une pièce de son instrument. Pour lui rapporter, Anna se confronte au monde extérieur où ses peurs se matérialisent.

Soundtrack / Musique : Arthur DAIRAINE
Sound editor / Montage sonore : Cédric DENOOZ
Mix / Mixage : Vincent MAUDUIT, Nathan ROBERT
Color Grading / Etalonnage : David CHANTOISEAU

L’article Contretemps : Anna face à l’enfer du quotidien (promotion Gobelins 2021) est apparu en premier sur 3DVF.

Chaos chez Chaos : panne majeure en cours

Par : Shadows

Mise à jour : la panne a finalement été résolue, et a duré près de 3h.

Le cloud a ses mérites, mais aussi ses revers. La preuve aujourd’hui avec Chaos, éditeur de V-Ray et Phoenix : le serveur de licences de l’entreprise est hors service depuis plus de deux heures, ce qui pose évidemment de lourds problèmes pour de nombreux studios et artistes, qui ne peuvent donc plus utiliser des licences qu’ils ont pourtant payées.

Si Chaos travaille évidemment d’arrache-pied pour trouver une solution, nous n’avons pour le moment pas d’informations sur une heure de rétablissement espérée. Nous vous invitons donc, si vous êtes touchés, à suivre le site Chaos Service Status en espérant un retour rapide au vert.

Quoiqu’il en soit, cette panne rappelle que les serveurs de licence dans le cloud restent un problème potentiel, et qu’ils peuvent facilement bloquer un projet en cas de problème.

L’article Chaos chez Chaos : panne majeure en cours est apparu en premier sur 3DVF.

Zoic Studios fait le pari du télétravail

Par : Shadows

Zoic Studios annonce basculer dans l’ère du télétravail : les employés du studio pourront à l’avenir travailler à distance, pandémie ou pas.

Télétravail forcé en 2020 : un bilan positif

Zoic Studios explique avoir constaté une hausse de productivité avec la mise en place du distanciel en raison de la pandémie : la transition vers le travail à distance ayant eu des effets positifs, l’entreprise ne voit pas de raison de revenir en arrière.

Pour autant, Zoic ne compte pas se délester de ses bureaux de Culver City, New York et Vancouver : ils resteront disponibles, notamment pour certains projets spécifiques, pour la collaboration face à face, ou encore pour toutes les personnes du studio qui préféreraient cette option, dans le respect des règles sanitaires locales.

L’importance de la communication

Kristen Branan (Executive Vice President – Global Production chez Zoic Studios) explique la hausse de la productivité et créativité s’expliquerait notamment par l’élimination des temps de transports et de certaines distractions. Paradoxalement, la cohésion de l’équipe aurait aussi été renforcée. Le studio souligne avoir pris soin de mettre en place des « opportunités » pour que les liens puissent se créer/renforcer au sein de ses studios, avec par exemple des réunions mensuelles de toute l’équipe afin de conserver transparence et motivation, ou encore des opportunités virtuelles de socialisation.

Zoic Studios compte plus de 400 personnes à temps plein qui ont pu travailler ces derniers mois en télétravail sur les séries WandaVision, Superman & Lois ou encore For All Mankind.
En outre, Zoic Studios a pu faire avancer sa stratégie autour des technologies temps réel, ces dernières ayant justement été employées sur certaines des séries citées plus haut.

Télétravail, oui, mais pas sans limites

En pratique, le communiqué de Zoic est toutefois à nuancer. Si le studio explique que le télétravail permet de recruter les talents là où ils se trouvent, en pratique il n’est pas toujours possible d’embaucher des personnes situées à l’autre bout du globe.
Zoic nous l’a explicitement confirmé : si le studio entend bien recruter de façon mondiale quand cela est possible ou pour des disciplines spécifiques, la majorité du temps l’entreprise devra se limiter au marché du travail associé à chaque studio : par exemple, la Colombie Britannique pour son studio de Vancouver. La raison principale : les fameux crédits d’impôt, qui ne fonctionnent évidemment pas si les employés sont situés à l’autre bout de la planète, le but de ces incitations fiscales étant justement d’attirer les investissements et dépenses localement.

Exemple d’offre d’emploi en télétravail sur le site de Zoic Studios

L’exemple de Zoic Studios prouve que le télétravail pourrait prendre de l’ampleur dans les années à venir, mais rappelle aussi que les contraintes financières de l’industrie ne permettront pas forcément de briser toutes les frontières.

L’article Zoic Studios fait le pari du télétravail est apparu en premier sur 3DVF.

Justine Louvet, infographiste freelance spécialisée en architecture

Par : Shadows

Découvrez les travaux de Justine Louvet, infographiste 3D et perspectiviste freelance spécialisée dans le rendu architectural (rendu fixe, animations).
Basée à Lyon, elle est cependant mobile, y compris hors de France. Elle utilise notamment 3ds Max, Corona Render, After Effects, Illustrator, InDesign, Photoshop.

Pour les studios qui utilisent notre plateforme emploi, notez que vous pouvez retrouver son profil et ses coordonnées dans la CVthèque.
Rappelons aussi aux personnes en recherche d’emploi/stage que vous pouvez créer votre profil gratuitement

Images réalisées au sein de l’agence d’architecture Soho Atlas In Fine à Lyon

L’article Justine Louvet, infographiste freelance spécialisée en architecture est apparu en premier sur 3DVF.

Comment Mac Guff a ressuscité Lady Di, Mitterrand et Jean Gabin

Par : Shadows

Le deep learning est désormais LA grande tendance à suivre dans le secteur des effets visuels, avec des usages surprenants : nous en avons récemment parlé sur 3DVF avec un spot mettant en scène Bruce Willis, via un générateur d’animations de danse ou encore du côté de NVIDIA. Des projets d’autant plus prometteurs que l’application de l’IA aux effets visuels n’en est qu’à ses débuts.

En France, Mac Guff a su voir le potentiel immense de ces technologies et s’est pleinement lancé dans ce nouvel eldorado. A la clé, un gain de temps et de réalisme phénoménaux.
La preuve : pour l’émission Hôtel du temps, qui sera bientôt présentée sur France 3 et mettra en scène Thierry Ardisson interviewant des célébrités décédées, Mac Guff n’a mis que 3 mois pour truquer 50 minutes de contenu.

En voici la bande-annonce, qui vous permettra de juger du résultat :

Hôtel du Temps

Le concept de l’émission Hôtel du Temps pose plusieurs défis de taille : le grand public a déjà une image précise de ces personnalités en tête, et le format interview implique un cadrage serré.

Rodolphe Chabrier, président de Mac Guff, nous a indiqué que les équipes du studio n’avaient pas pour mission d’embellir les personnalités, même si ce serait techniquement possible : l’idée était donc réellement de proposer un résultat proche des visages réels, et non une version idéalisée.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson
Lady Di dans Hôtel du Temps
Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Une autre question consistait à définir l’âge cible pour chaque personnalité : souhaite-t-on interviewer un Jean Gabin dans sa jeunesse, ou plus tardivement ? Cette problématique est évidemment définie en amont du tournage, puisque comme seul le visage est remplacé, le comédien doit adapter son jeu et avoir une coiffure adaptée (l’outil Face Engine de Mac Guff ne gère pas encore les cheveux).

Une fois ces paramètres définis, le plus difficile reste à faire : trouver les bonnes données qui permettront de rendre vie aux personnalités.
En effet, le deep learning implique de disposer de données d’entrée qui vont servir à « entraîner » l’outil afin qu’il génère correctement les images du visage de chaque célébrité.

Jean Gabin dans Hôtel du temps
Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Problème, les images d’archives de l’ère pré-HD et pré-numérique, d’une définition réduite, avec du grain et donc d’une qualité toute relative, ne constituent pas la source idéale. D’où la notion de « Face Retriever » mise en avant par Thierry Ardisson lors des interviews autour de son émission : l’idée est de souligner qu’il a fallu « récupérer » les visages en travaillant en profondeur sur le choix des images sources et leur amélioration. Sur ce dernier point, Mac Guff préfère ne pas trop s’étendre, le studio souhaitant évidemment préserver ses méthodes afin de garder un temps d’avance.

Rodolphe Chabrier a néanmoins pu nous donner quelques informations générales. Il souligne qu’il peut arriver qu’une personnalité « ne se ressemble pas » sur certaines archives. Un éclairage atypique, une posture ou expression inhabituelles pour une personne peuvent changer ponctuellement son apparence, auquel cas il faudra éviter d’utiliser les images associées.

Par ailleurs, un des problèmes classiques en deep learning est le côté « boîte noire » des outils, qui empêche d’avoir un contrôle artistique.
Cet obstacle a ici été surmonté grâce à une approche mixte et pas uniquement des outils de deep learning en boîte noire (là encore, Rodolphe Chabrier n’a pas pu nous donner trop de détails). Les artistes du studio ont donc le contrôle sur les images : il est donc possible de faire des retakes, d’ajuster certains détails. Une expression faciale inadaptée, un regard mal positionné peuvent être modifiés.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

« Industrialiser la bidouille »

Mac Guff a donc su mettre sur pied des outils expérimentaux, puis en faire un nouveau pipeline utilisable en production. Une démarche que Rodolphe Chabrier résume ainsi : « industrialiser la bidouille ».

Cette démarche du studio était déjà engagée depuis un certain temps (comme en témoigne le travail fait sur la série Le Bureau des légendes), mais elle a paradoxalement été accélérée par la pandémie : lors du début de la crise, l’effondrement du nombre de projets a libéré du temps. Rodolphe Chabrier et Martial Vallanchon (superviseur VFX au sein du studio) ont alors pu passer 3 à 4 mois à se focaliser sur le deep learning, à faire des tests qui ont aussi permis de convaincre l’ensemble de la direction du studio de la viabilité de cette technique. Mac Guff a ensuite mis en place une démarche pragmatique, avançant pas à pas, explorant peu à peu.

Le résultat de ce travail fastidieux est donc la création de 50 minutes de plans truqués en l’espace de 3 mois. Une rapidité impressionnante qui change radicalement la manière d’aborder un projet, la phase la plus lente étant le choix des données et l’entraînement de l’outil, tandis que la génération des images se fait très rapidement (mais pas encore en temps réel, malgré la puissance des GPUs actuels).

Le passage au deep learning n’est donc pas un simple changement d’outil, mais une véritable révolution qui impacte la fabrication comme la production. Comme le résume Rodolphe Chabrier : « les flux changent, les coûts changent, la crédibilité visuelle change ».

En revanche, explique-t-il, comme les autres innovations passées (y compris l’invention des VFX), l’IA n’a pas vocation à tuer des emplois, mais bien à en créer, à élargir les possibilités narratives en rendant possible ce qui ne l’était pas.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson
Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Un atout concurrentiel

Une telle technologie peut évidemment constituer un atout pour les studios qui sauront prendre le train avant les autres. Même si Mac Guff est avant tout un studio généraliste (là où d’autres se spécialisent dans certains types d’effets, comme les créatures ou les simulations), ce travail sur les visages pourrait attirer des clients spécifiquement intéressés par cette compétence, en France comme à l’étranger.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Et demain ?

Le studio ne compte évidemment pas en rester là, et l’objectif est d’étendre l’IA à de nouveaux domaines.

Les cheveux, d’abord, puisque comme indiqué plus haut seuls les visages ont été traités pour Hôtel du Temps (les cheveux sont donc ceux des acteurs, ou des perruques).
L’idée serait également de travailler sur les corps complets avec un « Body Engine », et même d’appliquer l’IA à d’autres champs techniques. Bref, de continuer l’approche pragmatique déroulée jusqu’ici.
Outre les humains, la rotoscopie est un autre bon candidat au deep learning. Ici, l’IA pourrait permettre de diminuer les coûts, d’automatiser le travail mais aussi de relocaliser une tâche souvent confiée à des studios asiatiques.

Reste à concrétiser cet avenir. Si Mac Guff dispose déjà d’un début de département dédié à l’IA et au deep learning, avec des ingénieurs issus de l’X ou des Ponts et Chaussées, le but est à terme mettre en place une équipe de 4 ou 5 personnes focalisées à 100% sur le sujet.

Ceci représentera un investissement conséquent, puisque les profils nécessaires sont issus d’écoles d’ingénieur et que les entreprises de tous secteurs s’arrachent actuellement les spécialistes de l’IA.
Le CNC sera un soutien précieux : Mac Guff vient de remporter un appel à projets « Choc de Modernisation » avec à la clé une aide financière. Si la somme accordée n’est pas aussi élevée que ce qu’aurait souhaité le studio, elle constitue tout de même un accélérateur précieux, et Rodolphe Chabrier nous a clairement indiqué à quel point Mac Guff peut remercier le CNC : sans ce support, les fonds propres du studio n’auraient pas suffi pour lancer le futur département IA.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

Le secret de la longévité ?

Visages rajeunis, maquillés, remplacés, et demain coiffures, corps, animation, décors… Mac Guff ouvre un nouveau chapitre de son histoire.

Une trentaine d’années après ses travaux pionniers en morphing – pour rappel, ILM n’a devancé l’équipe française que de quelques mois -, Mac Guff continue d’appliquer la recette qui a fait son succès : l’innovation.

L’émission Hôtel du Temps sera prochainement diffusée sur France 3.


En bonus de cet article, voici (en exclusivité !) l’ensemble des visuels que nous a transmis Mac Guff. Pour chaque paire d’images, celle de gauche est la version d’origine sans retouche, celle de droite la version en sortie du Face Engine de Mac Guff, mais avant le finishing (et donc sans l’étalonnage final).
Vous pouvez cliquer sur les images pour les ouvrir en pleine résolution.

Crédit : Mac Guff pour Troisième Œil Productions (Groupe Mediawan) – Thierry Ardisson

L’article Comment Mac Guff a ressuscité Lady Di, Mitterrand et Jean Gabin est apparu en premier sur 3DVF.

Alter Ego : quand la télé-réalité rencontre le Bigdil et les concerts virtuels

Par : Shadows

Les émissions de télé-réalité à base de chansons doivent évidemment se renouveler pour continuer à séduire le public, comme en témoignent les multiples concepts lancés ces dernières années tels que Mask Singer.

Pour l’automne, la Fox tente une approche high-tech avec Alter Ego. Le concept : les candidates et candidats restent en coulisses, et c’est un avatar en animation 3D qui les remplace sur scène.

Les effets ont été confiés à Lulu AR (qui s’appuie notamment sur la solution de réalité mixte Pixotope) et Silver Spoon, spécialiste de l’animation temps réel et de la production virtuelle.
En pratique, les chanteuses et chanteurs sont donc en coulisses, affublés d’une tenue de performance capture. Les images de promotion montrent que la capture faciale se fait avec un smartphone (très probablement un iPhone 12, vu le design). Les données de performance capture sont ensuite utilisées pour animer un avatar qui est incrusté dans les images du plateau, avec juges et public.

Bien évidemment, le résultat nécessite que juges et public se prêtent au jeu : ils sont face à une scène vide et doivent faire semblant de voir l’avatar en face d’eux pour que la magie fonctionne auprès des téléspectateurs.

Si la vidéo de promotion officielle présente évidemment le concept comme une révolution, il convient de prendre un peu de recul. On peut voir Alter Ego comme la suite logique de plusieurs décennies d’expérimentations : dès 1998, par exemple, l’émission Le Bigdil proposait sur le petit écran français un avatar animé en temps réel par un comédien depuis les coulisses, qui pouvait du coup dialoguer avec le présentateur. Plus récemment, les VTubeurs ont proposé un concept similaire mais en ligne.

Alter Ego est au fond la suite logique du Bigdil avec les technologies actuelles : l’avatar n’a plus besoin d’être cantonné à un écran présent sur le plateau et peut être fusionné avec les images filmées pour lui donner plus de corps. Faire correspondre l’éclairage plateau avec celui de la 3D renforce l’illusion.

Notons enfin que si le concept fonctionne, il est plus que probable qu’il sera décliné dans d’autres pays : nous verrons donc peut-être une version française arriver d’ici quelques mois.

L’article Alter Ego : quand la télé-réalité rencontre le Bigdil et les concerts virtuels est apparu en premier sur 3DVF.

Un mariage pour le meilleur et pour les VFX entre MPC et Mikros

Par : Shadows

MPC et Mikros, qui font tous deux partie du groupe Technicolor, annoncent le regroupement de leurs les activités VFX pour les longs-métrages, séries, documentaires.

En pratique, les studios de Paris et Liège changent de nom et travailleront sous le nom MPC Film & Episodic. Leur coeur de cible ne change pas, en revanche : les équipes continueront de proposer effets visuels et pré/post production aux marchés français et belges.

Les évolutions de ces dernières années et cette nouvelle annonce pouvant créer de la confusion, un récapitulatif s’impose.
Les activités liées aux noms MPC et Mikros sont désormais réparties sous trois marques, toutes affiliées au groupe Technicolor :

  • MPC Film & Episodic (alias « MPC ») avec des projets d’effets visuels et pré/post production pour le cinéma, les documentaires et les séries. Avec des studios basés à Londres, Los Angeles, Berlin, Bangalore, et donc désormais aussi Paris, Liège. Béatrice Bauwens, ex directrice générale de la division effets visuels et post-production de Mikros Image, dirige les studios de Paris et Liège ;
  • Mikros Animation pour les longs-métrages et séries d’animation, la création de contenus originaux animés ;
  • Mikros MPC Advertising (alias Mikros MPC), qui regroupe les activités liées à la publicité, aux clips, les projets VR/XR, les contenus à destination des musées.

Avec cette réorganisation, le groupe Technicolor simplifie et clarifie son offre VFX auprès des clients. Le communiqué donne également quelques indications sur les raisons de cette évolution : la mise en commun de technologies, l’apport des capacités françaises et belges au sein de MPC, ou encore de nouvelles options en matière de crédit d’impôts pour les clients VFX.

« Notre moteur a toujours été d’apporter notre expertise créative et technique aux projets en s’impliquant aux côtés des cinéastes. Nous partageons avec les équipes de MPC la même passion pour trouver des solutions qui servent au mieux les histoires. L’association de Mikros VFX et MPC est une formidable opportunité pour les équipes d’avoir accès à la plus haute technologie mondiale et à une communauté de talents exceptionnelle, au bénéfice de nos clients à Paris et à Liège. Nous sommes fiers d’apporter notre touche française et belge à la marque MPC.  » commente Béatrice Bauwens.

Tom Williams, directeur général de MPC Episodic, déclare : « Je suis ravi d’accueillir les incroyables équipes VFX de Mikros. En unissant nos forces, nous affirmons notre engagement à fournir les meilleurs talents et technologies VFX à nos clients longs-métrages et séries partout dans le monde. »

Il poursuit : « La France a une très riche histoire cinématographique et nous sommes honorés d’avoir l’opportunité de travailler au sein du marché français et d’offrir à nos clients internationaux un accès à la richesse des talents disponibles à Paris et à Liège, ainsi qu’à davantage d’options de réduction d’impôts pour les productions VFX ».

Notons enfin que les site de MPC et Mikros ont d’ores et déjà été mis à jour pour refléter la nouvelle organisation.

L’article Un mariage pour le meilleur et pour les VFX entre MPC et Mikros est apparu en premier sur 3DVF.

Matrix Resurrections : le retour de la licence mythique

Par : Shadows

Deux décennies après la trilogie Matrix, Neo et Trinity sont de retour ! Voici la bande-annonce de Matrix 4, prévu pour le 15 décembre 2021 au cinéma.

Réalisé par Lana Wachowski, ce nouvel opus est co-écrit par Lana Wachowski, David Mitchell & Aleksander Hemon.

Les effets visuels ont été confiés à de nombreux studios dont CIS Hollywood, Tippett, BUF, ESC, Sony Pictures Imageworks, CFX.
Les artistes ont donc la lourde tâche de poursuivre une saga qui a eu un impact important dans l’histoire du cinéma et des effets visuels.

Voici la bande-annonce en VOST puis VF :

L’article Matrix Resurrections : le retour de la licence mythique est apparu en premier sur 3DVF.

❌