Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 23 octobre 2019Vos flux RSS

Scanner facilement une fourmi en 3D devient possible (et open source)

Par Shadows

L’explosion de la photogrammétrie ces dernières années a permis de numériser sans difficultés de nombreux sujets, mais la technique conserve ses limitations. L’une d’elles concerne les sujets de très petite taille : en photo macro, la profondeur de champ très réduite devient un frein majeur au scan 3D. Multiplier les prises de vue en décalant la mise au point reste possible, mais très fastidieux et plus complexe à gérer lors de la reconstruction.

Dans ce contexte, DISC3D se présente comme une solution très intéressante. Il s’agit d’un système automatisé permettant de scanner efficacement des sujets de très petite taille tels que des insectes. Voici les résultats pouvant être obtenus :

Les résultats sont assez impressionnants : les modèles sont précis, y compris au niveau des détails tels qu’antennes et pattes.

En coulisses se trouve donc DISC3D, un projet open source porté par Digital Archive of Natural History (DiNArDa). Le concept mêle techniques classiques, ingénierie et optimisations.

Le schéma et la photo ci-dessous en donnent une petite idée :
– le sujet est placé au centre d’un système l’éclairant de manière uniforme, grâce à des LEDs et deux dômes diffusant la lumière ;
– la prise de vue est effectuée via une caméra contrôlée informatiquement et montée sur un StackShot : un rail macro qui permet de déplacer précisément la caméra afin d’ajuster la position de la zone de netteté sur le sujet ;
– deux moteurs (élévation, azimut) permettent de faire pivoter le sujet dans toutes les directions ;
– le tout est contrôlé informatiquement, à l’aide de MATLAB (logiciel associé à un langage de script, largement utilisé dans le monde de la recherche).

Ainsi, ce système est capable pour un point de vue donné de prendre une série de photos en faisant varier la zone de mise au point, puis de faire tourner légèrement l’objet et de recommencer, encore et encore, afin de le capturer sous toutes les coutures.

Vient ensuite le post-traitement : sans rentrer dans les détails, il s’agit ici d’assembler les photos de chaque point de vue, pour créer une photo nette sur l’ensemble du sujet, tout en l’associant à un masque : une couche alpha qui facilitera la reconstruction.

Une fois les images nettes et masquées générées, on peut les envoyer dans un outil de photogrammétrie tel que Metashape (ex Photoscan), et reconstituer le sujet sous forme de modèle 3D texturé.

L’équipe derrière DISC3D a publié une description technique détaillée de son système : DISC3D est open source et peut donc être reproduit à l’aide des informations données.
Côté matériel, il faudra entre 4000 et 8000€ pour créer votre propre DISC3D, en fonction de critères tels que la qualité de la caméra utilisée.

DISC3D reste perfectible : en particulier, l’équipe évoque des temps de capture allant de 2 à 5 heures par insecte. Néanmoins, l’acquisition des images ne prend à elle seule que 40 à 100 minutes : c’est donc le traitement des images qui est responsable de ces durées, et diverses options permettront de faire chuter les délais. A commencer par la simple évolution des logiciels et du matériel. On peut aussi envisager des évolutions au niveau du workflow (entamer la reconstruction 3D dès les premières images, par exemple, alors que la capture se poursuit, est prévu d’emblée avec certains logiciels de photogrammétrie).

Voici pour finir d’autres modèles issus de DISC3D : insectes, coquille d’escargot, petits ossements. Notez que tous les exemples montrés ici sont téléchargeables sous licence Creative Commons sur Sketchfab.

L’article Scanner facilement une fourmi en 3D devient possible (et open source) est apparu en premier sur 3DVF.

Hier — 22 octobre 2019Vos flux RSS

Pliant Technologies CrewCom Heads to the Front of the Class for Samford University Theatre

Par D Pagan Communications

BIRMINGHAM, AL, OCTOBER 22, 2019 — Through trial and error with other manufacturers, David Glenn, director of technology and design for the Samford University theatre, finally found the communications solution he was searching for with Pliant Technologies’ CrewCom wireless intercom system. For the 288-seat university theatre, it is crucial to deploy a reliable intercom system ...

The post Pliant Technologies CrewCom Heads to the Front of the Class for Samford University Theatre appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

À partir d’avant-hierVos flux RSS

D2D Technologies selected by PBS to supply equipment for Wireless Emergency Alert System

Par guest_nLlBd

D2D Technologies announced that the company was selected by the Public Broadcasting Service (PBS) as their vendor partner to supply a customized solution to all public television stations for the insertion and broadcast of emergency message data that complies with upcoming FCC mandated changes to the Wireless Emergency Alert (WEA) system. The nationwide PBS WARN ...

The post D2D Technologies selected by PBS to supply equipment for Wireless Emergency Alert System appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Mike Ruddell joins Ncam to support continued growth of AR and VR in Broadcast and Live Production

Par Denise Williams

Ncam Technologies, the leading developer of real-time augmented reality technology for the media and entertainment industries, has announced the immediate appointment of Mike Ruddell to the role of Global Business Development Director – Sports & Broadcast. Alongside the current growth in Ncam’s core markets of broadcast graphics, film and TV VFX, sports, and enterprise AR, ...

The post Mike Ruddell joins Ncam to support continued growth of AR and VR in Broadcast and Live Production appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Starfish provides compliance recording to The National Library of Sweden

Par Manor Marketing

Reading,UK, 16 October 2019: Starfish Technologies, a pioneer in transport stream processing and advertising insertion, has supplied a multi-channel compliance recording system to Kungliga biblioteket, The National Library of Sweden in Stockholm, Sweden, in cooperation with Starfish’s Swedish partner Lanlink Digital Broadcast. The system utilises Starfish’s ‘Verify’ compliance recording technology which can record multiple channels of ...

The post Starfish provides compliance recording to The National Library of Sweden appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

L’impression 3D par fusion de faisceau d’électrons (EBM), on vous explique tout !

Par Guillaume Marion

L’impression 3D par fusion de faisceau d’électrons, ou Electron Beam Melting en anglais (EBM), fait partie de la famille de fusion sur lit de poudre : à l’inverse de la fusion laser, elle vient utiliser, comme son nom l’indique, un […]

NVIDIA utilise RTX pour proposer fond vert, effets et motion capture faciale

Par Shadows

NVIDIA profite de la TwitchCon 2019, conférence dédiée au streaming, pour dévoiler le NVIDIA RTX Broadcast Engine. Ce nouveau SDK utilise l’intelligence artificielle et les tensor cores des cartes graphiques RTX pour proposer divers effets qui pourront être intégrés dans des applications. En particulier, le SDK propose :

– RTX Greenscreen, un outil de suppression de l’arrière-plan sur le flux vidéo d’une webcam, en temps réel. Il s’agit donc de l’équivalent d’un fond vert mais sans avoir à un installer un.

– RTX AR, qui effectue un suivi des éléments du visage et peut en recréer un modèle 3D approximatif. Cette motion capture permet de créer divers effets tels que l’animation d’avatars 3D. Une technique qui rappelle évidemment ce que proposent certains smartphones.

– RTX Style Filters, un système de transfert de style : cette technique en vogue consiste à modifier le flux vidéo pour lui appliquer le style d’une image prédéfinie, par exemple une peinture.

Si ce SDK cible avant tout le secteur du streaming, il sera intéressant de suivre ses usages. En particulier, la possibilité de faire de la motion capture faciale facilement, avec une simple webcam et carte graphique RTX, pourrait avoir des applications intéressantes en animation, comme ce fut le cas avec des équivalents sur smartphone.

L’article NVIDIA utilise RTX pour proposer fond vert, effets et motion capture faciale est apparu en premier sur 3DVF.

Barnfind Adds Future-Proof Functionality and Flexibility to All-In-One 12G-SDI & HDMI 2.0 Fiber Transport BTF1-41 Frame at IBC 2019

Par Desert Moon Communications

Barnfind Adds Future-Proof Functionality and Flexibility to All-In-One 12G-SDI & HDMI 2.0 Fiber Transport BTF1-41 Frame at IBC 2019 BNC-32 mid-board increases network of functions via electrical interface Amsterdam  – (September 13, 2019) — Barnfind Technologies, an international leader in fiber transport solutions, is showing its all-in-one 12G-SDI & HDMI 2.0 Fiber Transport BTF1-41 Frame ...

ESL chooses Intinor for flagship esports events

Par Manor Marketing

Stand 14.D10, IBC 2019, RAI, Amsterdam — Intinor Technology, Sweden’s leading developer of products and solutions for high quality video over IP networks, has announced that ESL, the world’s largest esports company, has deployed a combination of Intinor’s Direkt router, Direkt router lite, and Direkt receiver units to cover its linear broadcasting needs. ESL wanted ...

SIGGRAPH 2019 : 5 experts explorent le pipeline du futur

Par Shadows

A l’occasion du SIGGRAPH 2019, SideFX (éditeur de Houdini) a invité cinq Senior Pipeline Managers et artistes 3D à évoquer les problèmes auxquels font face les pipelines actuels, et dans quelle direction l’architecture des pipelines va évoluer.

Les questions évoquées : les spécificités du pipeline utilisé par les intervenants, l’élément qui a eu le plus d’impact sur leur pipeline ces 10 dernières années, leur plus gros défi actuel, l’impact de la technologie sur le pipeline, et ce que l’on peut attendre dans 5, 10 ans.

Les invités sont, de gauche à droite dans la vidéo :
– Phill Mayer, FX Lead Artist chez The Mill ;
– Jason Iversen, Pipeline Technology Supervisor chez Weta Digital ;
– Peter Nofz, superviseur VFX chez Rodeo FX ;
– Chris Rydalch, Production Technology Technical Director chez Blue Sky Studios ;
– Mathieu Leclaire, Head of R&D chez Hybride.

L’article SIGGRAPH 2019 : 5 experts explorent le pipeline du futur est apparu en premier sur 3DVF.

L’impression 3D par dépôt de matière sous énergie concentrée, on vous explique tout !

Par Mélanie R.

L’impression 3D par dépôt de matière sous énergie concentrée ou DED en anglais (Directed Energy Deposition) est un processus d’impression 3D complexe qui regroupe un ensemble de technologies variées, généralement utilisé pour réparer ou ajouter des matériaux supplémentaires aux composants […]

Violons et personnages virtuels : découvrez les démos Vicon du SIGGRAPH

Par Shadows

Le spécialiste de la motion capture Vicon présente en vidéo un récapitulatif de ses démonstrations au SIGGRAPH 2019. L’entreprise mettait en avant ses solutions matérielles et logicielles, dont la future version 1.3 de sa plateforme Shōgun.

En pratique, des visiteurs du salon ont pu diriger leur propre scène en production virtuelle avec les outils de Vicon et un aperçu sous Unreal Engine. Deux acteurs interprétaient respectivement les personnages Feng-Mao et The Countess. Vicon explique que son but était de prouver qu’en utilisant des assets déjà prêts et issus de la Marketplace Epic Games, ainsi que les solutions Vicon, il est possible de créer des cinématiques en temps réel avec gestion des expressions faciales mais aussi des doigts.

Une seconde vidéo propose une présentation plus détaillée de la fameuse version 1.3 de Shōgun.

L’article Violons et personnages virtuels : découvrez les démos Vicon du SIGGRAPH est apparu en premier sur 3DVF.

Back Stage : Luminous Productions (Square Enix) repousse les limites du réalisme

Par Shadows

Luminous Productions, qui fait partie du groupe Square Enix, a dévoilé lors de la conférence japonaise CEDEC une nouvelle démo 3D temps réel. Elle s’appuie sur le fameux Luminous Engine, moteur maison employé entre autres pour développer Final Fantasy XV.

En pratique, cette démo a pour objectif de mettre en avant le support du raytracing temps réel (et plus précisément ici du path tracing temps réel). Elle tourne sur une 2080 TI.
Fort logiquement, le projet s’appuie donc sur des points pour lesquels le raytracing et le path tracing excellent : la mise en scène d’une jeune femme face à un miroir et l’occasion d’utiliser une gestion poussée de l’éclairage ainsi que des reflets.

Si la démo n’est malheureusement pas disponible au téléchargement, elle vient en tous cas renforcer la vague de soutien de l’industrie du jeu vidéo en faveur du raytracing temps réel. NVIDIA se félicite d’ailleurs sans surprise de « l’enthousiasme continu que le ray tracing est en train de créer ». L’adoption par les principaux moteurs du marché de cette technologie valide en effet sa stratégie commerciale.

Voici donc la démo Back Stage, qui préfigure les cinématique in-game que vous verrez prochainement dans les jeux vidéo :

L’article Back Stage : Luminous Productions (Square Enix) repousse les limites du réalisme est apparu en premier sur 3DVF.

Autodesk injecte de l’IA dans la 3D

Par Shadows

Autodesk a publié une conférence dans laquelle l’entreprise présente plusieurs de ses projets en lien avec l’intelligence artificielle.
Evan Atherton (Senior Research Engineer) évoque les avantages pour les artistes, Will Harris (Flame Family Product Manager) se penche sur le finishing et Sebastian Casallas (Senior Software Engineer) présente plusieurs projets dont un système d’automatisation de création des seams en dépliage UV. Nous avions d’ailleurs récemment eu l’occasion de vous présenter les avantages potentiels de l’IA pour l’UV Mapping en abordant la roadmap 3ds Max.

L’article Autodesk injecte de l’IA dans la 3D est apparu en premier sur 3DVF.

Fusion laser sur lit de poudre, on vous explique tout !

Par Mélanie R.

Dans les années 90, plusieurs entreprises se penchent sur la technologie de fusion sur lit de poudre qui consiste à fondre des particules de poudre métallique grâce à une source de chaleur – un laser ou un faisceau d’électrons – […]

La motion capture d’une équipe de foot devient possible avec Xsens

Par Shadows

L’éditeur Xsens a mis à jour MVN Animate, sa plateforme logicielle de motion capture. Pensée pour fonctionner en tandem avec les combinaisons de motion capture inertielles de l’entreprise, MVN Animate se dote de fonctions qui élargissent ses capacités : tout d’abord, le « on-body recording » permet de stocker les données localement, sur l’acteur, lorsque ce dernier sort du champ de couverture du point d’accès. L’intérêt est évidemment d’élargir la zone de couverture et de ne pas perdre de données.
Au passage, la nouvelle version 2019.2 permet aussi de déclencher à distance et de façon synchronisé la capture : les modèles n’ont plus à se soucier de cette étape. Cette capture synchronisée peut être lancée sur 25 personnes en simultané : de quoi effectuer de la motion capture sur un terrain de foot, avec équipe complète !
Enfin, MVN Animate supporte désormais le positionnement par satellite via GPS, GLONASS et QZSS. L’intérêt : atténuer les problèmes de dérive dans les données capturées, mais aussi possibilité de tracker des activités sans contact entre les pieds et le sol (cyclisme, équitation, skate…).

La mise à jour est disponible pour tous les utilisateurs disposant du support, et sera fournie en standard sur les futurs achats Xsens.

L’article La motion capture d’une équipe de foot devient possible avec Xsens est apparu en premier sur 3DVF.

iSize Technologies talks at IBC on deep neural networks enhancing and accelerate existing video coding standards for internet video

Par Manor Marketing

IBC 2019, 13-17 September, Stand 8.F25 – iSize Technologies, the London-based provider of intelligent video coding and delivery technology, is challenging the industry with a paper at IBC 2019 describing how deep neural networks will enhance and accelerate existing video coding standards for internet video, all without breaking anything in the process. According to iSize ...

Oscars scientifiques et techniques : pistes et appel à candidats

Par Shadows

Comme chaque année, l’Academy of Motion Picture Arts and Sciences dévoile une liste des sujets qui seront explorés pour les Oscars scientifiques et techniques. Ces derniers récompensent pour rappel des innovations qui ont eu un impact important sur le secteur du cinéma : il ne s’agit donc pas de nouveautés mais d’avancées qui ont eu le temps de faire leurs preuves.

Le fait de dévoiler à l’avance les sujets qui seront récompensés a de son côté un objectif bien précis : permettre aux personnes et entreprises susceptibles d’être primées de se manifester auprès de l’Académie.

Voici donc les thèmes de la prochaine édition :

  • Les écrans professionnels avec auto-calibration ;
  • Les systèmes d’acquisition faciale montés sur la tête des talents ;
  • Les systèmes de transmission vidéo sans fil employés en production pour le cinéma ;
  • Les frameworks haute performance de calcul d’intersections rayons-géométrie ;
  • Les outils de simulation de cheveux ;
  • Les systèmes de suivi et planification pour la post-production ;
  • Les systèmes de post-synchronisation automatique des dialogues ;
  • Les logiciels de réparation et restauration audio pour le cinéma ;
  • Enfin, les outils de suivi et inventaire de costumes, props, cheveux et maquillage pour la production physique.

Si vous ou votre entreprise est susceptible de correspondre à une catégorie, rendez-vous sur le site dédiée pour proposer votre dossier.

L’article Oscars scientifiques et techniques : pistes et appel à candidats est apparu en premier sur 3DVF.

iSize Technologies to launch AI-powered ‘BitSave’ SaaS Video Encoding Platform at IBC 2019

Par Manor Marketing

IBC 2019, 13-17 September, Stand 8.F25 – iSize Technologies, the London-based provider of intelligent video coding and delivery technology, will launch BitSave, a first-of-a-kind, fully AI-powered encoding platform that enables up to 70 percent bitrate saving versus non-AI competing codec solutions, at IBC 2019. iSize has also been selected to present a paper at IBC ...

Open Source : Autodesk fait le point sur MaterialX avec Lucasfilm et Allegorithmic

Par Shadows

Autodesk a mis en ligne une conférence autour de son travail sur l’open source ; plus précisément, il s’agit d’une conférence autour de MaterialX aux côtés de Lucasfilm et Allegorithmic.
En complément, nous vous invitons à découvrir ou redécouvrir la conférence donnée au Festival d’Annecy 2019 autour de l’Open Source : Autodesk y présentait sa vision sur le sujet.

L’article Open Source : Autodesk fait le point sur MaterialX avec Lucasfilm et Allegorithmic est apparu en premier sur 3DVF.

Insys Video Technologies to Unveil New Cloud Media Recording Solution and Expanded OTT Platform at IBC2019

Par Write Turn Communications

Company will showcase new and established solutions in dual presence at the show – a dedicated exhibit pod plus demonstrations at the Amazon Web Services stand August 22, 2019 — Dübendorf, Switzerland: Over-the-top (OTT) video solutions innovator Insys Video Technologies is heading to the IBC2019 exhibition in Amsterdam in September with a powerful new cloud-based ...

SIGGRAPH 2019 : USD, quel impact pour les studios ?

Par Shadows

A l’occasion du SIGGRAPH, SideFX a proposé de nombreuses conférences sur place, à Los Angeles. L’une d’elle, dont voici l’enregistrement, était centrée sur USD.

Si nous avons déjà plusieurs fois abordé ce format open source initialement développé chez Pixar, la présentation a l’intérêt de souligner certains intérêts et enjeux concrets.
Ainsi, avec Universal Scene Description, un plan spécifique peut être décrit avec un fichier unique, et les informations peuvent être passées de département en département pour être éditées de façon non destructive. Autre avantage : chaque département peut voir automatiquement les dernières mises à jour de chaque département en ouvrant un fichier USD.

USD

La vidéo propose aussi une explication autour de certains concepts d’USD comme les calques, opinions, références.

Présentée par Rob Stauffer (Senior Production Consultant chez SideFX), cette conférence n’était pas organisée par hasard par l’éditeur de Houdini. USD va en effet prendre de l’importance dans ce logiciel, comme nous l’annoncions début août.

L’article SIGGRAPH 2019 : USD, quel impact pour les studios ? est apparu en premier sur 3DVF.

Ncam to debut Ncam Reality 2019 to Latin American market at SET EXPO 2019

Par Denise Williams

Ncam Technologies, the leading developer of real-time augmented reality technology for the media and entertainment industries, today announced the latest version of its camera tracking solution, Ncam Reality 2019.1, will debut in Latin America at SET EXPO 2019 on booth 159/160. Ncam is also reinforcing the company’s commitment to the region with the appointment of ...

GauGAN primé au SIGGRAPH : une piste d’avenir pour le concept art ?

Par Shadows

A l’occasion du SIGGRAPH 2019, l’application GauGAN de NVIDIA a reçu un double prix dans la compétition Real-Time Live : « Best of Show » et « Audience Choice ». Derrière cet accueil, on retrouve un outil qui pourrait bien préfigurer de vraies évolutions pour les concept artists.

Une IA qui qui travaille (presque) à votre place

Dévoilée plus tôt cette année par des chercheurs de NVIDIA, GauGAN est un outil qui peut convertir des maps de segmentation en paysages réalistes.
Plus concrètement, l’idée est d’éviter à l’artiste une partie de la phase de concept art. Inutile de dessiner arbres, nuages, montagnes : on se contente d’esquisser grossièrement la scène avec des codes couleur. Ici de la mer, là de la montagne, plus loin des plantes, plus loin encore des nuages : en quelques minutes, ce brouillon (la fameuse map de segmentation) est bouclé. C’est alors qu’intervient la magie de l’IA : le système GauGAN, entraîné sur plus d’un million d’images réelles de paysages, va interpréter cette ébauche et en tirer un aperçu réaliste, comme pour les images qui illustrent cet article. Le tout, quasi instantanément.

GauGAN

Enfin, un système de filtres permet d’affiner le style du rendu, qu’il s’agisse de se rapprocher de l’ambiance d’une photo ou même d’une image abstraite, comme une peinture. Voici quelques exemples de résultats :

GauGAN

Si les images obtenues ne sont évidemment pas parfaites, GauGAN est particulièrement puissant pour créer une première ébauche qui sera ensuite affinée par l’artiste, ou pour du brainstorming. C’est ce type d’usage que met en avant NVIDIA :

A vous de jouer

NVIDIA propose une démonstration gratuite de son outil, à tester directement dans votre navigateur. Le code source est également disponible sur GitHub, mais tout usage commercial est interdit. Vous trouverez au même endroit des liens vers les publications scientifiques qui servent de fondement au projet. Enfin, vous pourrez découvrir ci-dessous (à partir de la 48ème minute) la démonstration effectuée au SIGGRAPH.

L’article GauGAN primé au SIGGRAPH : une piste d’avenir pour le concept art ? est apparu en premier sur 3DVF.

Project Lavina : découvrez en images l’avenir du rendu

Par Shadows

Chaos Group, éditeur de V-Ray, a mis en ligne une démo présentée cet été lors du SIGGRAPH. Il s’agit d’une vidéo du fameux Project Lavina, son futur moteur de rendu en raytracing temps réel.

La démo est pour le moins alléchante, avec des scènes massives et de l’animation. L’usage semble particulièrement simple : un glisser-déposer d’une scène V-Ray permet d’explorer cette dernière immédiatement et en temps réel. Autrement dit, tous les avantages d’une visualisation dans un moteur de jeu, mais sans le processus de préparation habituel.

Chaos Group donne quelques précisions : la scène de ville a été créée par Evan Butler de Blizzard Entertainement à l’aide de KitBash3d, et atteint le milliard de polygones ; plus loin, on reconnaîtra des scènes du fameux court Construct de Kevin Margo.
Côté fonctionnalités, Lavina gère déjà les animations et le multi-GPU. L’outil dispose aussi d’un nouveau système de réduction du bruit (on sent d’ailleurs un fourmillement dans l’image), prend en compte les collisions, permet d’appliquer matériaux et LUTs, de fusionner des scènes, de transformer/sélectionner des objets, ou encore de gérer caméra et profondeur de champ.

Bien entendu, tout ceci a un coût matériel : la démo a été enregistrée à l’aide de deux NVIDIA Quadro RTX 8000 (les performances devraient être similaires sur deux cartes GeForce 2080 TI). Lavina demande donc une machine solide, mais on peut imaginer que les progrès matériels à venir sauront répondre à ces besoins.

D’ici là, un formulaire permet d’être tenu au courant des avancées de Lavina, qui sortira « bientôt » en beta. Pour tester Project Lavina quand ce sera possible, il vous faudra une licence V-Ray Next Render, une carte graphique NVIDIA RTX et enfin une machine Windows compatible DirectX 12/DXR. Il sera possible de se contenter d’une carte Pascal ou Maxwell, mais les performances seront largement moindres : autant dire que Lavina en perdra fortement en intérêt.

Plus largement, cette démo de Project Lavina donne un aperçu de ce que permettra à l’avenir le raytracing temps réel : la fin des aperçus interactifs au profit du temps réel, et un rendu toujours plus proche de l’image finale.
Comme l’explique Lon Grohs de Chaos Group : quand la production du court Construct a débuté, Kevin Margo visualisait des scènes à 24 images par seconde avec 250 000$ de matériel. Aujourd’hui et avec Lavina, des performances similaires seraient obtenues avec une carte RTX coûtant un millier de dollars ou euros.

Autant dire que les années à venir s’annoncent prometteuses.

Le court-métrage Construct, si vous l’aviez manqué à l’époque de sa sortie

L’article Project Lavina : découvrez en images l’avenir du rendu est apparu en premier sur 3DVF.

Pliant Technologies’ Showcases Latest CrewCom Wireless Intercom System at IBC 2019

Par D Pagan Communications

AMSTERDAM, AUGUST 13, 2019 — Pliant Technologies will feature the latest firmware update for its CrewCom wireless intercom system along with its newly enhanced SmartBoom series of headsets at IBC 2019 (Stand 10.F29). Pliant will also be showcasing new accessory products including its new Drop-in Charger, Fiber Hub, and FleXLR gender adapter, which provide a ...

glTF, WebGL, OpenXR, Vulkan : les conférences Khronos du SIGGRAPH 2019

Par Shadows

Le Khronos Group a mis en ligne les enregistrements de ses conférences au SIGGRAPH 2019, qui se tenait fin juillet.
Au menu :

  • un « Fast Forward » qui couvre les dernières avancées des standards du Khronos Group :
  • une présentation centrée sur glTF, format de partage et chargement de modèles 3D :
  • une conférence autour des dernières techniques liées à WebGL, API dédiée à la 3D sur le web :
  • Enfin, des sessions autour de l’API Vulkan, destinée à remplacer OpenGL.

Notez enfin que les supports de présentations sont disponibles au téléchargement au format pdf.

L’article glTF, WebGL, OpenXR, Vulkan : les conférences Khronos du SIGGRAPH 2019 est apparu en premier sur 3DVF.

Un petit pas pour l’homme, un bond de géant avec NVIDIA RTX

Par Shadows

A l’occasion du cinquantenaire de la mission Apollo 11 et des premiers pas humains sur la Lune, NVIDIA a mis à jour sa démo d’alunissage.

Initialement dévoilée en 2014, la démo en question entendait casser certains arguments complotistes. L’idée était de recréer les premiers pas lunaires avec un éclairage réaliste, et d’expliquer au passage les supposées incohérences des images de la NASA (causées en réalité par la diffusion, le sol lunaire inégal et l’exposition). Sur le plan technique, une méthode d’illumination globale par voxels (VXGI) était utilisée.

Pour 2019, c’est sans surprise la technologie RTX qui fait son apparition dans la démo. De quoi améliorer encore le réalisme, des ombres douces aux reflets.

Voici le résultat, avec tout d’abord une présentation vidéo en compagnie de Buzz Aldrin, suivie d’une déclinaison de la démo pour le SIGGRAPH : le public pouvait s’immerger dans la scène via de la motion capture (une IA se chargeant d’analyser le flux vidéo pour déterminer la pose) et des techniques de production virtuelle. Le tout, évidemment, en temps réel.

L’article Un petit pas pour l’homme, un bond de géant avec NVIDIA RTX est apparu en premier sur 3DVF.

Production Virtuelle : un guide gratuit fait le point

Par Shadows

A l’occasion du SIGGRAPH, Epic Games a dévoilé un guide sur la production virtuelle. Intitulé The Virtual Production Field Guide, il est gratuit et en anglais.

Le livret se veut relativement accessible, et vise notamment à évangéliser les réalisateurs. On y trouvera une description des workflows et techniques (murs de LED, repérages de lieux en VR, etc) de façon à disposer d’une vue d’ensemble de la production virtuelle. Le guide propose aussi un retour sur des projets ayant utilisé cette méthode. Plus loin, le livret s’intéresse à la façon dont tel ou tel département peut profiter de la production virtuelle. Enfin, des interviews complètent l’ensemble avec par exemple le réalisateur Kenneth Branagh, le superviseur Ben Grossman, le directeur de la photographie Bill Pope.

L’intérêt d’Epic Games autour de la production virtuelle est évidement : cette approche s’appuie sur le temps réel et l’éditeur a tout intérêt à vanter les mérites de cette technique. Reste que le guide sera une excellente base pour maîtriser les enjeux principaux de la production virtuelle.

L’article Production Virtuelle : un guide gratuit fait le point est apparu en premier sur 3DVF.

❌