Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 14 novembre 2019Vos flux RSS

SATIS-Screen4All 2019 : Levels3D veut donner de l’intelligence à vos nuages de points

Par Shadows

La photogrammétrie, le LiDAR et plus largement les techniques de numérisation du réel sont de plus en plus précises et accessibles. Problème : la masse de données générées n’est pas toujours évidente à traiter, et nécessite souvent un nettoyage lourd avant d’être exploitable.

C’est justement ici qu’intervient Levels3D, entreprise que nous avons croisée lors du SATIS-Screen4All 2019. Elle propose différents produits et services, principalement destinés au secteur du bâtiment mais qui peuvent avoir des usages dans d’autres domaines.

En particulier, sa plateforme en ligne S3D Cloud permet d’importer des nuages de points issus de n’importe quel technique. On pourra les visualiser, effectuer des mesures, des coupes… Mais aussi et surtout appliquer l’algorithme maison S3D Automodel. Ce dernier va analyser les points et comprendre quelles zones correspondent à des surfaces planes : murs, sol, plafond, etc.

Le résultat : une maquette numérique pré-modélisée, qui allège considérablement les données (adieu, les centaines de milliers de polygones pour un mur plat). La maquette peut ensuite être exportée et exploitée dans n’importe quel outil 3D.

Bien évidemment, le résultat est imparfait, et nécessitera encore du post-traitement. Mais Levels3D travaille activement à l’amélioration de son outil. En particulier, S3D AutoModel pourrait rapidement être capable de gérer les arches. Mieux encore : grâce au deep learning, nous a expliqué le dirigeant de l’entreprise Yannick Folliard, l’outil dans le cloud de Levels3D devrait bientôt pouvoir classifier les données. Au lieu de se contenter de détecter des plans, le système pourra donc différencier murs, fenêtres, tables, chaises…

Cette extension n’est en elle-même pas surprenante : le sujet de la classification des nuages de points fait l’objet de recherches et développements actifs. En revanche, le fait de proposer ces fonctions dans un outil en ligne, à la demande et via un modèle économique très abordable (S3D Cloud est proposé pour moins de 200€ par mois, sans engagement, et un système de paiement à l’acte devrait également faire son apparition) risque fort de rendre l’offre de Levels3D attractive.

A terme, donc, on peut envisager des usages élargis bien au-delà du marché principal de Levels3D. Par exemple, une salle de restaurant numérisée pour des effets visuels, transformée en quelques clics en un modèle propre et léger, dont les tables et chaises seraient reconnues comme telles et pourraient donc être supprimées ou remplacées par d’autres modèles 3D…
Si ces possibilités devront attendre un peu avant de devenir réalité, Yannick Folliard s’est cependant montré optimiste : le deep learning au sein du S3D Cloud devrait se concrétiser dans un avenir très proche.

Nous ne manquerons donc pas de suivre les évolutions du service proposée par l’entreprise. D’ici là, vous pouvez faire un tour chez Levels3D pour découvrir ses autres services, comme le système S3D Capture qui permet de scanner des bâtiments avec un smartphone doté d’un capteur de profondeur, ou la création de systèmes d’aide à la navigation en intérieur.

L’article SATIS-Screen4All 2019 : Levels3D veut donner de l’intelligence à vos nuages de points est apparu en premier sur 3DVF.

À partir d’avant-hierVos flux RSS

Atomontage : 1,75 million d’euros pour mettre fin au règne des polygones

Par Shadows

Vieux serpent de mer de la 3D, le rendu volumétrique à l’aide de voxels fait régulièrement parler de lui. On se souvient par exemple d’Euclideon, société qui au début des années 2010 promettait une révolution technologique avec un « niveau de détail illimité » grâce aux voxels.

Quelques années plus tard, la révolution n’a pas eu lieu, et Euclideon a finalement réservé sa technologie à des applications industrielles (visualisation de modèles lourds et fixes), preuve que les promesses initiales étaient intenables. En parallèle, on croise bien des jeux vidéos et outils créatifs en voxels, mais ils restent largement minoritaires.

Si nous revenons sur les voxels aujourd’hui, c’est parce qu’une société a récemment levé 1,75 million d’euros autour de cette approche : Atomontage. L’entreprise est américaine, mais en pratique son équipe de développement est basée en Slovaquie.
Si Atomontage a su séduire des investisseurs du secteur (Karl Magnus Troedsson, ex PDG de EA DICE, Tommy Palm, PDG de Resolution Games, ou encore Hilmar Pétursson PDG de CCP)., c’est que sa technologie semble plus viable que celle d’Euclideon. Les démos ci-dessous sont assez parlantes, et comportent même de l’animation soft-body.

Fondée en 2018, Atomontage devrait profiter de cette entrée d’argent pour poursuivre ses travaux de R&D et étoffer sa petite équipe technique (une demi-douzaine d’ingénieurs). De quoi, peut-être, faire des voxels la technologie de demain.

L’article Atomontage : 1,75 million d’euros pour mettre fin au règne des polygones est apparu en premier sur 3DVF.

Studio Technologies’ Model 205 Announcer’s Console Enhances LA Lakers Broadcasts

Par D Pagan Communications

LOS ANGELES, OCTOBER 24, 2019 – Freelance Engineer Michael Dooley has worked on hundreds of remote broadcasts for various radio stations over the last 30 years. In 2004, he began running broadcasts for LA Lakers games, which are aired on the team’s flagship station ESPN LA 710 as well as 16 stations in Fresno, San ...

The post Studio Technologies’ Model 205 Announcer’s Console Enhances LA Lakers Broadcasts appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Scanner facilement une fourmi en 3D devient possible (et open source)

Par Shadows

L’explosion de la photogrammétrie ces dernières années a permis de numériser sans difficultés de nombreux sujets, mais la technique conserve ses limitations. L’une d’elles concerne les sujets de très petite taille : en photo macro, la profondeur de champ très réduite devient un frein majeur au scan 3D. Multiplier les prises de vue en décalant la mise au point reste possible, mais très fastidieux et plus complexe à gérer lors de la reconstruction.

Dans ce contexte, DISC3D se présente comme une solution très intéressante. Il s’agit d’un système automatisé permettant de scanner efficacement des sujets de très petite taille tels que des insectes. Voici les résultats pouvant être obtenus :

Les résultats sont assez impressionnants : les modèles sont précis, y compris au niveau des détails tels qu’antennes et pattes.

En coulisses se trouve donc DISC3D, un projet open source porté par Digital Archive of Natural History (DiNArDa). Le concept mêle techniques classiques, ingénierie et optimisations.

Le schéma et la photo ci-dessous en donnent une petite idée :
– le sujet est placé au centre d’un système l’éclairant de manière uniforme, grâce à des LEDs et deux dômes diffusant la lumière ;
– la prise de vue est effectuée via une caméra contrôlée informatiquement et montée sur un StackShot : un rail macro qui permet de déplacer précisément la caméra afin d’ajuster la position de la zone de netteté sur le sujet ;
– deux moteurs (élévation, azimut) permettent de faire pivoter le sujet dans toutes les directions ;
– le tout est contrôlé informatiquement, à l’aide de MATLAB (logiciel associé à un langage de script, largement utilisé dans le monde de la recherche).

Ainsi, ce système est capable pour un point de vue donné de prendre une série de photos en faisant varier la zone de mise au point, puis de faire tourner légèrement l’objet et de recommencer, encore et encore, afin de le capturer sous toutes les coutures.

Vient ensuite le post-traitement : sans rentrer dans les détails, il s’agit ici d’assembler les photos de chaque point de vue, pour créer une photo nette sur l’ensemble du sujet, tout en l’associant à un masque : une couche alpha qui facilitera la reconstruction.

Une fois les images nettes et masquées générées, on peut les envoyer dans un outil de photogrammétrie tel que Metashape (ex Photoscan), et reconstituer le sujet sous forme de modèle 3D texturé.

L’équipe derrière DISC3D a publié une description technique détaillée de son système : DISC3D est open source et peut donc être reproduit à l’aide des informations données.
Côté matériel, il faudra entre 4000 et 8000€ pour créer votre propre DISC3D, en fonction de critères tels que la qualité de la caméra utilisée.

DISC3D reste perfectible : en particulier, l’équipe évoque des temps de capture allant de 2 à 5 heures par insecte. Néanmoins, l’acquisition des images ne prend à elle seule que 40 à 100 minutes : c’est donc le traitement des images qui est responsable de ces durées, et diverses options permettront de faire chuter les délais. A commencer par la simple évolution des logiciels et du matériel. On peut aussi envisager des évolutions au niveau du workflow (entamer la reconstruction 3D dès les premières images, par exemple, alors que la capture se poursuit, est prévu d’emblée avec certains logiciels de photogrammétrie).

Voici pour finir d’autres modèles issus de DISC3D : insectes, coquille d’escargot, petits ossements. Notez que tous les exemples montrés ici sont téléchargeables sous licence Creative Commons sur Sketchfab.

L’article Scanner facilement une fourmi en 3D devient possible (et open source) est apparu en premier sur 3DVF.

Pliant Technologies CrewCom Heads to the Front of the Class for Samford University Theatre

Par D Pagan Communications

BIRMINGHAM, AL, OCTOBER 22, 2019 — Through trial and error with other manufacturers, David Glenn, director of technology and design for the Samford University theatre, finally found the communications solution he was searching for with Pliant Technologies’ CrewCom wireless intercom system. For the 288-seat university theatre, it is crucial to deploy a reliable intercom system ...

The post Pliant Technologies CrewCom Heads to the Front of the Class for Samford University Theatre appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

D2D Technologies selected by PBS to supply equipment for Wireless Emergency Alert System

Par guest_nLlBd

D2D Technologies announced that the company was selected by the Public Broadcasting Service (PBS) as their vendor partner to supply a customized solution to all public television stations for the insertion and broadcast of emergency message data that complies with upcoming FCC mandated changes to the Wireless Emergency Alert (WEA) system. The nationwide PBS WARN ...

The post D2D Technologies selected by PBS to supply equipment for Wireless Emergency Alert System appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Mike Ruddell joins Ncam to support continued growth of AR and VR in Broadcast and Live Production

Par Denise Williams

Ncam Technologies, the leading developer of real-time augmented reality technology for the media and entertainment industries, has announced the immediate appointment of Mike Ruddell to the role of Global Business Development Director – Sports & Broadcast. Alongside the current growth in Ncam’s core markets of broadcast graphics, film and TV VFX, sports, and enterprise AR, ...

The post Mike Ruddell joins Ncam to support continued growth of AR and VR in Broadcast and Live Production appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

Starfish provides compliance recording to The National Library of Sweden

Par Manor Marketing

Reading,UK, 16 October 2019: Starfish Technologies, a pioneer in transport stream processing and advertising insertion, has supplied a multi-channel compliance recording system to Kungliga biblioteket, The National Library of Sweden in Stockholm, Sweden, in cooperation with Starfish’s Swedish partner Lanlink Digital Broadcast. The system utilises Starfish’s ‘Verify’ compliance recording technology which can record multiple channels of ...

The post Starfish provides compliance recording to The National Library of Sweden appeared first on NAB Show News by Broadcast Beat, Official Broadcaster of NAB Show - NAB Show LIVE.

L’impression 3D par fusion de faisceau d’électrons (EBM), on vous explique tout !

Par Guillaume Marion

L’impression 3D par fusion de faisceau d’électrons, ou Electron Beam Melting en anglais (EBM), fait partie de la famille de fusion sur lit de poudre : à l’inverse de la fusion laser, elle vient utiliser, comme son nom l’indique, un […]

NVIDIA utilise RTX pour proposer fond vert, effets et motion capture faciale

Par Shadows

NVIDIA profite de la TwitchCon 2019, conférence dédiée au streaming, pour dévoiler le NVIDIA RTX Broadcast Engine. Ce nouveau SDK utilise l’intelligence artificielle et les tensor cores des cartes graphiques RTX pour proposer divers effets qui pourront être intégrés dans des applications. En particulier, le SDK propose :

– RTX Greenscreen, un outil de suppression de l’arrière-plan sur le flux vidéo d’une webcam, en temps réel. Il s’agit donc de l’équivalent d’un fond vert mais sans avoir à un installer un.

– RTX AR, qui effectue un suivi des éléments du visage et peut en recréer un modèle 3D approximatif. Cette motion capture permet de créer divers effets tels que l’animation d’avatars 3D. Une technique qui rappelle évidemment ce que proposent certains smartphones.

– RTX Style Filters, un système de transfert de style : cette technique en vogue consiste à modifier le flux vidéo pour lui appliquer le style d’une image prédéfinie, par exemple une peinture.

Si ce SDK cible avant tout le secteur du streaming, il sera intéressant de suivre ses usages. En particulier, la possibilité de faire de la motion capture faciale facilement, avec une simple webcam et carte graphique RTX, pourrait avoir des applications intéressantes en animation, comme ce fut le cas avec des équivalents sur smartphone.

L’article NVIDIA utilise RTX pour proposer fond vert, effets et motion capture faciale est apparu en premier sur 3DVF.

Barnfind Adds Future-Proof Functionality and Flexibility to All-In-One 12G-SDI & HDMI 2.0 Fiber Transport BTF1-41 Frame at IBC 2019

Par Desert Moon Communications

Barnfind Adds Future-Proof Functionality and Flexibility to All-In-One 12G-SDI & HDMI 2.0 Fiber Transport BTF1-41 Frame at IBC 2019 BNC-32 mid-board increases network of functions via electrical interface Amsterdam  – (September 13, 2019) — Barnfind Technologies, an international leader in fiber transport solutions, is showing its all-in-one 12G-SDI & HDMI 2.0 Fiber Transport BTF1-41 Frame ...

ESL chooses Intinor for flagship esports events

Par Manor Marketing

Stand 14.D10, IBC 2019, RAI, Amsterdam — Intinor Technology, Sweden’s leading developer of products and solutions for high quality video over IP networks, has announced that ESL, the world’s largest esports company, has deployed a combination of Intinor’s Direkt router, Direkt router lite, and Direkt receiver units to cover its linear broadcasting needs. ESL wanted ...

SIGGRAPH 2019 : 5 experts explorent le pipeline du futur

Par Shadows

A l’occasion du SIGGRAPH 2019, SideFX (éditeur de Houdini) a invité cinq Senior Pipeline Managers et artistes 3D à évoquer les problèmes auxquels font face les pipelines actuels, et dans quelle direction l’architecture des pipelines va évoluer.

Les questions évoquées : les spécificités du pipeline utilisé par les intervenants, l’élément qui a eu le plus d’impact sur leur pipeline ces 10 dernières années, leur plus gros défi actuel, l’impact de la technologie sur le pipeline, et ce que l’on peut attendre dans 5, 10 ans.

Les invités sont, de gauche à droite dans la vidéo :
– Phill Mayer, FX Lead Artist chez The Mill ;
– Jason Iversen, Pipeline Technology Supervisor chez Weta Digital ;
– Peter Nofz, superviseur VFX chez Rodeo FX ;
– Chris Rydalch, Production Technology Technical Director chez Blue Sky Studios ;
– Mathieu Leclaire, Head of R&D chez Hybride.

L’article SIGGRAPH 2019 : 5 experts explorent le pipeline du futur est apparu en premier sur 3DVF.

L’impression 3D par dépôt de matière sous énergie concentrée, on vous explique tout !

Par Mélanie R.

L’impression 3D par dépôt de matière sous énergie concentrée ou DED en anglais (Directed Energy Deposition) est un processus d’impression 3D complexe qui regroupe un ensemble de technologies variées, généralement utilisé pour réparer ou ajouter des matériaux supplémentaires aux composants […]

Violons et personnages virtuels : découvrez les démos Vicon du SIGGRAPH

Par Shadows

Le spécialiste de la motion capture Vicon présente en vidéo un récapitulatif de ses démonstrations au SIGGRAPH 2019. L’entreprise mettait en avant ses solutions matérielles et logicielles, dont la future version 1.3 de sa plateforme Shōgun.

En pratique, des visiteurs du salon ont pu diriger leur propre scène en production virtuelle avec les outils de Vicon et un aperçu sous Unreal Engine. Deux acteurs interprétaient respectivement les personnages Feng-Mao et The Countess. Vicon explique que son but était de prouver qu’en utilisant des assets déjà prêts et issus de la Marketplace Epic Games, ainsi que les solutions Vicon, il est possible de créer des cinématiques en temps réel avec gestion des expressions faciales mais aussi des doigts.

Une seconde vidéo propose une présentation plus détaillée de la fameuse version 1.3 de Shōgun.

L’article Violons et personnages virtuels : découvrez les démos Vicon du SIGGRAPH est apparu en premier sur 3DVF.

Back Stage : Luminous Productions (Square Enix) repousse les limites du réalisme

Par Shadows

Luminous Productions, qui fait partie du groupe Square Enix, a dévoilé lors de la conférence japonaise CEDEC une nouvelle démo 3D temps réel. Elle s’appuie sur le fameux Luminous Engine, moteur maison employé entre autres pour développer Final Fantasy XV.

En pratique, cette démo a pour objectif de mettre en avant le support du raytracing temps réel (et plus précisément ici du path tracing temps réel). Elle tourne sur une 2080 TI.
Fort logiquement, le projet s’appuie donc sur des points pour lesquels le raytracing et le path tracing excellent : la mise en scène d’une jeune femme face à un miroir et l’occasion d’utiliser une gestion poussée de l’éclairage ainsi que des reflets.

Si la démo n’est malheureusement pas disponible au téléchargement, elle vient en tous cas renforcer la vague de soutien de l’industrie du jeu vidéo en faveur du raytracing temps réel. NVIDIA se félicite d’ailleurs sans surprise de « l’enthousiasme continu que le ray tracing est en train de créer ». L’adoption par les principaux moteurs du marché de cette technologie valide en effet sa stratégie commerciale.

Voici donc la démo Back Stage, qui préfigure les cinématique in-game que vous verrez prochainement dans les jeux vidéo :

L’article Back Stage : Luminous Productions (Square Enix) repousse les limites du réalisme est apparu en premier sur 3DVF.

Autodesk injecte de l’IA dans la 3D

Par Shadows

Autodesk a publié une conférence dans laquelle l’entreprise présente plusieurs de ses projets en lien avec l’intelligence artificielle.
Evan Atherton (Senior Research Engineer) évoque les avantages pour les artistes, Will Harris (Flame Family Product Manager) se penche sur le finishing et Sebastian Casallas (Senior Software Engineer) présente plusieurs projets dont un système d’automatisation de création des seams en dépliage UV. Nous avions d’ailleurs récemment eu l’occasion de vous présenter les avantages potentiels de l’IA pour l’UV Mapping en abordant la roadmap 3ds Max.

L’article Autodesk injecte de l’IA dans la 3D est apparu en premier sur 3DVF.

Fusion laser sur lit de poudre, on vous explique tout !

Par Mélanie R.

Dans les années 90, plusieurs entreprises se penchent sur la technologie de fusion sur lit de poudre qui consiste à fondre des particules de poudre métallique grâce à une source de chaleur – un laser ou un faisceau d’électrons – […]

La motion capture d’une équipe de foot devient possible avec Xsens

Par Shadows

L’éditeur Xsens a mis à jour MVN Animate, sa plateforme logicielle de motion capture. Pensée pour fonctionner en tandem avec les combinaisons de motion capture inertielles de l’entreprise, MVN Animate se dote de fonctions qui élargissent ses capacités : tout d’abord, le « on-body recording » permet de stocker les données localement, sur l’acteur, lorsque ce dernier sort du champ de couverture du point d’accès. L’intérêt est évidemment d’élargir la zone de couverture et de ne pas perdre de données.
Au passage, la nouvelle version 2019.2 permet aussi de déclencher à distance et de façon synchronisé la capture : les modèles n’ont plus à se soucier de cette étape. Cette capture synchronisée peut être lancée sur 25 personnes en simultané : de quoi effectuer de la motion capture sur un terrain de foot, avec équipe complète !
Enfin, MVN Animate supporte désormais le positionnement par satellite via GPS, GLONASS et QZSS. L’intérêt : atténuer les problèmes de dérive dans les données capturées, mais aussi possibilité de tracker des activités sans contact entre les pieds et le sol (cyclisme, équitation, skate…).

La mise à jour est disponible pour tous les utilisateurs disposant du support, et sera fournie en standard sur les futurs achats Xsens.

L’article La motion capture d’une équipe de foot devient possible avec Xsens est apparu en premier sur 3DVF.

iSize Technologies talks at IBC on deep neural networks enhancing and accelerate existing video coding standards for internet video

Par Manor Marketing

IBC 2019, 13-17 September, Stand 8.F25 – iSize Technologies, the London-based provider of intelligent video coding and delivery technology, is challenging the industry with a paper at IBC 2019 describing how deep neural networks will enhance and accelerate existing video coding standards for internet video, all without breaking anything in the process. According to iSize ...

Oscars scientifiques et techniques : pistes et appel à candidats

Par Shadows

Comme chaque année, l’Academy of Motion Picture Arts and Sciences dévoile une liste des sujets qui seront explorés pour les Oscars scientifiques et techniques. Ces derniers récompensent pour rappel des innovations qui ont eu un impact important sur le secteur du cinéma : il ne s’agit donc pas de nouveautés mais d’avancées qui ont eu le temps de faire leurs preuves.

Le fait de dévoiler à l’avance les sujets qui seront récompensés a de son côté un objectif bien précis : permettre aux personnes et entreprises susceptibles d’être primées de se manifester auprès de l’Académie.

Voici donc les thèmes de la prochaine édition :

  • Les écrans professionnels avec auto-calibration ;
  • Les systèmes d’acquisition faciale montés sur la tête des talents ;
  • Les systèmes de transmission vidéo sans fil employés en production pour le cinéma ;
  • Les frameworks haute performance de calcul d’intersections rayons-géométrie ;
  • Les outils de simulation de cheveux ;
  • Les systèmes de suivi et planification pour la post-production ;
  • Les systèmes de post-synchronisation automatique des dialogues ;
  • Les logiciels de réparation et restauration audio pour le cinéma ;
  • Enfin, les outils de suivi et inventaire de costumes, props, cheveux et maquillage pour la production physique.

Si vous ou votre entreprise est susceptible de correspondre à une catégorie, rendez-vous sur le site dédiée pour proposer votre dossier.

L’article Oscars scientifiques et techniques : pistes et appel à candidats est apparu en premier sur 3DVF.

iSize Technologies to launch AI-powered ‘BitSave’ SaaS Video Encoding Platform at IBC 2019

Par Manor Marketing

IBC 2019, 13-17 September, Stand 8.F25 – iSize Technologies, the London-based provider of intelligent video coding and delivery technology, will launch BitSave, a first-of-a-kind, fully AI-powered encoding platform that enables up to 70 percent bitrate saving versus non-AI competing codec solutions, at IBC 2019. iSize has also been selected to present a paper at IBC ...

Open Source : Autodesk fait le point sur MaterialX avec Lucasfilm et Allegorithmic

Par Shadows

Autodesk a mis en ligne une conférence autour de son travail sur l’open source ; plus précisément, il s’agit d’une conférence autour de MaterialX aux côtés de Lucasfilm et Allegorithmic.
En complément, nous vous invitons à découvrir ou redécouvrir la conférence donnée au Festival d’Annecy 2019 autour de l’Open Source : Autodesk y présentait sa vision sur le sujet.

L’article Open Source : Autodesk fait le point sur MaterialX avec Lucasfilm et Allegorithmic est apparu en premier sur 3DVF.

Insys Video Technologies to Unveil New Cloud Media Recording Solution and Expanded OTT Platform at IBC2019

Par Write Turn Communications

Company will showcase new and established solutions in dual presence at the show – a dedicated exhibit pod plus demonstrations at the Amazon Web Services stand August 22, 2019 — Dübendorf, Switzerland: Over-the-top (OTT) video solutions innovator Insys Video Technologies is heading to the IBC2019 exhibition in Amsterdam in September with a powerful new cloud-based ...

SIGGRAPH 2019 : USD, quel impact pour les studios ?

Par Shadows

A l’occasion du SIGGRAPH, SideFX a proposé de nombreuses conférences sur place, à Los Angeles. L’une d’elle, dont voici l’enregistrement, était centrée sur USD.

Si nous avons déjà plusieurs fois abordé ce format open source initialement développé chez Pixar, la présentation a l’intérêt de souligner certains intérêts et enjeux concrets.
Ainsi, avec Universal Scene Description, un plan spécifique peut être décrit avec un fichier unique, et les informations peuvent être passées de département en département pour être éditées de façon non destructive. Autre avantage : chaque département peut voir automatiquement les dernières mises à jour de chaque département en ouvrant un fichier USD.

USD

La vidéo propose aussi une explication autour de certains concepts d’USD comme les calques, opinions, références.

Présentée par Rob Stauffer (Senior Production Consultant chez SideFX), cette conférence n’était pas organisée par hasard par l’éditeur de Houdini. USD va en effet prendre de l’importance dans ce logiciel, comme nous l’annoncions début août.

L’article SIGGRAPH 2019 : USD, quel impact pour les studios ? est apparu en premier sur 3DVF.

Ncam to debut Ncam Reality 2019 to Latin American market at SET EXPO 2019

Par Denise Williams

Ncam Technologies, the leading developer of real-time augmented reality technology for the media and entertainment industries, today announced the latest version of its camera tracking solution, Ncam Reality 2019.1, will debut in Latin America at SET EXPO 2019 on booth 159/160. Ncam is also reinforcing the company’s commitment to the region with the appointment of ...

GauGAN primé au SIGGRAPH : une piste d’avenir pour le concept art ?

Par Shadows

A l’occasion du SIGGRAPH 2019, l’application GauGAN de NVIDIA a reçu un double prix dans la compétition Real-Time Live : « Best of Show » et « Audience Choice ». Derrière cet accueil, on retrouve un outil qui pourrait bien préfigurer de vraies évolutions pour les concept artists.

Une IA qui qui travaille (presque) à votre place

Dévoilée plus tôt cette année par des chercheurs de NVIDIA, GauGAN est un outil qui peut convertir des maps de segmentation en paysages réalistes.
Plus concrètement, l’idée est d’éviter à l’artiste une partie de la phase de concept art. Inutile de dessiner arbres, nuages, montagnes : on se contente d’esquisser grossièrement la scène avec des codes couleur. Ici de la mer, là de la montagne, plus loin des plantes, plus loin encore des nuages : en quelques minutes, ce brouillon (la fameuse map de segmentation) est bouclé. C’est alors qu’intervient la magie de l’IA : le système GauGAN, entraîné sur plus d’un million d’images réelles de paysages, va interpréter cette ébauche et en tirer un aperçu réaliste, comme pour les images qui illustrent cet article. Le tout, quasi instantanément.

GauGAN

Enfin, un système de filtres permet d’affiner le style du rendu, qu’il s’agisse de se rapprocher de l’ambiance d’une photo ou même d’une image abstraite, comme une peinture. Voici quelques exemples de résultats :

GauGAN

Si les images obtenues ne sont évidemment pas parfaites, GauGAN est particulièrement puissant pour créer une première ébauche qui sera ensuite affinée par l’artiste, ou pour du brainstorming. C’est ce type d’usage que met en avant NVIDIA :

A vous de jouer

NVIDIA propose une démonstration gratuite de son outil, à tester directement dans votre navigateur. Le code source est également disponible sur GitHub, mais tout usage commercial est interdit. Vous trouverez au même endroit des liens vers les publications scientifiques qui servent de fondement au projet. Enfin, vous pourrez découvrir ci-dessous (à partir de la 48ème minute) la démonstration effectuée au SIGGRAPH.

L’article GauGAN primé au SIGGRAPH : une piste d’avenir pour le concept art ? est apparu en premier sur 3DVF.

Project Lavina : découvrez en images l’avenir du rendu

Par Shadows

Chaos Group, éditeur de V-Ray, a mis en ligne une démo présentée cet été lors du SIGGRAPH. Il s’agit d’une vidéo du fameux Project Lavina, son futur moteur de rendu en raytracing temps réel.

La démo est pour le moins alléchante, avec des scènes massives et de l’animation. L’usage semble particulièrement simple : un glisser-déposer d’une scène V-Ray permet d’explorer cette dernière immédiatement et en temps réel. Autrement dit, tous les avantages d’une visualisation dans un moteur de jeu, mais sans le processus de préparation habituel.

Chaos Group donne quelques précisions : la scène de ville a été créée par Evan Butler de Blizzard Entertainement à l’aide de KitBash3d, et atteint le milliard de polygones ; plus loin, on reconnaîtra des scènes du fameux court Construct de Kevin Margo.
Côté fonctionnalités, Lavina gère déjà les animations et le multi-GPU. L’outil dispose aussi d’un nouveau système de réduction du bruit (on sent d’ailleurs un fourmillement dans l’image), prend en compte les collisions, permet d’appliquer matériaux et LUTs, de fusionner des scènes, de transformer/sélectionner des objets, ou encore de gérer caméra et profondeur de champ.

Bien entendu, tout ceci a un coût matériel : la démo a été enregistrée à l’aide de deux NVIDIA Quadro RTX 8000 (les performances devraient être similaires sur deux cartes GeForce 2080 TI). Lavina demande donc une machine solide, mais on peut imaginer que les progrès matériels à venir sauront répondre à ces besoins.

D’ici là, un formulaire permet d’être tenu au courant des avancées de Lavina, qui sortira « bientôt » en beta. Pour tester Project Lavina quand ce sera possible, il vous faudra une licence V-Ray Next Render, une carte graphique NVIDIA RTX et enfin une machine Windows compatible DirectX 12/DXR. Il sera possible de se contenter d’une carte Pascal ou Maxwell, mais les performances seront largement moindres : autant dire que Lavina en perdra fortement en intérêt.

Plus largement, cette démo de Project Lavina donne un aperçu de ce que permettra à l’avenir le raytracing temps réel : la fin des aperçus interactifs au profit du temps réel, et un rendu toujours plus proche de l’image finale.
Comme l’explique Lon Grohs de Chaos Group : quand la production du court Construct a débuté, Kevin Margo visualisait des scènes à 24 images par seconde avec 250 000$ de matériel. Aujourd’hui et avec Lavina, des performances similaires seraient obtenues avec une carte RTX coûtant un millier de dollars ou euros.

Autant dire que les années à venir s’annoncent prometteuses.

Le court-métrage Construct, si vous l’aviez manqué à l’époque de sa sortie

L’article Project Lavina : découvrez en images l’avenir du rendu est apparu en premier sur 3DVF.

Pliant Technologies’ Showcases Latest CrewCom Wireless Intercom System at IBC 2019

Par D Pagan Communications

AMSTERDAM, AUGUST 13, 2019 — Pliant Technologies will feature the latest firmware update for its CrewCom wireless intercom system along with its newly enhanced SmartBoom series of headsets at IBC 2019 (Stand 10.F29). Pliant will also be showcasing new accessory products including its new Drop-in Charger, Fiber Hub, and FleXLR gender adapter, which provide a ...

glTF, WebGL, OpenXR, Vulkan : les conférences Khronos du SIGGRAPH 2019

Par Shadows

Le Khronos Group a mis en ligne les enregistrements de ses conférences au SIGGRAPH 2019, qui se tenait fin juillet.
Au menu :

  • un « Fast Forward » qui couvre les dernières avancées des standards du Khronos Group :
  • une présentation centrée sur glTF, format de partage et chargement de modèles 3D :
  • une conférence autour des dernières techniques liées à WebGL, API dédiée à la 3D sur le web :
  • Enfin, des sessions autour de l’API Vulkan, destinée à remplacer OpenGL.

Notez enfin que les supports de présentations sont disponibles au téléchargement au format pdf.

L’article glTF, WebGL, OpenXR, Vulkan : les conférences Khronos du SIGGRAPH 2019 est apparu en premier sur 3DVF.

❌