Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

L’impression 3D alimentaire : une révolution en cuisine ?

On se souvient tous du fameux synthétiseur de nourriture dans Star Trek, cet appareil capable de transformer n’importe quelle molécule en aliment comestible. Il semblerait qu’on s’en approche de plus en plus avec ces imprimantes 3D alimentaires qui sont capables…

cover1-1

Des chercheurs impriment en 3D des tissus structurés capables de supporter 50 fois leur poids

Une équipe de scientifiques de l’université technologique de Nanyang (Singapour) et de l’institut de technologie de Caltech en Californie ont développé une structure imprimée en 3D capable de supporter 50 fois son propre poids. Inspirée de la cotte de mailles,…

cotte2

SIGGRAPH 2021 : Adobe évoque avenir de Substance 3D, projets de recherche

Par : Shadows

A l’occasion du SIGGRAPH 2021, Adobe a voulu dévoiler quelques éléments sur l’avenir de sa gamme Substance 3D.

Sébastien Deguy (Vice-Président, 3D & Immersive – Adobe), Guido Quaroni (Senior Director of Engineering) et l’équipe de recherche Adobe ont donc pris une trentaine de minutes pour présenter à la fois quelques éléments des prochaines mises à jour, mais aussi des projets de R&D : l’occasion, donc, de revenir sur certaines publications techniques.

L’article SIGGRAPH 2021 : Adobe évoque avenir de Substance 3D, projets de recherche est apparu en premier sur 3DVF.

SIGGRAPH 2021 : un projet de recherche nettoie vos dessins

Par : Shadows

Nous continuons notre couverture des innovations présentées durant le SIGGRAPH avec une publication axée sur la 2D et l’esquisse : StrokeStrip : joint parameterization and fitting of stroke clusters.

Ce projet de recherche est issu du travail de Dave Pagurek van Mossel, Chenxi Liu (University of British Columbia), Nicholas Vining (University of British Columbia & NVIDIA), Mikhail Bessmeltsev (University of Montreal), Alla Sheffer (University of British Columbia).

En dessin, il est courant d’esquisser un tracé avec de multiples coups de crayon. Les humains devinent aisément la forme voulue par l’artiste :

En revanche, il est plus difficile de demander à une machine de générer ce tracé à partir des esquisses. Les travaux existants (méthodes d’Orbay et Kara en 20211, Lieu et al. en 2018) produisent des résultats intéressant mais les méthodes manquent de robustesse. La publication présente StrokeStrip, une nouvelle approche qui donne de bien meilleurs résultats :

En outre, StrokeStrip s’appuie sur une paramétrisation qui peut avoir des usages multiples, comme la colorisation ou la déformation facilitée du tracé.

Pour plus d’informations, nous vous invitons à lire la publication complète ( StrokeStrip : joint parameterization and fitting of stroke clusters). Vous y trouverez aussi le code utilisé.
Vous pouvez également jeter un oeil sur les vidéos de l’auteur principal, Dave Pagurek : la présentation du projet est disponible en trois versions de 30 secondes, 5 minutes et 20 minutes, selon le niveau de détail et technicité que vous souhaitez.

L’article SIGGRAPH 2021 : un projet de recherche nettoie vos dessins est apparu en premier sur 3DVF.

SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ?

Par : Shadows

A première vue, Neural Scene Graph Rendering est une publication anodine, voire décevante : avec des résultats qui se limitent à des rendus de scènes 2D et 3D particulièrement basiques, on peut même se demander si l’on est bien en 2021.

Mais les apparences sont trompeuses.

Le meilleur des deux mondes

Les auteurs de la publication, Jonathan Granskog, Till Schnabel, Fabrice Rousselle, Jan Novak de NVIDIA, nous proposent en fait ici davantage qu’un simple projet de recherche : leurs travaux s’inscrivent dans une vision à long terme, qui pourrait révolutionner la manière dont nous rendons nos scènes.

En effet, on dispose actuellement de deux approches radicalement différentes pour effectuer un rendu, autrement dit générer une image :

  • Le rendu 3D « classique », qui règne en maître dans les effets visuels et l’animation 3D, permet de créer des scènes très diverses mais pour lequel le photoréalisme parfait est très difficile à atteindre.
Projet Meet Mike (SIGGRAPH 2017) : un exemple des capacités du rendu 3D (ici, 3D temps réel)
  • Le rendu neural : il s’agit ici de rendu s’appuyant sur les techniques d’intelligence artificielle (deep learning).
    Les outils que vous avez pu voir ces dernières années qui créent des portraits d’humains qui n’existent pas, ou les outils GauGAN/Canvas de NVIDIA permettant de créer des paysages à partir d’une simple esquisse, font partie de cette catégorie.
    Ici, la « représentation neurale » sera un ensemble de variables, et le « moteur de rendu neural » sera la partie de l’outil qui génère l’image finale.
Images générées par un StyleGAN : aucun de ces humains n’est réel, les visages ont été créées par une intelligence artificielle.

Si l’on compare les deux approches, et par exemple dans le cas du rendu d’un visage, on a d’un côté le rendu 3D qui crée des résultats très bons mais sans doute pas aussi bons que l’approche neurale, qui s’appuie « juste » sur une architecture adaptée et la phase d’apprentissage à partir d’un ensemble de données.

Inversement, expliquent les auteurs de la publication, si l’on veut modifier le résultat (par exemple générer un visage d’extraterrestre), le rendu 3D permet facilement de changer le matériau ou le modèle utilisés. L’approche neurale, en revanche, est fortement contrainte par les données d’apprentissage et produire un résultat radicalement différent de ces données sera difficile.

En haut, le rendu 3D classique
En bas, le rendu neural

Souplesse, contrôle artistique, réalisme… Au fond, chaque approche a ses avantages et inconvénients.

D’où la vision à long terme qui sous-tend la publication : au lieu d’opposer les techniques, pourquoi ne pas les combiner ? Pourquoi ne pas générer des images en partie avec du rendu neural, en partie avec un moteur de rendu 3D classique ?
Par exemple, suggèrent les auteurs, le rendu neural pourrait se charger des parties difficiles à gérer avec le rendu 3D classique comme les visages, la fourrure.

L’idée est alléchante, mais n’est à ce stade qu’une simple idée. Reste donc à la concrétiser et à faire cohabiter deux approches qui n’ont rien à voir.

Une scène 3D rendue sans moteur de rendu classique

Nous arrivons enfin au projet de recherche proprement dit : l’équipe s’est intéressée à la façon dont un scene graph classique, autrement dit la description d’une scène 3D dans un outil traditionnel (avec liste des modèles, leur position, matériaux…) pourrait être traduite en représentation neurale, puis envoyée à un moteur de rendu neural.

A ce stade, il ne s’agit donc pas encore de mêler les rendus, mais uniquement de faire en sorte que des scènes 3D classiques puissent être « comprises » et traitées par une approche neurale.

L’équipe est parvenue à des résultats concluants, et en montre quelques exemples :

  • Une animation de volley :
  • un petit outil qui permet d’éditer en temps réel un scene graph neural, et avec rendu neural : autrement dit, sur cette session de création 3D, les objets et leurs matériaux, le rendu de la scène ne sont pas gérés par du rendu 3D classique mais bien par de l’intelligence artificielle.
  • La méthode peut aussi être appliquée à des animations 2D à base de sprites : là encore, le visuel est donc issu de rendu neural, pas d’un moteur 2D.

Retour vers la vision globale

Encore une fois, ces premiers résultats restent très basiques, mais il faut les considérer avec du recul : ce sont des tests précurseurs, pas une méthode destinée à être utilisée dès demain en studio.

En revanche, avec ces essais, l’équipe de recherche a prouvé la validité de son concept. L’approche a pu être appliquée a des cas variés et a donc un bon potentiel de généralisation a des situations et usages très différents.

Une première brique est donc posée vers la vision plus large évoquée par les auteurs, avec à terme une interopérabilité entre les maillons de la chaîne de rendu 3D classique et celle du rendu neural.

Pour autant, est-ce vraiment le début d’une révolution ? Réponse dans quelques années, selon les progrès techniques qui seront accomplis.

Pour aller plus loin, nous vous invitons à visionner cette vidéo de présentation d’une quinzaine de minutes, et en particulier le passage à partir de la 30ème seconde, qui revient sur cette vision à long terme.
Vous pouvez aussi consulter la page de la publication : Neural Scene Graph Rendering.

L’article SIGGRAPH 2021 : derrière un projet NVIDIA, un pas vers une révolution ? est apparu en premier sur 3DVF.

Mars Dune Alpha, une structure imprimée en 3D qui ouvre la voie à l’exploration spatiale

La NASA utilise une fois de plus l’impression 3D pour explorer et conquérir l’espace. Peu de temps après avoir présenté l’étude Redwire Regolith, qui testera si l’impression 3D de régolithe peut être utilisée pour créer des habitats sur d’autres planètes,…

Cover-ICON

SIGGRAPH 2021 : ChoreoMaster fait danser vos personnages 3D

Par : Shadows

Créer des animations de danse crédibles est un vrai besoin, qu’il s’agisse de l’essor de concerts virtuels dans Fortnite, d’un bal dans La Reine des Neige ou d’une foule dans un film à effets visuels. Cette tâche reste néanmoins fastidieuse, d’autant plus que l’animation doit être en rythme avec la musique et respecter son style.

C’est ici qu’interviennent Kang Chen, Zhipeng Tan, Jin Lei, Song-Hai Zhang, Yuan-Chen Guo, Weidong Zhang et Shi-Min Hu du NetEase Games AI LAB et de l’université de Tsinghua, avec leur projet de recherche ChoreoMaster : Choreography-Oriented Music-Driven Dance Synthesis.

Le premier générateur de danse utilisé en production

L’objet de leur publication est ChoreoMaster, un système de synthèse d’animations de danse à partir de musique, prêt pour un usage en production. Il a même déjà été utilisé par le studio de jeux vidéo Netease Games pour plusieurs projets. Il s’agirait même, selon les auteurs, du premier outil du genre à être déployé en production.

La vidéo de présentation donne une bonne idée des capacités de l’outil. On la visualisera de préférence avec le son, pour apprécier la cohérence danse/musique :

Les coulisses techniques

A partir d’un morceau de musique, ChoreoMaster peut donc générer automatiquement une séquence de danse avec un style, un rythme et une structure adaptés.

Afin d’y parvenir, l’équipe de recherche, a mis en place plusieurs contributions. en particulier, la publication présente un framework qui fait en sorte que des notions telles que les relations entre musique, style, rythme puissent être traduites sous forme de métriques. Le framework est lui-même utilisé dans l’outil de génération de danse proprement dit, ChoreoMaster. Ce dernier s’appuie sur une base de données de mouvements de danse qu’il utilise pour obtenir des chorégraphies adaptés à la musique d’entrée.
Mieux encore, l’équipe a inclus des outils de contrôle artistique, visibles dans la vidéo (changement des mouvements sur une portion de la chorégraphie, trajectoire personnalisée du personnage, etc), afin que le résultat puisse être ajusté facilement si besoin.

Des tests concluants

L’équipe a également évalué la qualité des danses générées, tout d’abord de façon quantitative (autrement dit, avec des mesures mathématiques). Les résultats sont bons : ChoreoMaster surpasse d’autres méthodes déjà proposées par le passé sur la justesse du rythme. Mieux encore, la diversité des danses est là aussi supérieure.
Afin d’avoir également un avis s’appuyant sur la subjectivité humaine, un test a été mis en place avec 35 sujets, dont 10 étaient chorégraphes ou artistes. Ce jury devait noter, entre autres, le réalisme de la danse, la cohérence de style et rythme entre musique et danse. Les résultats sont là encore très bons : qu’il s’agisse d’un public lambda ou de chorégraphes/artistes, les mouvements générés par la méthode proposés surpassent l’état de l’art, et se rapproche de scores obtenus avec de la vraie danse.

Mouvements de danse générés automatiquement à partir d’une chanson traditionnelle chinoise

Et après ?

Comme indiqué plus haut, ChoreoMaster est d’ores et déjà utilisable en production, et a été utilisé dans plusieurs jeux du studio Netease Games.

Pour autant, des améliorations sont possibles. L’outil est incapable de synthétiser des danses dans un style (par exemple la valse) qui n’est pas dans sa base de données. Etendre cette base sera donc utile.
Par ailleurs, les mouvements de la base de donnée utilisée sont à 4 temps : une musique en 3 temps ne sera pas gérée correctement. Là encore, explique la publication, incorporer davantage de données de référence dans le système permettra de résoudre le problème.
Enfin, le possible lien entre danse et paroles de chansons n’est pas géré : incorporer un module de traitement du langage naturel, suggère la publication, pourrait régler cette limitation.

Pour plus d’informations, on consultera la page de la publication. Outre le pdf de la publication, très détaillé, on y trouvera des données supplémentaires et d’autres exemples de résultats en vidéo.

L’article SIGGRAPH 2021 : ChoreoMaster fait danser vos personnages 3D est apparu en premier sur 3DVF.

SIGGRAPH 2021 : un algorithme met de la vie dans vos paysages

Par : Shadows

Dans le cadre du SIGGRAPH 2021, Pierre Ecormier-Nocca, Guillaume Cordonnier, Philippe Carrez, Anne‑marie Moigne, Pooran Memari, et al. présentent leur publication Authoring Consistent Landscapes with Flora and Fauna.

Un paysage peuplé d’espèces animales et végétales, en quelques minutes

Ce projet de recherche propose une méthode pour créer des paysages avec faune et flore, en s’appuyant sur les interactions inter-espèces et sur des conditions climatiques choisies en amont.

Autrement dit, plutôt que de générer et placer à la main les êtres vivants sur un terrain (ce qui prend du temps) ou d’utiliser une approche aléatoire (ce qui donne des résultats qui ne seront pas forcément crédibles), la méthode proposée prend en compte les liens entre espèces pour automatiser le processus tout en restant crédible.
Concrètement, l’algorithme prend en entrée une chaîne alimentaire, certains éléments fixés par l’utilisateur comme un ratio entre espèces en compétition. Il génère des maps de densité pour chaque espèce, mais aussi leurs circuits quotidiens. Un terrain modifié est ensuite généré avec par exemple le rajout des pistes utilisées par les animaux et donc l’érosion qui en résulte.
Mieux encore, le système présenté permet d’explorer interactivement sous Unity le paysage résultant de ces calculs, avec instanciation à la volée de la faune et de la flore. Enfin, l’utilisateur peut éditer le résultat en modifiant/peignant manuellement les maps.

A partir d’un terrain et de conditions climatiques, la technique proposée permet de générer des maps et de visualiser une version « vivante » du terrain.

Trois innovations principales

En coulisses, la méthode proposée s’appuie notamment sur le Resource Access Graph (RAG), une structure de données qui encode les interactions entre les niveaux de la chaîne alimentaire ainsi que les déplacements des animaux sur le terrain pour accéder aux ressources.
En outre, la publication met en avant l’usage d’un algorithme procédural permettant d’approximer rapidement un écosystème stationnaire à chaque étape de la chaîne alimentaire.
La génération des maps sur une machine équipée d’un Xeon E5 et de 32Go de RAM se fait en 15 minutes en moyenne pour des terrains de l’ordre de 16km² ; en cas de modification manuelle des maps, la re-génération des maps prend de quelques secondes à quelques minutes, selon le type de modification.
Enfin, l’équipe décrit dans la publication une méthode pour l’instanciation à la volée de plantes animaux durant l’exploration interactive du terrain. Avec la machine évoquée dans le point précédent, équipée d’une Quadro M2000, la visualisation est temps réel.

Ces trois points sont les contributions principales du projet de recherche par rapport à l’état de l’art.

Exemple de maps générées par l’algorithme du projet de recherche, avec les trajectoires de différentes espèces (herbivores en vert, loups en noir, ours en brun) : ces trajectoires dépendent des ressources telles que les points d’eau mais aussi des interactions entre espèces.

De vastes débouchés, du cinéma à la recherche

Les débouchés de cette publication sont multiples : on pense évidemment à des usages artistiques, pour générer un terrain avec écosystème afin d’utiliser le résultat pour des effets visuels, de l’animation ou du jeu vidéo. L’équipe de recherche souligne en outre que les sciences peuvent bénéficier du projet, qu’il s’agisse de biologistes ou paléontologues, afin de disposer d’un outil supplémentaire pour explorer leurs modèles.
Des expérimentations ont d’ailleurs été menées pour évaluer le système proposé, avec deux groupes de personnes :

  • des paléontologues, qui se sont montrés enthousiastes à l’idée de pouvoir valider visuellement des hypothèses. ils ont également salué le gain de temps permis par l’outil, avec ses cartes générées rapidement tout en étant précises. Une de leurs critiques concerne l’envie de rajouter d’autres espèces en plus de celles incluses dans le prototype.
  • des infographistes davantage intéressés par l’aspect artistique. Ces derniers ont surtout fait des suggestions pour améliorer les contrôles manuels et la visualisation : le prototype actuel montre toujours le terrain en fin de matinée, avec un ciel ensoleillé de début d’été : un ajustement manuel des saisons, de l’heure et de la météo serait bienvenus. Un utilisateur de Unity a souligné le gain de temps massif apporté par le système : générer à la main les trajectoires de 120 troupeaux de 7 espèces différentes aurait pris au moins 10h à la main, contre quelques minutes avec l’algorithme.

Quelles limites et améliorations à venir ?

Comme toujours en recherche, le projet comporte des limites et améliorations possibles. En voici quelques-unes citées dans l’article :

  • Outre certaines approximations, les chercheurs ont pris en compte des chaînes alimentaires simplifiées, sans oiseaux, espèces animales de petite taille, faune sous-marine. Une approche plus complète serait toutefois totalement possible techniquement.
  • Visuellement, le réalisme du paysage pourrait être largement amélioré : par exemple, avec des dégâts sur les arbres situés à proximité des pistes utilisées par les gros animaux.
  • Le système pourrait prendre en compte les coopérations entre espèces : impact de la pollinisation par les insectes sur la végétation, déjections animales qui fertilisent le sol.
  • Au lieu de se contenter de générer un écosystème stable, on pourrait imaginer un système permettant de contrôler les évolutions temporelles, afin d’avoir un paysage évoluant graduellement au fil des années, siècles, millénaires.

Malgré les limitations actuelles, ce projet de recherche n’en reste pas moins passionnant, et laisse envisager de vastes débouchés.
La publication est disponible publiquement en ligne : Authoring Consistent Landscapes with Flora and Fauna.

Différentes maps générées pour un même terrain, avec des conditions climatiques diverses (ère glaciaire ou climat tempéré).

L’article SIGGRAPH 2021 : un algorithme met de la vie dans vos paysages est apparu en premier sur 3DVF.

Redwire explore la faisabilité de l’impression 3D avec du régolithe sur l’ISS

Demain, Northrop Grumman prévoit de lancer sa 16e mission commerciale de ravitaillement. Comme son nom l’indique, le vaisseau spatial Cygnus transportera des fournitures pour l’équipage et du matériel vers le laboratoire orbital. Dans le cadre de cette mission, les fournitures…

NASA-Cover

Le projet de bio-impression BLOC-PRINT pourrait faciliter les greffes de peau

Lancé en 2017, le projet de recherche BLOC-PRINT s’intéresse à la bio-impression de peau et comment la technologie peut offrir un traitement aux personnes ayant subi de graves brûlures. Il a permis de développer une méthode pour recréer de la…

bloc_print_cover

Une alternative au cuir grâce à l’impression 3D

A l’université de Tufts, dans le Massachusetts, une équipe de chercheurs a réussi à reproduire l’aspect du cuir grâce à l’impression 3D : ils auraient développé un matériau recyclable et biodégradable à partir de soie, imitant les propriétés du cuir.…

Design-ohne-Titel-3

Des chercheurs conçoivent un matériau vivant photosynthétique grâce à la bio-impression

A l’Université de technologie de Delft (TU Delft), une équipe de chercheurs a créé un matériau vivant photosynthétique et écologique en utilisant une technique de bio-impression et des algues. Ils auraient déposé des algues vivantes sur une cellulose bactérienne :…

algue_cover

Les résines utilisées dans l’impression 3D dentaire seraient-elles dangereuses pour la santé reproductive ?

A l’université de médecine de Northwestern, une équipe de chercheurs a développé un prototype d’appareil reproducteur féminin sur puce imprimé en 3D. En utilisant des résines couramment utilisées dans le secteur dentaire, ils se sont aperçus que celles-ci pouvaient potentiellement…

resin1
❌