Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 22 octobre 2020Audio Video 3D Art

DJs can now stream offline from SoundCloud with new subscription

Offline streaming comes to Soundcloud DJ plan

In the everlasting race to get more subscription revenue, SoundCloud is appealing to their creators. The streaming platform has continued to focus on monetization in recent years, creating new ways to bring in income while still supporting artists of all sizes with a place to upload their audio content. Today, they launched a new SoundCloud […]

The post DJs can now stream offline from SoundCloud with new subscription appeared first on DJ TechTools.

La Bestia : un train et une blessure dans un court des Gobelins

Par : Shadows

Marlijn Van Nuenen, Ram Tamez, Alfredo Gerard Kuttikatt dévoilent leur court de fin d’études aux Gobelins : La Bestia.

Un jeune contrebandier mexicain et une petite fille voyagent illégalement au sommet d’un train de marchandises, appelé La Bestia, pour se rendre aux Etats-Unis. Une blessure transforme sa perception de l’expédition.

L’équipe a fait le choix de l’espagnol pour les dialogues : n’hésitez donc pas à activer les sous-titres, disponibles en français.

Soundtrack / Musique : Thomas PIRONNEAU, Ram TAMEZ
Sound design / Montage sonore : Cédric DENOOZ
Mix / Mixage : Cédric DENOOZ

L’article La Bestia : un train et une blessure dans un court des Gobelins est apparu en premier sur 3DVF.

Interview 3DVF : Neoset, spécialiste de la production virtuelle sur écrans LED

Par : Shadows

Alors que la seconde saison de la série The Mandalorian approche, les techniques de production virtuelle faisant appel aux écrans LED semblent décidément promises à un bel avenir. De multiples structures se mettent en place pour proposer ce service, tandis que les outils se perfectionnent.

Après vous avoir présenté BigSun et Plateau Virtuel, nous vous proposons de découvrir Neoset, autre offre française qui s’est lancée sur ce marché. Vous trouverez dans l’article de nombreuses informations techniques sur la mise en place d’un tel système, mais aussi un aperçu de ce qu’il est possible d’accomplir.
Voici d’ailleurs sans plus tarder la démo de Neoset, suivie de l’interview, parsemée d’images et vidéos des coulisses.

3DVF : Bonjour Neoset ! Vous proposez un studio de production virtuelle en région parisienne. Pourquoi vous êtes-vous lancés sur ce marché, et pouvez-vous nous présenter l’équipe ?

Neoset : Bonjour ! A l’origine, nous nous sommes lancés dans ce projet car nous sommes producteurs de films visuellement ambitieux. Avec notre société Parallell Cinéma, nous avons un solide projet de film historique, dans un moyen-âge épique et  halluciné… ce qui est presque impossible à financer à un niveau suffisant en France. En découvrant au PIDS [NDLR : le Paris Images Digital Summit, qui se tient chaque année en janvier près de Paris] la techno de The Mandalorian, en janvier dernier, nous nous sommes dit: voilà la solution concrète pour tourner de l’historique vraiment ambitieux! En me renseignant à droite à gauche dans les grandes maisons d’effets spéciaux, je me suis aperçu que personne ne savait faire, que cette tech était vraiment très, très à la pointe. Et j’ai fait le rapprochement avec la technologie temps réel de « chambre de réalité virtuelle sans casque » que je venais de développer depuis un an et demi pour le Commissariat à l’Énergie Atomique : en réalité, il s’agissait de la même tech  – sauf qu’au lieu d’être en 3D, en trackant les deux yeux… d’un seul spectateur à la fois, ici on est en en 2D, avec simplement un tracker sur une caméra… et des millions de spectateurs qui peuvent voir le résultat ! Au fond on avait la tech, mais on n’avait pas eu cette idée toute simple et complètement géniale : tracker une caméra plutôt que deux yeux. Ils sont forts, ces américains ! : )
Ensuite le confinement est arrivé, et pendant que Jérémie montait la société et faisait une solide étude de marché, je me suis occupé de la R&D et de l’aspect, disons, le plus geek de tout ça.

Jérémie Tondowski et Alexandre Saudinos

Nous sommes deux fondateurs, plus une dizaine de personnes qui sont impliquées dans le développement de la société à divers degrés.
Jérémie Tondowski a eu une très belle carrière comme chef machiniste pendant une quinzaine d’années, ce qui lui donne une grande expertise des plateaux de tournag e; puis il s’est tourné vers la production depuis cinq ans, en particulier au sein des sociétés Parallell Cinéma et Breakfast Productions. Et moi-même, Alexandre Saudinos, après des études de philosophie et de sciences politiques j’ai réalisé des documentaires et une trentaine de pubs avant de créer Parallell Cinéma en 2009, une société spécialisée dans les techniques avancées de prises de vues – en particulier en 3D-relief, très à la pointe à l’époque. Après avoir eu quelques succès dans la 3D, nous avons co-produit trois beaux longs-métrages avec les USA, avant de fonder Neoset avec Jérémie en début d’année.

3DVF : Vous évoquez le PIDS : le concept The Flying Rock que vous aviez présenté l’an passé nous semblait prometteur ! Avant de continuer sur la production virtuelle, avez-vous des nouvelles sur ce projet ?

Depuis la présentation de The Flying Rock au PIDS à laquelle 3DVF avait assisté, on s’est vraiment totalement consacrés à la maîtrise de la tech de The Mandalorian: Neoset nous prend 100% de notre temps – c’est passionnant mais du coup les projets de notre société de production Parallell Cinéma tournent forcément un peu au ralenti, c’est évident… Nous avions rencontré au PIDS plusieurs distributeurs qui ont montré de l’intérêt pour The Flying Rock ; avec une demande assez claire pour un retour au format court (des épisodes de 6 à 10min). C’était le format original du projet avant qu’il ne soit adapté en scénario de long-métrage ! C’est un projet qui bénéficie fortement du développement des plateformes de contenu type Netflix/Amazon, car son format original, qui était en dehors des standards de la télé (dix épisodes de dix minutes) est devenu totalement faisable sur les plate-formes. Affaire à suivre, mais pour l’instant nous sommes totalement impliqués dans Neoset. Mais de manière amusante, c’est ce soir-là, au PIDS, que nous avions entendu parler de cette tech pour la première fois, par l’équipe de The Third Floor !

3DVF : Concrètement, quelles sont les caractéristiques de votre système (espace, capacités d’affichage, lieu, etc) ?

Alors en fait, nous ce qui nous démarque c’est qu’on se présente plutôt comme un opérateur de studios virtuels, au pluriel.
L’idée est de vraiment adapter la solution au projet: nous travaillons par exemple dans le Studio C de Novelty à Longjumeau (qui vient d’être refait, encore plus grand : très bel outil, c’est toujours un plaisir d’utiliser cette structure !), mais aussi avec d’autres studios, plus ou moins grands, qui ont des caractéristiques différentes, plus adaptées à tel ou tel projet selon la demande : fiction, clip, pub…
A cause de certaines caractéristiques de la technologie LED, il nous semble vraiment nécessaire de proposer du sur-mesure ; d’ailleurs aucun grand studio LED dans le monde n’est vraiment fixe, tous sont « à géométrie variable ». Donc nous travaillons ou pouvons travailler avec tous les studios en place ; et nous pouvons aussi concevoir et construire une structure adaptée pour un projet précis.
Nous proposons à la fois la prestation technique pure, avec des outils qui nous sont propres et dont l’ergonomie a vraiment été pensé pour le tournage ; et une prestation de conseil et d’accompagnement des productions en profitant de nos vingt ans d’expérience des plateaux et/ou des nouvelles technos.

3DVF : Que recouvre votre offre ?  Avez-vous une fourchette à communiquer sur vos tarifs ?  Pouvez-vous si nécessaire gérer la création des décors virtuels ?

L’idée est d’utiliser notre expérience de la production et des plateaux de tournage pour rendre totalement fluide et ouvert l’accès à cette technologie, que ce soit pour un producteur, un directeur de production, un réalisateur ou un chef opérateur. Même s’il s’agit d’une technologie « premium », l’idée est de pouvoir s’adapter à environ 80% des projets, de la grande publicité de prestige au court-métrage subventionné (notre offre étant subventionnable par l’aide CVS du CNC), en passant par la fiction TV ou cinéma. C’est une des raisons pour laquelle être capables de s’adapter à différents studios, de différentes tailles, nous semble fondamental. Nous avons bien sûr la capacité de créer des décors virtuels en interne si nécessaire, mais notre offre peut aussi s’insérer dans un pipeline de production existant, quelque soit le prestataire VFX de la production et ses logiciels favoris (Maya, Blender, 3DS Max, etc). Enfin, nous avons l’habitude de travailler en partenariat avec MacGuff et sa division « temps réel » Small Studio – qui peut nous peut nous apporter son expérience et sa « patte » sur les projets les plus complexes.

3DVF : L’approche production virtuelle/murs de LEDs est en plein essor : 3DVF a d’ailleurs eu l’occasion d’interviewer BigSun, Plateau Virtuel qui ont lancé des offres sur le même segment. Quelle est votre vision du marché ? Y a-t-il de la place pour de multiples acteurs, faut-il déjà songer à se différencier face à ces concurrents ?
Quelle est votre stratégie commerciale, dans ce contexte ?

Il y a certainement la place pour plusieurs prestataires, qui ont tous des caractéristiques techniques et une « culture » différente. Certains, par exemple, sont très identifiés clip ou packshot, là où notre culture, notre réseau et notre parcours nous emmènent très clairement vers la fiction cinéma ou télé, ainsi que vers la publicité « de prestige ».
Nous avons eu une stratégie commerciale différente de nos concurrents dès l’origine : nous avons commencé très tôt, mais en communiquant peu ou pas du tout : nous avons privilégié, dans un premier temps, l’aspect recherche et développement, les levées de fonds et la recherche de partenaires. Avant de commencer à communiquer nous voulions créer une véritable start-up, avec des reins solides et un outil « production-ready »: solide, fiable, pratique… et même ludique ! Au fond, nous ne sommes entrés en « phase commerciale » que depuis début octobre. Nous avons d’abord reproduit tous les outils de The Mandalorian (appli Ipad de pilotage des décors ; multi-user ; gestion multi-caméra, etc.), puis nous avons confronté l’outil à des situations de tournage réelles et nous l’avons « poussé » dans ses retranchements pour en saisir les limites (moiré, temps de latence…) et pour pouvoir retourner au labo et adapter l’ergonomie des outils aux tournages réels. C’est là que nous avons développé des outils exclusifs – et extrêmement réactifs. 

3DVF : L’autre point majeur à prendre en compte pour les mois à venir, c’est évidemment la pandémie… Dans quelle mesure les consignes peuvent-elles être respectées sur un plateau virtuel ?

C’est l’un des intérêts évidents de cette technologie : fonctionner avec des équipes plus réduites, en studio, en respectant les protocoles sanitaires – et en même temps, donner l’illusion que le film a été tourné aux quatre coins du monde!

Page suivante : suite de l’interview avec choix techniques, R&D, développements à venir…

L’article Interview 3DVF : Neoset, spécialiste de la production virtuelle sur écrans LED est apparu en premier sur 3DVF.

La poudre en fabrication additive métal, un obstacle à son développement ?

Equispheres est une entreprise canadienne spécialisée dans le développement de poudres métalliques notamment pour des technologies de fabrication additive comme la fusion laser ou la projection à froid. Forte de son expérience sur le marché, elle a récemment développé une…

metal_equi

Renderosity and PrettyMystical co-sponsor fantasy art, artist contest

Renderosity and PrettyMystical recently announced they have partnered to co-sponsor a Facebook-driven fantasy art contest with a $1,000 Grand Prize. "We are ecstatic that Renderosity is our partner i...

Hell Froze Over - Win 10 Update Repairs Previous Problems

That is correct. You read that headline right. Hell has officially frozen over. Last patch Tuesday, the same Patch Tuesday that’s causing problems for other users actually repaired the HP Omen...

Les accessoires DJI Osmo Pocket compatibles DJI Pocket 2

Par : Thomas

Accessoires Pocket 2

Depuis l’annonce du Pocket 2, vous êtes nombreux à nous demander quels sont les accessoires compatibles entre le DJI Osmo Pocket et le DJI Pocket 2 ! Avec un format très proche de son grand frère, le DJI Pocket 2 pourra utiliser de nombreux accessoires de l’Osmo Pocket. Ce n’est pas forcément dans les habitudes […]

Sinterit lance des outils dédiés à une meilleure gestion de la poudre pour ses imprimantes SLS

Le fabricant polonais Sinterit est l’un des premiers à avoir développé une imprimante 3D SLS low-cost, une technologie très précise mais plus chère que d’autres procédés du marché. Sa machine Lisa peut ainsi répondre aux besoins de nombreux professionnels qui…

sinterit_cover

New Maxon 3D & Motion Design Show

  Join us online October 27 - 29, 2020 for The Maxon 3D and Motion Design Show to soak in some val...

Pimax lève 20 millions de dollars de fonds pour se développer

Par : Sitraka R
Pimax lève 20 millions de dollars de fonds pour se développer

Pimax, la startup chinoise qui fabrique des casques VR à champ de vision large, annonce la levée de 20 millions de dollars en fonds série B pour développer ses activités.

Pour rappel, Pimax était passée par une campagne de financement participatif sur Kickstarter en 2017 pour produire son casque 8K. Par la suite, la firme a bénéficié de 19,2 millions de fonds (série A) supplémentaires pour accroître ses activités. Avec cette nouvelle ronde de fonds série B, l’entreprise peut compter sur un trésor de guerre de 39,4 millions de dollars au total.

Elle doit cette nouvelle salve d’investissement principalement à deux firmes chinoises : Ivy Capital (basée à Shanghai) et CDF-Capital (basée à Shenzhen).

Si Pimax est surtout connue pour son casque 8K, il faut rappeler que celui-ci dispose de deux écrans 4K. Mais l’appareil se distingue surtout par son champ de vision à 200 degrés, l’un des plus larges du marché des casques de réalité virtuelle grand public. Pour comparaison, le dernier Oculus Quest 2 ou encore le Valve Index ne proposent que 110 degrés.

Depuis ses débuts en 2017, Pimax a lancé plusieurs déclinaisons de son 8K, mais également différents modèles sous la gamme 5K. Ainsi, son dernier flagship, le 8K X, affiche une résolution de 4K par œil et propose quelques améliorations par rapport à l’original. Parmi ceux-ci, l’on compte l’intégration de l’audio, un revêtement plus résistant et une meilleure compatibilité avec les jeux SteamVR.

Images haute résolution interpolées en 4K, large champ de vision, grand confort.

Pimax : 20 millions de dollars pour livrer ses produits à temps

En tout cas, ces 20 millions de dollars devraient donner une plus grande marge de manœuvre à l’entreprise, ayant dû résoudre les problèmes un à un pour manque de moyen auparavant. C’est en tout cas ce qu’affirme Robin Weng, son fondateur.

Priorité des priorités : la satisfaction des clients. La firme prévoit donc d’investir avant tout dans son service client, ses moyens logistiques et le magasinage.

L’on se souvient des multiples retards dans la livraison à destination des contributeurs lors de la campagne Kickstarter fondatrice. Certains de ces contributeurs n’ont même pas encore reçu les modules de hand et eye tracking promis avec le 8K de 2017, malgré le début des livraisons en juillet dernier.

Et les dirigeants de la firme s’en souviennent sans aucun doute. De plus, les fabricants de casques semblent toujours faire face à des ruptures de stock. Les mesures annoncées visent donc à éviter ces incidents.

Cet article Pimax lève 20 millions de dollars de fonds pour se développer a été publié sur Réalité-Virtuelle.com.

Digital human creation with Reallusion: Animating in iClone

Welcome back. This time, I decided to take a closer look at animation in iClone. I could very easily animate my characters in Maya, like I’ve been doing so far. However, iClone has some interest...

Digital human creation with Reallusion: Custom outfits

  Character Creator includes a few clothing items as part of the install. On top of that, you can purchase more content from the Reallusion Marketplace. However, sometimes you may not find what...
Hier — 21 octobre 2020Audio Video 3D Art

Raya et le dernier dragon : une bande-annonce pour le futur Disney !

Par : Shadows

Les studios Disney dévoilent en VF et VO un aperçu du film Raya et le dernier dragon, prévu pour le mois de mars 2021 au cinéma.

Il y a très longtemps, dans le monde fantastique de Kumandra, humains et dragons vivaient en harmonie. Mais lorsqu’une force terrible menaça le pays, les dragons se sacrifièrent pour sauver l’humanité. 500 ans plus tard, le même mal est de retour et Raya, guerrière solitaire, devra trouver le légendaire dernier dragon afin de restaurer l’équilibre… En chemin, elle découvrira qu’il faut plus qu’un dragon pour sauver le monde.

Le film est réalisé par Don Hall et Carlos López Estrada, co-réalisé par Paul Briggs et John Ripa.

L’article Raya et le dernier dragon : une bande-annonce pour le futur Disney ! est apparu en premier sur 3DVF.

Orpheus : un amour perdu dans un court New3dge

Par : Shadows

Rudy Bourgoin, Kevann Boussac, Jules Dassie, Ornella Sessa, Aleksander Rudnicki et Vincent Veux dévoilent Orpheus, leur court de fin d’études à New3dge (promotion 2019), qui arrive donc en ligne après avoir fait le tour des festivals.

Un projet qui met en scène un homme replongeant dans ses souvenirs…

L’article Orpheus : un amour perdu dans un court New3dge est apparu en premier sur 3DVF.

DxO PhotoLab 4 en test : un lancement qui va faire du bruit

Par : Shadows

Le spécialiste des solutions photo DxO lance la version 4 de PhotoLab, son logiciel de traitement d’images, avec une annonce qui mérite le détour.

La mise à jour apporte différentes avancées :

  • un espace de travail paramétrable par type de correction, système de favoris, corrections actives : parfait pour retrouver facilement les éléments importants ;
  • une nouvelle fonction recherche qui se veut assez ouverte : si vous venez d’une solution concurrente comme Lightroom, par exemple, vous pourrez trouver une fonction via son nom dans Lightroom ou dans PhotoLab. De quoi sauter le pas plus facilement ;
  • le renommage par lots d’images ;
  • un système de copier-coller sélectif des corrections (qui fait penser à ce que propose déjà Lightroom) ;
  • un historique avancé, qui liste les corrections et permet de les modifier ;
  • un watermarking plus facile, avec prévisualisation directe et possibilité d’inclure image, texte en simultané.

Autant de nouveautés certes intéressantes, mais qui sont selon nous largement éclipsées par LA grande avancée de cette version 4 : DxO DeepPRIME.

DeepPRIME : des millions d’images au service de vos photos

Le concept de DxO DeepPRIME part d’un constat : depuis son lancement en 2003, DxO a testé une grande quantité d’appareils photos et d’objectifs, notamment en mesurant le bruit numérique dans diverses situations. Le résultat est une base de millions de photos calibrées.
D’où une idée : utiliser ce stock immense de références pour corriger d’autres photos, prises avec des combinaisons boîtier/optique déjà mesurées par DxO.

C’est ce que propose DxO DeepPRIME, via l’intelligence artificielle et le deep learning, en assurant simultanément le dématriçage (la génération de l’image à partir des données brutes issues du capteur de l’appareil photo) et le débruitage. Selon DxO, effectuer les deux opérations en même temps évite d’introduire certains artefacts et produit de meilleurs résultats.

A la clé, selon DxO : un gain de qualité équivalent à deux stops de sensibilité ISO. Reste à vérifier les promesses marketing dans la réalité.

Comparatif DxO

DeepPRIME en test

Et puisque les promesses sont grandes, nous avons immédiatement choisi un test difficile : un cliché pris lors d’une visite de la partie accessible au public des catacombes de Paris. 1/40s, f/4.0 et ISO 25 600 : le cliché brut est sans surprise très bruité. Lightroom permet d’éliminer le bruit mais nécessite de nombreux ajustements : il s’agit de trouver un bon équilibre entre correction et effet artificiel. DxO DeepPRIME nous surprend immédiatement : le mode automatique propose un résultat propre, qui retrouve en prime des détails quasiment noyés dans le bruit d’origine. Impressionnant.

Second essai avec un autre appareil, plus ancien : un pensionnaire de la ménagerie du Jardin des Plantes, pris au 7D à f/4.0, 1/60s, ISO 6400.
Nous avions eu du mal à corriger sous Lightroom (en haut) : DxO DeepPRIME (en bas) retrouve nettement plus de détails, que ce soit sur les yeux (qui retrouvent leur couleur), les paupières, le pelage.

Encore un exemple, à ISO 8000, sur un cliché que nous avons pris lors de l’incendie de Notre-Dame : là où nous arrivons à éliminer le bruit sous Lightroom (haut) au prix d’un rendu délavé, DxO Prime nous donne immédiatement un résultat détaillé.

La différence est encore plus flagrante en recadrant davantage (DeepPRIME est en bas), notamment sur les blocs de pierre. L’échafaudage est défini plus clairement.

Sans vous assommer de comparatifs, plusieurs essais avec des situations variées (portrait en basse lumière lors de conférence, macro sans flash, photos d’objets à la texture détaillée pris dans des musées…) nous confirment que DxO DeepPRIME donne de très bons résultats.

Certaines personnes objecteront que le problème se situe peut-être entre la chaise et le clavier, et elles n’auront pas forcément tort : nous ne prétendons pas maîtriser parfaitement les subtilités du débruitage sous Lightroom, qui comporte pas moins de 6 curseurs d’ajustement.

Et justement, nous y voyons un argument supplémentaire, pour ne pas dire l’argument principal, en faveur de DxO Prime : remplacer l’apprentissage d’un système de débruitage par un simple clic et une correction automatique est une amélioration énorme, même à qualité identique. Nous ne pouvons donc que vous inviter, si votre style de photo vous amène régulièrement à faire face au bruit numérique, à tester ce produit par vous-même.

Bien entendu, DxO Prime n’est pas parfait : si la combinaison boîtier/objectif n’a pas été testée, l’outil cherchera à débruiter l’image mais ne pourra pas donner un résultat aussi bon. D’où l’intérêt de vérifier que votre matériel est supporté.
Un bon moyen de le savoir est tout simplement de parcourir vos dossiers photo via DxO Photolab : le logiciel propose de télécharger un module optique (qui gère notamment la correction des défauts optiques) si la combinaison boîtier/objectif est connue, et affiche un point d’exclamation sinon.

Notez qu’il est possible d’opter pour un téléchargement automatique de ces modules, semi-manuel (le logiciel demande confirmation avant chaque téléchargement), ou totalement manuel : DxO Photolab propose un installeur de modules. Ce dernier s’avère particulièrement utile pour vérifier en un clin d’oeil les combinaisons compatibles.

Un outil perfectible ?

Un regret pour finir : les performances. Comme l’indique DxO lui-même lors du choix de la technique de débruitage, DeepPRIME est nettement plus long à calculer le résultat que les approches déjà proposées jusqu’ici (et qui restent incluses dans l’outil). Conséquence : impossible de disposer d’un aperçu sur toute l’image dans DxO Prime, il faudra vous contenter de la loupe. De même, le temps d’export des images est nettement plus élevé : +44% environ par rapport à l’option de débruitage « PRIME » du même logiciel. L’enjeu pour une prochaine version sera donc sans doute d’améliorer le temps de traitement.

En haut à droite : la loupe d’aperçu

Pour en savoir plus

L’article DxO PhotoLab 4 en test : un lancement qui va faire du bruit est apparu en premier sur 3DVF.

Goat Girl : une future série qui va vous rendre chèvre

Par : Shadows

Tout droit venu d’Irlande et du studio d’animation 2D Daily Madness, le projet de série Goat Girl a connu un beau succès au Cartoon Forum 2020.

Le concept ? Les aventures de Gigi, une jeune fille de 13 ans dont la particularité est d’avoir été élevée… Dans les montagnes, par des chèvres. Devenue adolescente, ses parents adoptifs l’envoient dans une école avec internat afin qu’elle puisse prendre de l’indépendance mais aussi découvrir ses congénères humains.

Concept délicieusement absurde, humour, situations incongrues : le concept a toutes les chances de faire mouche.
Ciblant les 6-11 ans, Goat Girl devrait se décliner en 52 épisodes de 11 minutes.

Quelques images sont visibles dans la compilation ci-dessous, à 3 minutes 44.

L’article Goat Girl : une future série qui va vous rendre chèvre est apparu en premier sur 3DVF.

Test : HP ZBook Create G7 avec GeForce

Par : Shadows

Nous poursuivons nos tests de stations portables pour le marché créatif avec le ZBook Create G7, produit proposé par HP qui mêle design haut de gamme, Core i7 et GPU GeForce.

Disponible depuis l’été 2020, ce produit fait partie des ordinateurs portables proposés par notre partenaire Progiss, et est donc présent dans la boutique 3DVF.fr.

Caractéristiques, design, fonctionnalités

Le HP ZBook Create G7 testé affiche les caractéristiques suivantes :

  • Intel Core i7 10850H à 2,70GHz (6 cores) ;
  • 16Go de RAM (attention, la mémoire vive est soudée : choisissez donc bien sa capacité lors de l’achat.) ;
  • NVIDIA GeForce RTX 2070 8Gb avec design Max-Q ;
  • 512Go de stockage (SSD NVMe) ;
  • Ecran 15,6 pouces
  • Windows 10 Pro.

Doté d’une coque en aluminium, ce ZBook respire la solidité. La surface mate permet d’éviter les traces de doigts.

HP Zbook

HP a poussé le soin jusqu’à l’alimentation, avec un cordon tressé et un bloc d’alimentation aux formes arrondies.
L’écran propose une couverture DCI-P3 à 100% avec technologie DreamColor : rien à redire.

Du côté de la connectique, on note un lecteur de carte SD, deux ports USB Type C, un port USB 3.1 type 1, un port mini DisplayPort, un connecteur Nano-Security Lock, ou encore un port jack pour l’audio.

Le clavier est bien conçu : il combine mécanisme à ciseaux et dômes de caoutchouc pour donner une frappe précise mais silencieuse.
Le trackpad est spacieux, avec des clics marqués.

On notera la présence de raccourcis claviers pouvant s’avérer utiles :

  • un mode avion que l’on peut donc activer/désactiver très rapidement ;
  • une touche programmable permet de lancer un programme, un site web, d’ouvrir un fichier rapidement ; un programme proposé par HP permet de paramétrer en détail les actions.
    La possibilité de combiner la touche de raccourci à Shift, Alt, Ctrl, mais aussi le fait de pouvoir lancer plusieurs actions en simultané, démultiplie les possibilités : il s’agit ici d’une vraie bonne idée que les adeptes de productivité apprécieront.

HP Sure View : la fin des indiscrétions ?

A noter si vous gérez des données sensibles en déplacement : une option permet d’inclure la technologie HP Sure View, un système qui réduit à la demande l’angle de vue de l’écran : l’idée est par exemple d’empêcher votre voisin de train, une personne passant à proximité dans un espace de coworking de voir ce que vous êtes en train de faire. Pratique lors des éléments confidentiels sont affichés à l’écran, du rapport financier du studio au concept art de votre future série.

Le système s’appuie sur trois éléments : un système de rétroéclairage propriétaire, un film 3M placé devant l’écran et enfin, des contrôles hardware/logiciels.

Concrètement, l’activation du mode Sure View permet de réduire instantanément l’angle de vision, en éliminant « jusqu’à 95% de la lumière » autour d’un cône de 70° centré sur l’utilisateur.

Autonomie

Nous avons choisi le mode d’alimentation « HP Optimized » proposé par le constructeur, et le benchmark d’autonomie « gaming » de PCMark, avec affichage d’une scène dynamique en 3D temps réel. Le WiFi était allumé mais non utilisé.

Résultat : 1h16 d’autonomie, un score proche des stations que nous avons déjà testées par le passé.

Températures

L’objectif ici est de mesurer les températures externes de l’ordinateur, son chassis en aluminium transmettant bien la chaleur.

Dans un premier temps, on sollicite le GPU avec l’outil Furmark.

Les températures grimpent jusqu’à 55° environ entre certaines touches (sans surprise, à l’endroit où est situé le GPU), 46,5° maximum environ sur les touches elles-mêmes : peu gênant en pratique, la surface et durée de contact étant réduites. Les deux espaces de chaque côté du trackpad restent de leur côté autour des 40°.

Si à l’inverse on sollicite le CPU, la température atteint 43° sur les touches, 30 à 37° sur les zones de repos des poignets.

Le bilan global : l’espace de repos des poignets peut facilement grimper vers les 30 à 40° lors d’un usage intensif. Une valeur totalement supportable, mais que certaines personnes peuvent ne pas apprécier sur une longue durée : à vous, donc, de tirer les conclusions adaptées à votre situation.

Benchmarks

Les benchmarks qui suivent ont été effectués avec câble secteur branché, et le dernier driver NVIDIA Studio disponible au moment du test. Rappelons que ces derniers, par rapport aux drivers Game Ready, proposent théoriquement une meilleure stabilité et des performances optimisées en multitâches ; en revanche, les performances sur un logiciel/benchmark spécifique sont identiques.

Nous avons fait évoluer certains de nos tests par rapport aux articles précédents, notre objectif étant de nous appuyer au maximum sur des benchmarks qui vous soient accessibles publiquement, afin que vous puissiez comparer les performances des matériels testés à vos propres machines.

Stockage

Nous avons testé le SSD interne à l’aide de CrystalDiskMark. NVMe oblige, les débits sont au rendez-vous :

Tests CPU

Terragen (CPU)

Le benchmark officiel du logiciel Terragen s’appuie sur le rendu d’une scène de paysage, avec végétation. Elle est issue d’une création de Ulco Glimmerveen et comporte aussi des modèles de plantes créées avec l’outil SpeedTree.

Le temps de rendu doit être le plus bas possibleIntel Core i7 10850H
(HP ZBook Create G7)
Intel Core i7-9750H
(MSI WS75 9TL, Gigabyte Aero 15 pouces)
Score11 minutes 22s14 minutes 10s

Page suivante : suite des benchmarks CPU/GPU et bilan global.

L’article Test : HP ZBook Create G7 avec GeForce est apparu en premier sur 3DVF.

ALSIMA Studio, une chaîne YouTube pour renforcer ses connaissances en impression 3D FFF

Depuis quelques années maintenant, l’entreprise française Alsima accompagne les professionnels dans l’adoption de l’impression 3D FDM/FFF. Elle les aide à choisir la bonne machine et le matériau adapté à leurs besoins et projets, puis elle les forme à une utilisation…

ALSIMA_cover_video

How BRON animated 'The Willoughbys' for Netflix

Overhauling the traditional family film with a whimsically macabre satire in Netflix's "The Willoughbys" was both a creative feat and technical achievement for independent studio BRON Animation. Base...

Adobe MAX 2020: Enabling ‘Creativity for All’ with Creative Cloud Innovation

Around-the-World Event Features Major Updates Including Illustrator on the iPad, Fresco on the iPhone, Adobe Sensei-Powered Neural Filters in Photoshop, and Significant Momentum on the Content Authent...

Découvrez Mehdi: Avis de passage, nouvelle série du Studio la Cachette

Par : Shadows

A l’occasion du Cartoon Forum, nous avons pu découvrir le nouveau projet du Studio la Cachette : Mehdi: Avis de Passage.

Animée en 2D, cette future mini-série (6×22 minutes) se présente comme une comédie dramatique très personnelle, puisque directement inspirée de la propre histoire du réalisateur, Oussama Bouacheria. Ce dernier est également cofondateur du studio aux côtés de Julien Chheng et d’Ulysse Malassagne.
Voici le synopsis :

Dans une ville populaire de banlieue parisienne, Mehdi est un jeune facteur travaillant dur pour sa famille. Mais un jour, sa direction le mute dans un autre quartier et cham-boule ses habitudes. Les destinataires de sa nouvelle tournée lui réservent bien des surprises…

Suivre ce facteur sera l’occasion pour la série d’évoquer une banlieue populaire de Paris et ses habitants, de générations et origines variées. Plusieurs thématiques seront développées : « le passage à l’âge adulte, le poids des responsabilités, la fraternité et l’importance de la famille, la solitude et la valeur de la transmission ». Le tout avec un humour s’inspirant de Charlie Chaplin, Buster Keaton.

Le Studio la Cachette espère rassembler un public large, dès 10 ans.

En attendant de découvrir les premiers épisodes, voici la bande-annonce du projet :

L’article Découvrez Mehdi: Avis de passage, nouvelle série du Studio la Cachette est apparu en premier sur 3DVF.

Interview 3DVF : Creasynth nous présente ses développements sous Unreal

Par : Shadows

Si l’on associe évidemment beaucoup Unreal Engine à l’univers du jeu, le moteur 3D temps réel a su conquérir de nombreux autres domaines.

La preuve aujourd’hui avec cette interview de CREASYNTH, entreprise basée à Saint-Nazaire et qui a notamment développé un flux de production sous Unreal destiné aux secteurs de l’industrie, de la formation ou encore de l’architecture. Un projet prometteur qui lui a valu une bourse Epic Games MegaGrant.

En compagnie de David Cragné, qui dirige l’entreprise, nous vous invitons à découvrir ces outils. CREASYNTH profite par ailleurs de cette interview pour nous proposer différents aperçus vidéo qui vous donneront une idée plus concrète des possibilités de ce workflow.

3DVF : Bonjour Creasynth ! Pour commencer, pouvez-vous nous présenter l’entreprise en quelques lignes ?

David Cragné : CREASYNTH est une agence de design (dans le sens de l’approche d’une problématique) spécialisée dans la conception d’expériences immersives interactives et dans le développement d’outils pour la visualisation et la simulation en réalité virtuelle et augmentée.

CREASYNTH a vu le jour en 2016, fruit d’une volonté de rupture et d’innovation dans les processus de conception et d’exploitation des données 3D.

Pour explication, je venais de terminer un contrat sur un projet où nous avions eu l’opportunité de travailler avec Guerilla Render, et venant à la base du monde de l’ingénierie, je trouvais fantastique l’approche du temps-réel sur le processus de production. Du coup dès que j’ai pu mettre la main sur un VIVE PRE début 2016, j’ai commencé à réfléchir sur ce que l’on pouvait en faire au niveau professionnel.

3DVF : Vous avez conçu et développé AVR-TED, un flux de production intégré à Unreal Engine destiné à faciliter la création de simulateurs/simulations. Comment est né ce système ? 

L’idée à germée fin 2018, en sortie d’un projet de simulation pédagogique de ligne de traitement électrochimique. Lors de ce projet de plus d’un an, nous avions conçu beaucoup de systèmes automatisés au sein d’UNREAL pour simuler tout une batterie d’équipements industriels : des capteurs de position, de niveau, des flotteurs (qui flottent réellement sur un fluide), des contacteurs et des boutons 2 voies, 3 voies, des débitmètres, etc.

Ces systèmes mis bout à bout, nous permettaient de simuler le fonctionnement des lignes industrielles et de les manipuler comme des vraies : elles pouvaient tomber en panne, il faut leur faire leur maintenance. Le but était de coller le plus possible au comportement réel de l’équipement avec ses tolérances, ses défauts afin de donner un coté crédible à la simulation.

A la fin de ce projet, je me suis dit qu’il serait dommage de ne pas capitaliser sur ce principe d’automate pour d’autre projets, voir même de créer un processus tirant partie de ces possibilités d’automatisation qu’offre UE4.

Nous avons donc commencé à réfléchir avec des partenaires industriels à la création d’un workflow semi-automatisé de production de scènes temps-réel/réalité virtuelle/réalité augmentée sous UNREAL ENGINE 4.

3DVF : Quels secteurs ciblez-vous ? 

AVR-TED se destine avant tout au monde de l’industrie et du manufacturing ainsi qu’à la formation professionnelle. Cependant il est tout à fait adapté à l’architecture et à l’urbanisme. Nous avons eu l’occasion d’utiliser AVR-TED sur des projets d’architecture en interne ou pour des clients et les résultats étaient tout à fait convaincants.

3DVF : Concrètement, de quoi se compose AVR-TED ?

AVR-TED est un workflow modulaire pour la 3D temps-réel, la réalité virtuelle et la réalité augmentée entièrement basé sur le moteur UNREAL ENGINE 4 et développé autour de besoins métiers.

Il simplifie le processus de création de scènes TR/RV/RA et de simulations sous UNREAL ENGINE tout en permettant de bénéficier de fonctionnalités très avancées et développées sur-mesure pour des cas d’usages métiers.

AVR-TED dispose de tout une batterie d’assets « autonomes » pour créer des simulations ou des environnements plus dynamiques et organiques, ces assets étant souvent le fruit de cas d’usages métier, et donc conçus pour être pertinents et utiles.

On retrouve ainsi des modules spécialisés par domaines d’activité, comme la marine, avec des shaders spécifiques pour les carènes ou des scènes déjà préréglée pour simuler des environnements marins interactifs, ou comme l’industrie, avec des assets autonomes simulant des équipements réels, comme des capteurs, des flotteurs, des vannes, des armoires électriques et bien d’autre encore.

Le workflow se compose d’une première couche d’automates pour optimiser les données importées (géométries, textures), qui suivant vos besoins va préparer les données pour un usage raisonné.

Ensuite on retrouve des scènes déjà préréglées suivant les cas d’usages pour éviter à la personne de tout refaire à chaque fois. En somme, vulgairement, dans certains cas, nous sommes presque sur un niveau drag and drop des géométries, et c’est tout. Tout est piloté par un module dit d’ambiance : tout y est déjà paramétré et réglé suivant vos besoins, si vous chercher plus de performances, il y a juste un bouton sur lequel appuyer et tout le système se reconfigure, idem si vous recherchez la meilleure qualité.

La différence par rapport à d’autres systèmes est que l’on peut manuellement changer tous les réglages. Du coup aussi bien le néophyte que l’expert y trouveront leur compte.

Et enfin, le cœur du système : les modules spécifiques. On retrouve là un système de shader dit universel, qui permet de gérer d’un seul tenant presque tous les scénarios de matériaux, et ce quelles que soient les données d’entrées (une seule image ou des matériaux PBS) avec des subtilités pour gérer les revêtements un peu spécifiques ; des outils de prises de mesures et de manipulation en temps réel des maquettes une fois en immersion, des simulations d’équipements réels (capteurs, EPI, voir même une simulation de nacelle motorisée pilotable).

Des systèmes d’éclairages plus poussés, des outils pour simuler des cas particuliers (projecteurs vidéo, fontaines simulées par des fluides, piscines et caustiques, systèmes de jacuzzi, ouvertures des portes sans passer par une animation, etc).

3DVF : AVR-TED s’appuie sur Unreal Engine : pourquoi ce choix et pas, par exemple, Unity ou CryEngine ?

Le choix est très personnel. Je viens du monde du nodal, mes premiers soft achetés étaient XSI Softimage (j’ai encore la boite chez moi) et VUE Infinite 6. ICE était fantastique à l’époque bien que sous exploité. La notion de nodal me parle bien plus que les calques. J’ai longtemps travaillé sous NUKE et HOUDINI, qui reste un outil que j’utilise presque quotidiennement. J’adore la flexibilité qu’offre la logique nodale pour la résolution de systèmes complexes.

J’ai énormément testé UNITY, pour des raisons de compatibilité avec les systèmes CAVE exploités par les clients. Mais jamais je n’ai retrouvé cette flexibilité offerte par les blueprints d’UNREAL et la rapidité d’exécution que cela impliquait dans nos développements avec nos partenaires.

De plus, nous visualisons des maquettes très denses, avec une « cible qualité » très élevée et contraignante, provenant de données CAD. A ce titre l’intégration de DATASMITH au sein du moteur à pesé dans la balance.

3DVF : Un des aspects d’AVR-TED est d’automatiser la mise en place de projets AR/VR, en évitant au maximum d’intervenir manuellement tout en mettant l’accent sur l’optimisation. Pouvez-vous nous en dire plus ? 

Un des buts premier du workflow est l’itération des cas d’usages existants, en ce sens où, dans un processus de production industriel (mais je pense que cela s’applique à n’importe quel secteur), le temps alloué à la préparation de la maquette est proche du néant, car dans cette logique, on part du principe que le projet, dans sa restitution, n’est qu’une itération d’un autre projet : certes la maquette 3D change, mais le procédé est le même, et dans certains cas, l’environnement (ambiances et interactions) seront les mêmes. Dans cette hypothèse, pourquoi ne pas créer des modèles de préparations basés sur des cas d’usages et les ré-exploiter tout en offrant la possibilité de les personnaliser et de les enregistrer à leur tour comme modèles ? Voilà un peu la base de la réflexion qui sous-tend AVR-TED.

Pour permettre ce type de fonctionnement, il a fallu créer des automates qui vont venir préparer certains aspects de votre projet à la place de l’utilisateur, permettant de garantir une constance dans les résultats et évitant à l’utilisateur d’effectuer des tâches chronophages et répétitives. On parle de la génération de LODs, du paramétrage des collisions, du paramétrage de toute la partie visuelle (éclairage, textures), ou chaque automate va aller chercher tout seul les éléments à paramétrer et le faire à votre place suivant le mode de restitution utilisé (temps-réel, réalité virtuelle, CAVE, etc.).

Si on synthétise, dans certains cas, l’utilisateur n’a que à déposer sa géométrie dans la scène, adjoindre des éléments venants des modules (éclairages supplémentaires par exemple), choisir le mode de restitution, baker l’éclairage ou pas, poser les matériaux qui eux aussi sont déjà préparés dans une certaine mesure et déposer les automates d’interactions (portes, etc..) qui vont venir se lier à la géométrie existante. On peut très bien avec ce type de système, paramétrer très rapidement des scènes à usages de visualisation ou de simulation avec de très bon résultats.

On ne ré-invente pas la roue, mais on évite de la fabriquer à nouveau à chaque projet.

3DVF : AVR-TED comporte aussi des outils spécifiques pour aller au-delà des fonctions d’Unreal Engine 4, par exemple au niveau des simulations de fluides et gaz. Auriez-vous quelques exemples concrets de ce qui est possible ?

Nous travaillons énormément avec des versions custombuild du moteur UNREAL ENGINE 4. Cela nous permet d’ajouter des fonctionnalités non-existantes dans les versions vanilla du moteur. On peut citer notamment les SDKs de chez NVIDIA, qui nous permettent de simuler des fluides et des gaz en temps réel sous UNREAL ENGINE. Par-dessus nous développons des outils simples et efficaces qui permettent à l’utilisateur de bénéficier de ces technologies sans avoir à rentrer dans le code du moteur.

Il faut bien garder à l’esprit cependant qu’il s’agit de modèles permettant un usage temps-réel et immersif, donc des modèles simplifiés par rapport à d’autres solutions. Mais le but n’est pas forcément de faire concurrence à ces outils, mais d’offrir la possibilité en immersion d’avoir des comportements de fluides et de gaz, notamment pour la formation professionnelle ou cela peut s’avérer extrêmement intéressant d’un point de vue pédagogique.

Nous avons utilisé ces outils notamment dans le simulateur de lignes électrochimique dont je parlais tout à l’heure pour simuler les bains chimiques et le contenu des bidons de produits. On a ainsi un capteur de niveau qui fonctionne comme un flotteur et qui n’est pas sujet à juste un calcul de hauteur mais flotte sur le liquide, et donc, peut être sujet aux perturbations que l’apprenant peut amener au bain (remous, trop de produit, etc).

On peut ainsi simuler des débordements et par conséquent interagir aussi avec des capteurs en position basse qui indiqueront la présence de produit parce qu’avec le transfert de fluide, au bout d’un moment ils se mettront à flotter.

Nous intégrons très régulièrement de nouvelles technologies dans notre workflow, comme les dernières avancées de NVIDIA en termes de raytracing ou bien d’autres systèmes moins courants comme la simulation visuelle d’océans.

Nous sommes attentifs aussi à la compatibilité matérielle de notre système et aux nouveaux usages professionnels que ces derniers induisent, et nous intégrons actuellement l’usage des casques HOLOLENS 2 et VARJO, sous forme de modules techniques ou d’interactions spécialisés pour différents besoins métiers.

3DVF : Quel est le modèle économique de cette solution ?

A ce jour, AVR-TED est un outil en constante évolution et qui s’enrichit tous les mois.

De par son positionnement d’outil sur-mesure, le modèle économique est soit basé sur l’achat de modules que l’on adapte aux besoins spécifiques du métier ciblé, soit sur l’acquisition du workflow complet, là aussi, adapté aux besoins spécifiques du métier ou domaine d’activité souhaité.

Ces acquisitions s’accompagnent souvent d’un support technique dans un premier temps afin de garantir une transition et une acceptation sans friction au sein des équipes et de veiller à l’intégration pleine et entière du workflow dans le processus interne de l’entreprise.

Cependant il n’est pas impossible que nous mettions à disposition sur le marketplace certains modules.

3DVF : AVR-TED a reçu une bourse Epic Games MegaGrants. Comment s’est déroulé le processus pour postuler ? En pratique, en quoi consiste la bourse reçue, et quel est son impact pour vous ?

Le processus pour postuler est assez simple : vous expliquez votre projet, son but, son modèle économique s’il a un et à quoi vous servirai un MegaGrants. Il ne faut pas hésiter à montrer des documents (roadmap), vidéos. Je pense qu’au-delà de la demande, c’est un bon exercice pour formaliser son projet, même pour soi-même.

La bourse, consiste souvent en une somme mise à votre disposition pour la réalisation de ce projet, laquelle EPIC vous laisse libre de la gérer comme bon vous semble et il n’y a pas de contrepartie à cette bourse.

Pour nous, cela a permis d’investir dans du matériel assez onéreux mais dont nous avions besoin pour étendre et enrichir les fonctionnalités d’AVR-TED et de regarder pour le recrutement d’un développer C++.

Pour en savoir plus

L’article Interview 3DVF : Creasynth nous présente ses développements sous Unreal est apparu en premier sur 3DVF.

Digital human creation with Reallusion: Using SkinGen

Welcome back to this series. This time I continue working on Amelia, as we explore Character Creator more deeply. Her body and face are pretty much finished (I still make changes here and there, but t...

Visitez les studios DreamWorks avec Kristof Serrand, Walt Dohrn, Ludovic Bouancheau

Par : Shadows

A l’occasion de la sortie du film Les Trolls 2 – Tournée Mondiale au cinéma, les studios DreamWorks dévoilent une vidéo qui vous montrera quelques images de leur campus.

Une visite qui se fera en compagnie de Kristof Serrand (chef département animation), Walt Dohrn (réalisateur de Les Trolls 2 : Tournée Mondiale) et enfin de Ludovic Bouancheau (chef département animation).
L’occasion d’entrevoir brièvement quelques concepts aux murs, ainsi que les outils logiciels de DreamWorks.

L’article Visitez les studios DreamWorks avec Kristof Serrand, Walt Dohrn, Ludovic Bouancheau est apparu en premier sur 3DVF.

KeyShot 10 en approche : découvrez les avancées

Par : Shadows

La future version 10 de KeyShot ne va pas tarder, et l’équipe de développement nous propose un aperçu vidéo des avancées prévues. Pas de liste de fonctions ici, l’idée est plutôt de présenter des scènes et rendus ayant fait appel aux nouveautés qui seront dévoilées : à vous, donc, de deviner les futures annonces.

Rappelons que KeyShot, disponible sous Windows et Mac, est une solution de rendu et animation centrée sur le design et la visualisation dans toutes les industries, de l’automobile à l’horlogerie en passant par la technologie.

L’article KeyShot 10 en approche : découvrez les avancées est apparu en premier sur 3DVF.

Invisible Network – A ‘social network’ for the machines

Invisible Network – A ‘social network’ for the machines

'Invisible Network' is a portable device that makes communication between machines perceptible and tangible. This device acts as a mediator between the user and the machines that surround him. Through its screen, it indicates the relations that it maintains with its personal environment.

The post Invisible Network – A 'social network' for the machines first appeared on CreativeApplications.Net.

Comparatif technique DJI Pocket 2 contre Osmo Pocket

Par : Thomas

Comparatif technique Pocket 2 et Osmo Pocket

Nous vous avons présenté le DJI Pocket 2 lors de sa sortie, toujours aussi compact et facile à utiliser ! Son format réduit et sa stabilisation en font un outil parfait pour filmer des images de qualité sans tremblements. Nous comparons ici les caractéristiques techniques du DJI Pocket 2 face à son grand frère, le […]

DJI Pocket 2 : la caméra stabilisée sur 3 axes parfaite ?

Par : Thomas

DJI Pocket 2 présentation fb

C’est encore une nouvelle annonce DJI pour ce mois d’octobre 2020, voici le DJI Pocket 2 ! Après le succès de son ainé le DJI Osmo Pocket, DJI propose une nouvelle version toujours dans le même esprit, compact et léger, mais avec de nombreuses nouveautés. Le DJI Pocket 2 est donc un stabilisateur caméra au […]

MeshMixer, le logiciel 3D gratuit de modélisation surfacique

MeshMixer est l’un des logiciels 3D gratuits proposés par Autodesk qui propose plusieurs fonctionnalités intéressantes pour vous accompagner dans la modélisation mais aussi dans l’impression 3D. Disponible sur Windows et Mac OS, la version 3.5 de MeshMixer s’appuie sur la…

meshmixer_cover
❌