Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

WEBINAIRE : Intégrer l’impression 3D dans un workflow numérique en orthopédie

Notre prochain webinaire 3Dnatives aura lieu le 21 septembre prochain de 10h à 11h et s’intéressera à l’intégration de la fabrication additive dans un workflow numérique en orthopédie : pourquoi miser l’impression 3D ? Quels sont les gains associés ?…

COVER ARTICLE (2)

Newsbridge Closes €7 Million Series A Funding Round to Develop U.S. Presence, Recruit Top AI and Media Engineering Talent

Newsbridge, the AI & Cloud Media company, raises 7 million euros in Series A funding round to continue its expansion to the U.S.A, and hire top AI and Media Engineering talent to continue its R&D in Multimodal AI Indexing for media assets. Unlike traditional AI which relies on a single source for indexing, Newsbridge’s disruptive […]

The post Newsbridge Closes €7 Million Series A Funding Round to Develop U.S. Presence, Recruit Top AI and Media Engineering Talent appeared first on Broadcast Beat - Production Industry Resource.

L.E.V. Matadero vuelve a Madrid con su cuarta edición los días 22 al 25 de septiembre

Con un line up encabezado por artistas de la talla de Alva Noto, Daito Manabe, Marina Herlop o Atom ™, L.E.V. Matadero regresa a Madrid con grandes referentes y nuevos talentos en el ámbito de la experimentación audiovisual y sonora internacional.

Las actuaciones en directo tendrán lugar el jueves 22 y viernes 23 de septiembre en la Nave 16 y el sábado 24 en la Plaza Matadero, en sesiones nocturnas.

El centro de experiencias inmersivas MAD (Madrid Artes Digitales) acogerá una gran instalación audiovisual creada por el dúo artístico SYNSPECIES y especialmente adaptada para este espacio.

Como en ediciones anteriores, el festival reunirá algunas de las propuestas artísticas de realidad virtual más rompedoras con la sección VORTEX, y ofrecerá dos nuevas experiencias de realidad aumentada en la sección Ciudad Aumentada.

Los abonos y entradas de día para la programación de espectáculos en directo de esta edición están a la venta en www.levfestival.com y www.mataderomadrid.org

 

LINE UP

Conciertos y performances

AV Alva Noto: UNIEQAV [noton, De]

Daito Manabe + Kamitani Lab: Dissonant Imaginary Live Av [Jp]

Atom ™: Neuer Mensch Live Av (World premiere) [raster-media, De]

Sinjin Hawke & Zora Jones Live Av [Fractal Fantasy, Ca/Qc]

Robert Lippok & Lucas Gutierrez. Spin (World premiere) [De]

Iglooghost: Lei Live Av [Brainfeeder. UK]

Ziúr [PAN / Planet Mu, De] Marina Herlop [PAN. Sp]

Meuko! Meuko! & NONEYE: Invisible General Live Av [Tw]

Yamila: Visions [Umor Rex, Sp]

Schnitt: White Balance Live Av (World premiere) [site-sync. It]

Instalación inmersiva MAD (Madrid Artes Digitales) SYNSPECIES (Elías Merino & Tadej Droljc) presentan Turmoil of Vehemence (World premiere) [Sp/ Si]

VORTEX. Experiencias de Realidad Virtual y VR Cinema Ciudad Aumentada.

Experiencias urbanas de Realidad Aumentada

La entrada L.E.V. Matadero vuelve a Madrid con su cuarta edición los días 22 al 25 de septiembre aparece primero en Vjspain Comunidad Audiovisual, Mapping, Vj, Diseño Interactivo.

How I Play: Stimming (a 2022 update) and the Instant Mastering Chain

You remember how in 2015, we did a great How I Play with live hardware performance wizard Stimming? Well, he’s back for more with this 2022 update. Earlier this year, Stimming launched his first piece of production hardware – the Instant Mastering Chain. It’s an analog audio processor chain built for artists on the go, as […]

The post How I Play: Stimming (a 2022 update) and the Instant Mastering Chain appeared first on DJ TechTools.

Panasonic Group Releases Ethics Principles for AI

Panasonic Holdings Corporation today announced the establishment of its Panasonic Group AI Ethics Principles which must be observed during the development, implementation, and utilization of AI.

DJI Avata, le manuel d’utilisation complet disponible en français

Par : Mélodie

Manuel d'utilisation en français du DJI Avata

Le nouveau drone FPV de DJI, le Avata, vient d’être annoncé il y a quelques jours. Nous avons déjà rédigé beaucoup de contenus sur le sujet ici sur le blog, notamment un test complet du DJI Avata. Vous êtes probablement arrivé sur cette page car vous êtes à la recherche du manuel d’utilisation du DJI […]

Tuto DJI Avata : appairer la radiocommande 2 du DJI FPV Combo

Par : Mélodie

Tuto DJI Avata : appairer la radiocommande 2 du DJI FPV

Le drone DJI Avata vient d’être annoncé ! Nous vous avons d’ailleurs proposé un test du DJI Avata ici sur le blog, je vous invite à aller le lire si cela vous intéresse. Aujourd’hui, nous vous proposons un tuto guidé pour appairer la radiocommande 2 du DJI FPV Combo sur le drone DJI Avata. Notre […]

Lonestar, 
le petit ETC High-End ultra-compact

Par : admin

La marque américaine nous propose un joli spot à couteaux motorisés riche en effets, ultra-compact et léger, destiné au touring, utilisant un moteur led de 290 W. Décortiquons la bête !

 Lire la suite

L’article Lonestar, 
le petit ETC High-End ultra-compact est apparu en premier sur SoundLightUp..

Des vidéos sur des prototypes d’AirPower

Annoncé en 2017 (en même temps que l’iPhone X), abandonné officiellement en 2019, l’AirPower est un truc vraiment particulier dans l’histoire d’Apple. Et plusieurs vidéos sont sorties récemment pour parler de prototypes (différents) de ce produit.

L’AirPower, c’est quoi ? Un tapis de charge Apple à la norme Qi (mais pas, il charge aussi les Apple Watch) avec une idée et un concept intéressant (et inutile à mon avis, mais bon). Il devait en effet permettre de placer plusieurs appareils sans se poser la question du positionnement, contrairement à la majorité des appareils. Les ingénieurs d’Apple avaient donc tentés d’intégrer plusieurs bobines de charge (plus de vingt dans un des prototypes) pour permettre ça. Le MagSafe pour iPhone, sorti plus tard, est une voie totalement contraire : Apple utilise des aimants pour placer correctement l’appareil…

On commence par la vidéo de Luke Miani. Je ne mets pas la vidéo parce qu’assez régulièrement, les vidéos embed sont effacées/inaccessibles/etc., mais je vous encourage à aller regarder. Le premier prototype a été prêté par DongleBookPro, qui montre souvent des prototypes, et il possède 16 bobines de charge. Il utilise une puce de charge Apple classique et a été construit environ 1 an avant l’annonce. La structure en métal, déjà vue, sert à la rigidité mais aussi au refroidissement.

Le premier


L’arrière est noir



La puce Apple

Le second contient 22 bobines et est animé par un FPGA Altera, une puce plutôt onéreuse. Sur ce modèle, la charge fonctionne… presque. Toutes les bobines ne fonctionnent pas et même quand ça marche, c’est pour une seconde ou deux, avec un boîtier d’AirPods et un iPhone.

Les deux



Le FPGA


Il charge

Le dernier est un AirPower particulier : nettement plus gros, dans un format carré, il est recouvert des matières Apple habituelles et il ne fonctionne pas (en tout cas, il ne le montre pas fonctionner).

Il est carré


Et plus grand

La seconde vidéo, c’est celle de 91Tech, avec un AirPower prêté par AppleDemo (un habitué des prototypes). C’est un peu plus technique, avec quelques explications sur les 22 bobines (encore), une connexion sur le bus série, etc. On voit notamment que l’animation prévue au départ sur les iPhone ne fonctionne pas et que le firmware de l’AirPower date de juin 2017 (nettement avant la présentation, donc). Il y a aussi quelques informations intéressantes, comme le fait que l’iPhone X parlait évidemment de l’AirPower dans son manuel, tout comme la boîte du boîtier optionnel des AirPods.

L’AirPower sans son revêtement blanc


La même structure


Le FPGA


Une vue d’artiste des bobines


On voit un peu les bobines


Les bobines dans un autre prototype démonté


L’adaptateur série


Le résultat


Une image Apple de la présentation


Dans le manuel de l’iPhone X


La boîte du boîtier

Il y a une troisième vidéo qui va probablement sortir sur le Computer Clan, avec deux images teasées. Oui, ce sont les mêmes.

Un modèle format “classique”


La version carrée

Bourdonnement: une obsession sculptée

Par : Shadows

Aude Mahieux, Pierre-Louis Bouron, Zoé Chataigner, Mélanie Rohmer, Martin Teillet et Lena Hosdez présentent Bourdonnement, leur court de fin d’études à l’ESMA (promotion 2021).

Luís, un sculpteur marié, entreprend de reproduire sa voisine en argile. Il ne peut s’empêcher de l’épier depuis qu’il a découvert un orifice dans leur mur mitoyen.

Compositeur : Laurent Vang
Voix : Pauline Renaud, Damien Boisseau, Marie Bouvet, Agathe Schumacher
Son : José Vicente, Baptiste Le Blanc – STUDIO DES AVIATEURS

L’article Bourdonnement: une obsession sculptée est apparu en premier sur 3DVF.

The Best Royalty Free Music for Training Videos

Make your training projects engage and connect with driving production music! In this post, we've rounded up the best MODERN and POSITIVE royalty free music for training …

Kayak : une sortie très sportive (court-métrage de l’Ecole des Nouvelles Images)

Par : Shadows

Solène Bosseboeuf, Flore Dechorgnat, Tiphaine Klein, Auguste Lefort, Antoine Rossi dévoilent Kayak, leur court de fin d’études à l’Ecole des Nouvelles Images (promotion 2021). Une comédie au fil de l’eau qui ne vous laissera pas de marbre !

Par une journée d’été ensoleillée, un père emmène son bébé faire une balade en kayak. Entre les désagréments causés par la rivière et les caprices du bébé, le père en voit de toutes les couleurs. Tout va encore se compliquer lorsqu’un aigle se joindra à l’aventure.

Director: Solène BOSSEBOEUF, Flore DECHORGNAT, Tiphaine KLEIN, Auguste LEFORT, Antoine ROSSI
Animation: Tiphaine KLEIN, Auguste LEFORT, Antoine ROSSI
Scenario, Script: Solène BOSSEBOEUF, Flore DECHORGNAT, Tiphaine KLEIN, Auguste
LEFORT, Antoine ROSSI
Set: Solène BOSSEBOEUF, Flore DECHORGNAT
Image: Solène BOSSEBOEUF, Flore DECHORGNAT
Special effects: Solène BOSSEBOEUF
Film editor: Auguste LEFORT
Rendering: Solène BOSSEBOEUF, Flore DECHORGNAT
Sound editor: Solène BOSSEBOEUF, Auguste LEFORT, Antoine ROSSI
Mix: Pierre-François Renouf
Soundtrack: Valentin Petiteau
Production: Ecole des Nouvelles Images
Year: 2020-2021

L’article Kayak : une sortie très sportive (court-métrage de l’Ecole des Nouvelles Images) est apparu en premier sur 3DVF.

Performance capture : pour Disney, la barbe n’est plus un problème

Par : Shadows

L’équipe Disney Research profite comme chaque année du SIGGRAPH pour présenter ses dernières avancées technologiques.
La publication Facial Hair Tracking for High Fidelity Performance Capture a retenu notre attention : de la performance capture sans rasage !

Le fil du rasoir, un passage obligé par le passé

En effet, jusqu’ici les pipelines de production typiques ne géraient pas la pilosité faciale. Les techniques de reconstruction 3D et tracking sont pensées pour des surfaces classiques, pas pour des poils fins et avec de l’occlusion.

On demandait donc aux acteurs de raser barbe et moustache avant une séance de capture, ce qui peut poser de multiples problèmes, de la star refusant de modifier son apparence aux obligations pour d’autres films : on se souvient des reshoots de Justice League avec Henry Cavill, contractuellement obligé de garder sa moustache pour le film Mission Impossible: Fallout qu’il tournait en même temps. Et plus globalement, cette contrainte imposait de faire la performance capture en amont ou aval du tournage, mais pas pendant.
Bref : il s’agissait d’une contrainte forte.

Notons que les sourcils cachent également une partie du visage : une solution gérant les barbes et moustaches pourrait donc être utile même pour les visages fraîchement rasés.

Une capture au poil

C’est ici qu’intervient le projet de recherche Disney, la première méthode de performance capture faciale capable de fonctionner avec pilosité faciale.

Pour y parvenir, Disney adopte une approche qui passe par la division de la capture en deux parties qui viennent se rejoindre :

  • la reconstruction et le tracking de la peau du visage, avec une estimation approximative des zones masquées par la pilosité ;
  • la reconstruction de la pilosité elle-même (en partant d’une une pose neutre) puis son tracking ;
  • on tire de ces deux éléments un résultat amélioré.
Crédit : Facial Hair Tracking for High Fidelity Performance Capture

En pratique, le tracking de la peau et de la pilosité sont couplés et traités en alternance, avec de multiples étapes d’affinage : le tracking des poils permet d’améliorer la précision du tracking de la peau en rajoutant une contrainte puisque les poils sont forcément implantés sur la peau : ils ne peuvent ni flotter ni être « dans » la peau.
L’image ci-dessous donne une idée des effets de cet affinage : en bas à gauche, l’estimation initiale du visage et des poils reconstruits, à en bas à droite le résultat affiné.

Les couleurs sur le visage de droite donnent une idée de l’ampleur de la différence entre la version brute et la version affinée (jusqu’à 5mm de décalage).
Crédit : Facial Hair Tracking for High Fidelity Performance Capture

La vidéo de présentation donne une idée des résultats, plutôt convaincants même si les poils ne sont pas toujours trackés à la perfection.

Enfin, Disney souligne que son pipeline permet d’éditer la barbe ou la moustache : en modifiant le style ou la longueur de la pilosité en pose neutre évoquée plus haut, on va pouvoir répercuter ces changements sur toute la performance. Des exemples sont visibles en fin de vidéo (4 minutes 34).
Autrement dit, on peut transformer un bouc en moustache, rendre une barbe plus fournie, épaissir ou affiner une moustache. Ou, bien entendu, supprimer totalement barbe et moustache.
De quoi faire rêver les studios confrontés face à des situations similaires à celles vécue par Henry Cavill.

Et après ?

Comme toujours en recherche, des limitations sont présentes, et des améliorations possibles. On citera par exemple le fait que Disney n’a pas fait de tests sur de très grandes barbes, qui masqueront davantage le visage. Ou encore le fait que la méthode risque de donner de mauvais résultats si la couleur de la peau et des poils sont trop proches, par exemple avec une peau et une barbe noires.

Même si Disney ne l’évoque pas, on peut également se demander si ce type d’approche ne pourrait pas permettre d’améliorer la motion capture d’animaux, comme des chats et chiens. Une piste à explorer pour le SIGGRAPH 2023, qui sait ?

Pour en savoir plus

On trouvera chez Disney la publication complète avec plus de détails sur la méthode, sa mise en application et ses limites.
Facial Hair Tracking for High Fidelity Performance Capture est une publication de Sebastian Winberg (DisneyResearch|Studios/ETH Zurich), Gaspard Zoss (DisneyResearch|Studios/ETH Joint PhD), Prashanth Chandran (DisneyResearch|Studios/ETH Joint PhD), Paulo Gotardo (DisneyResearch|Studios), Derek Bradley (DisneyResearch|Studios).

L’article Performance capture : pour Disney, la barbe n’est plus un problème est apparu en premier sur 3DVF.

Vislink Presents Updates to IQ Sports Producer at IBC 2022

Advanced AI-powered Action-tracking Technology Now Enables Capture and Live Streaming Via PTZ Cameras AMSTERDAM — AUGUST 18, 2022 — Vislink (Nasdaq: VISL), a global technology leader in the capture, delivery and management of high quality, live video and associated data in the media & entertainment, law enforcement and defence markets, will showcase the latest updates […]

The post Vislink Presents Updates to IQ Sports Producer at IBC 2022 appeared first on Broadcast Beat.

Les AirTags n’aiment ni les enfants… ni les piles Duracell

J’avais raté ça (ça fait un moment que c’est indiqué dans les pages de support d’Apple) mais les AirTags, alimentés par une piles CR2032, ne fonctionnent pas avec toutes les piles. Pire, ce sont les plus courantes (les Duracell) qui ne fonctionnent pas, et à cause d’un truc idiot : la protection « Baby Secure ».

Il faut commencer par expliquer le problème : les piles boutons sont dangereuses. Si vous avalez une pile de ce type, elles peuvent créer des réactions chimiques et vous vous doutez bien qu’une brûlure chimique dans le système digestif ou l’œsophage, ce n’est pas souhaité. Pour éviter ce problème, qui peut causer la mort ou des dégâts irréversibles chez les enfants, il y a une solution simple : le Bitrex. Enfin, plus exactement, le benzoate de dénatonium (Birex est une marque). Ce composé extrêmement amer est en effet utilisé comme répulsif dans pas mal de choses, comme dans l’alcool dénaturé ou sur les cartouches de Nintendo Switch (vous pouvez tenter de les lécher, si vous voulez). Et du coup, Duracell (et probablement d’autres marques) l’utilisent comme répulsif sur les piles boutons (ici les CR2032). C’est assez simple : c’est tellement amer qu’un enfant qui tenterait d’avaler la pile devrait la recracher directement.

Les piles Duracell, avec le sticker bien visible


On voit bien la différence entre le centre et l’extérieur

Le problème, c’est que la couche de Bitrex n’est pas conductrice, ce qui est un peu embêtant pour une pile. Du coup, Duracell a tenté une solution simple : seule une partie de la pile est recouverte, et le centre est libre. Comme la majorité des appareils place le point de contact négatif au centre (il y a une logique), ça ne pose généralement pas de soucis. Mais ce n’est pas le cas dans les AirTags. Je ne connais pas la raison exacte, mais le point des contact des AirTags n’est pas centrée et est précisément à l’endroit ou Duracell a placé sa couche de protection. Le résultat est du coup très simple : ça ne fonctionne pas.

Dans un AirTag, le point de contact n’est pas au centre


Dans ce bouton Philips, si

J’ai tenté avec des piles Duracell achetées récemment et ça ne fonctionne pas. L’AirTag ne sonne pas quand j’installe la batterie, et il n’est évidemment pas reconnu. Avec des piles Amazon Basics, pas de soucis : ça fonctionne. Avec des Energizer aussi. Mais je pense que ça risque d’être temporaire : la protection utilisée par Duracell est plutôt une bonne idée, donc on peut supposer que les autres fabricants se tourneront vers un choix équivalent dans le futur, d’une façon ou d’une autre. Après, il y a peut-être un brevet, je ne suis pas allé vérifier, mais dans l’absolu, ce serait une bonne idée de généraliser cette solution.

Il est introuvable


Rien.


Avec Energizer, ça repart

Maintenant, est-ce que les gens de chez Apple n’ont pas assez testé ? Probablement. Est-ce une amélioration possible pour les AirTags “2” ? Oui. Enfin, il est toujours possible de tenter de gratter ou dissoudre la protection, mais la solution la plus simple est quand même de se tourner vers des piles qui fonctionnent directement.

Comment Pixar améliore la diversité de ses personnages

Par : Shadows
Temps de lecture : 6 minutes

Ces dernières années, les studios Pixar ont fait plusieurs pas en direction d’une plus grande diversité dans leurs films d’animation. Une démarche qui se traduit derrière la caméra (Alerte rouge de Domee Shi est le premier des films du studio entièrement réalisé par une femme) mais aussi devant la caméra, avec des films d’animation tels que Soul, Alerte Rouge.

Au SIGGRAPH 2022, Pixar nous en dit un peu plus sur la manière dont cette volonté se traduit au sein du processus créatif, jusque dans les personnages secondaires, avec un outil dédié et une réflexion sur plusieurs années.

Soul et biais inconscients

Durant la production de Soul, le studio voulait coller à la réalité des quartiers de New York représentés à l’image : l’idée était que l’on verrait dans les foules et personnages d’arrière-plan 80 % de personnes issues de minorités (Afro-Américains, latinos, personnes d’origine asiatique, etc) et 50 % d’hommes et de femmes. Une bibliothèque de personnages correspondant à cette volonté fut donc créée. De cette manière, les foules générées aléatoirement auraient les bonnes proportions.
En pratique cependant, pour les personnages d’arrière-plan choisis manuellement, la même répartition était très différente : selon les calculs fait manuellement par l’équipe, sur les trois premières séquences entamées au début de la production, on trouvait 50 % de personnes issues de minorités, 70 % d’hommes.

Cela posait deux problèmes :

  • une diversité très inférieure à la direction artistique voulue, et absolument pas représentative des quartiers bien réels qui inspiraient le film ;
  • une partie des personnages se trouvaient utilisés bien trop souvent : 20 % d’entre eux étaient visibles 50 % du temps.

Un biais inconscient de la part des équipes avait donc fait dériver l’objectif, mais ces statistiques permirent d’ajuster le tir et, sur l’ensemble du film, on trouve 80 % de minorités, 48 % d’hommes, 52 % de femmes, un résultat quasi identique à la volonté de départ.

Pour Pixar, la conclusion était claire : disposer de statistiques automatisées aurait été d’une grande aide afin que l’équipe puisse, si elle le souhaitait, disposer d’éléments concrets pour contrer d’éventuels biais inconscients.

Soul
Crédit : Disney-Pixar

Ce type de réflexion n’est pas nouveau, comme l’explique l’équipe dans la présentation dévoilée au SIGGRAPH : des entités et initiatives ont déjà montré l’intérêt de mesurer la diversité, comme le Geena Davis Institute on Gender in Media, la Netflix + USC Annenberg Inclusion Initiative. La seconde a par exemple permis de souligner que la présence de rôles féminins parlants au sein des films les plus populaires aux USA était d’environ 34 % seulement en 2019, un chiffre stable depuis 10 ans. Les statistiques montrent par exemple que la part de femmes réalisatrices varie du simple au triple selon le studio : une analyse étant alors de voir dans ces disparités le reflet de choix et biais de recrutement, conscients ou non, et non pas un supposé déficit de femmes réalisatrices compétentes.

Reste à voir comment faire évoluer la situation. Dans sa présentation, Pixar souligne que comme un petit nombre de studios domine le box-office, ceux-ci ont un rôle potentiel énorme sur les représentations vues par le public.
Plutôt que d’attendre que les rapports évoqués plus haut soient mis à jour, une fois que les films sont sortis, les gros studios qui souhaitent plus de diversité dans leurs projets peuvent par conséquent choisir d’agir en amont, pendant la création des films.

Characater Linker : le chaînon manquant vers plus de diversité ?

D’où l’idée de mettre en place un outil au sein du pipeline de Pixar permettant de mesurer la diversité en prenant en compte tous les personnages d’un film donné, appelé Character Linker.

Character Linker
Character Linker
Crédit : Disney-Pixar

Ci-dessus à gauche, l’outil affiche tous les personnages du film.
À droite, les personnages de la séquence sélectionnée.
En bas, des statistiques sur leur répartition dans différentes catégories : genre, ethnicité, âge, morphologie, etc.
L’affichage des statistiques peut se faire sous forme de camembert mais aussi de barres : dans ce cas, Character Linker affiche aussi, s’il y en a, l’objectif ciblé pour le film.

On peut par exemple utiliser l’outil pour ajuster les personnages d’une scène. Une cour d’école manque de jeunes filles ? Il suffit alors de cliquer sur les parts de camembert « young » et « female », afin d’afficher à gauche les personnages de la bibliothèque qui correspondent, puis sélectionner un ou plusieurs de ces personnages et les ajouter à la séquence. Les statistiques de la scène sont ajustées en temps réel.
Character Linker gère aussi les « lineups » de personnages : des groupes précis comme, pour reprendre l’exemple de Pixar, des personnes travaillant sur un chantier visible dans le film.
Il est également possible de visualiser ces chiffres à l’échelle d’un plan, d’un acte du film, ou du film entier.
Mieux encore : une fois les personnages placés dans une scène, on peut disposer de chiffres sur leur temps effectif de présence à l’écran, mais aussi sur leur visibilité à l’image (un personnage distant ou coupé par le cadre est moins visible qu’un personnage en gros plan).
Enfin, les métadonnées OTIO (OpenTimelineIO) issues des dialogues audio permettent d’avoir des chiffres sur le temps de parole des personnages et groupes de personnage.

En coulisses, Character Linker s’appuie sur quatre étapes :

  • le tagging des personnages ;
  • l’identification, plan par plan, de la présence des personnages et de leur degré de visibilité ;
  • l’agrégation des données ainsi générées ;
  • leur visualisation.

Du côté technique, Pixar explique que l’identification se fait via une base de données tenue à jour lors du traitement des plans de la production, grâce à l’analyse des fichiers USD de ces plans (pour chaque frame, on calcule quels personnages sont visibles, et leur degré de visibilité dans l’image). L’usage d’USD plutôt que de faire des rendus finalisés permet de traiter plus rapidement les scènes.
L’agrégation va ensuite consister à récupérer ces données, les condenser pour en tirer les statistiques voulues. Elle se fait chaque nuit.

Mise en pratique avec Alerte Rouge

Le film Alerte Rouge a été l’occasion d’utiliser Character Linker. La réalisatrice Domee Shi avait le sentiment que l’école de l’héroïne, censée se situer dans le Chinatown de Toronto, ne collait pas à la réalité : il y avait trop peu d’élèves ayant des origines en Asie orientale, et elle en voulait deux fois plus. Character Linker a permis à l’équipe crowds d’analyser les personnages, et de constater que 20 % des élèves étaient originaires d’Asie orientale. Ils ont alors ajusté quelques groupes clés de personnages qui avaient une forte présence à l’écran, et ce taux est passé à plus de 40 %. Le résultat, approuvé par la réalisatrice, aida à valider l’utilité de Character Linker, qui avait donc permis d’agir rapidement et efficacement pour coller à la vision artistique du projet.

Alerte Rouge et son école.
Crédit : Disney-Pixar

Quelles pistes pour l’avenir ?

Pixar explique que si Character Linker est utile, son outil mérite tout de même des améliorations.
Par exemple, la visibilité à l’écran pourrait être affinée : un personnage au centre de l’écran ou mis en valeur par l’éclairage a plus d’impact qu’un personnage dans un coin sombre de l’écran. Les techniques de machine learning pourraient aider à pondérer la visibilité par cet impact plus ou moins grand qu’ont les pixels aux yeux des spectateurs.
En outre, les assets sont régulièrement personnalisés sur certains plans : Pixar donne l’exemple de fauteuils roulants, souvent ajoutés à la main et non pas présents dans les assets de départ. Pouvoir les suivre par des statistiques serait sans doute utile.

Pixar souligne également que son système a des limites et fait face à des défis. Il est évidemment difficile de l’appliquer dans certains contextes comme les films avec des personnages non humains. De plus, la diversité ne se limite pas à l’apparence des personnes : elle peut aussi passer par le storytelling, comme l’a montré le couple du très récent Buzz L’Eclair (voir notre interview du réalisateur et de la productrice, qui évoque cet aspect de diversité).
Par ailleurs, appliquer des labels implique des choix qui ne sont pas neutres : on peut définir des catégories plus ou moins large, en choisissant par exemple de créer un label « Asie orientale » ou de scinder par zone géographique/pays (Japon, Chine, Corée…). Sans compter les personnes ayant des origines mixtes.

En clair : il convient de rester très prudent face à ces outils, qui ne sont pas une solution miracle applicable aveuglément. Les catégories étudiées, les tags utilisés sont susceptibles d’évoluer d’un film à l’autre et doivent être questionnés au fil des projets et du temps.

Enfin, l’équipe du projet explique avoir eu des craintes au départ : ce type d’approche peut générer controverses et critiques. Mais les personnes du studio ont rapidement accueilli l’initiative positivement. Character Linker a été vu comme un moyen de disposer de plus d’informations pour faire de meilleurs films, pas comme un outil de contrôle ou d’accusation.

Pour en savoir plus, une publication est disponible chez Pixar, en accès libre. Si vous disposez d’une accréditation SIGGRAPH 2022, vous pouvez voir la présentation vidéo du projet, plus détaillée.

Character Linker est présenté au SIGGRAPH 2022 par Paul J. Kanyuk, Mara MacMahon, Emily Wilson, Peter Nye, Jessica Heidt, Joshua Minor des studios Pixar, Gordon Cameron d’Epic Games.

Pour aller plus loin

  • Vous pouvez suivre 3DVF sur YoutubeTwitterInstagramLinkedInFacebook.
  • Ci-dessous, notre interview d’Angus MacLane et Galyn Susman de Pixar, sur Buzz L’Eclair : à partir de 1 minute 20, l’équipe discute du personnage d’Alisha et de la question de la diversité et sa représentation à l’écran.

L’article Comment Pixar améliore la diversité de ses personnages est apparu en premier sur 3DVF.

Omniverse DeepSearch : ne triez plus vos assets, NVIDIA cherche pour vous !

Par : Shadows
Temps de lecture : < 1 minute

NVIDIA profite du SIGGRAPH pour officialiser l’arrivée de DeepSearch dans Omniverse Enterprise.

Derrière cet outil se cache une promesse simple : utiliser l’IA pour effectuer des recherches dans des bibliothèques d’assets, sans avoir à les tagger.

Pour les studios d’animation, effets visuels ou encore de jeux vidéo, l’intérêt est évident : ne plus avoir à s’infliger le travail fastidieux de classement et ajout de tags, mais aussi pouvoir réutiliser des assets qui n’avaient jamais été correctement triés et soigneusement rangés dans une bibliothèque.

DeepSearch est donc désormais disponible dans la version Enterprise (payante) d’Omniverse.
NVIDIA en profite pour montrer ce que donne DeepSearch en pratique chez ILM. Le studio explique en vidéo comment DeepSearch lui permet d’explorer sa collection massive de photos d’environnements avec ciel, qui ont été prises aux quatre coins du monde. Puisque DeepSearch gère le langage naturel, des requêtes comme « gloomy moody sky » (ciel maussade et sombre) sont donc comprises par le système.

Rappelons au passage que notre partenaire Progiss est revendeur des solutions Omniverse. Si vous souhaitez en savoir plus, vous pouvez les contacter par téléphone au 01 49 89 07 90 ou par mail : info@progiss.com.
Notez également que l’équipe Progiss est à votre disposition pour vous proposer des présentations des logiciels de la boutique, que ce soit dans leurs locaux (Roissy, à côté de Paris) ou dans les vôtres.

L’article Omniverse DeepSearch : ne triez plus vos assets, NVIDIA cherche pour vous ! est apparu en premier sur 3DVF.

Interview : Nexus VI épisode 8, les coulisses d’un crash

Par : Shadows
Temps de lecture : 6 minutes

L’an passé, nous vous avions proposé une interview très détaillée sur les coulisses de Nexus VI épisode 7 : des effets impressionnants créés pour une chaîne Youtube traitant de science-fiction au travers d’une émission elle-même mise en scène dans un vaisseau spatial.
L’artiste Romain Toumi avait porté l’essentiel des effets de cet épisode riche en combats spatiaux, épaulé par une poignée d’autres artistes.

Pour l’épisode 8, sorti plus tôt cet été, nous vous proposons une nouvelle nouvelle interview plus légère. Au menu : crash de vaisseau, giclées de sang, astéroïdes dans le ciel, stations de ski à supprimer, et évolution du côté logiciel avec Blender 3.0 !

Attention, l’article dévoile évidemment des éléments de l’intrigue, y compris dans ses visuels d’illustration : si vous n’avez pas vu l’épisode 8 et que vous souhaitez conserver la surprise, regardez d’abord la vidéo ci-dessous avant de poursuivre votre lecture.

Profitons-en aussi pour rappeler que vous pouvez suivre 3DVF sur YoutubeTwitterInstagramLinkedInFacebook.

3DVF : Bonjour Romain ! Dans cet épisode 8, on retrouve évidemment des assets de l’épisode précédent : vaisseau, capsule de survie… A-t-il été nécessaire de les modifier pour les besoins de l’épisode, ou les as-tu réutilisés tels quels ?

Romain Toumi : Oui, ils ont dû subir quelques modifications, le vaisseau a une dizaine de versions pour le crash.
Je ne pouvais techniquement pas faire une version évolutive et ultra détaillée, c’était du cas par cas pour chaque plans étant donné les choses qui doivent êtres déformées ou manquantes d’un plan à l’autre, et suivant le point de vue et la distance de la caméra.

Nexus VI
Nexus VI
Nexus VI

Le dernier plan du crash était complexe parce que le vaisseau termine relativement proche de la caméra tout en ayant énormément de déformation et d’interaction physique avec en plus un environnement complexe. Il fallait donc optimiser et mettre du détail uniquement où il fallait, sans compter la simulation de la poussière qui pèse très lourd en temps de calcul. Il y a eu énormément d’optimisations et de triche pour que Blender/Cycles puisse l’encaisser.

Nexus VI

La capsule de survie a eu quelques modifications pour ajouter le fait qu’elle soit entrée dans l’athmosphère puis un crash, et permettre à la caméra d’être très proche. Il fallait ajouter du détail dans la géométrie, du displacement, certains objets déformés etc, et faire l’intérieur qui n’était pas fait pour l’épisode 7.

Nexus VI

3DVF : La suite de l’épisode contient une sonde volante : quelques mots à son sujet ?

Cette petite boule peut paraître très clairement inspirée de Wheatley dans Portal 2, mais ce n’était pas forcément volontaire au départ.
Pendant la pré-production, il fallait créer cet objet en vrai pour les besoins du tournage, il a été fait assez rapidement et avec des moyens du bord, avec une balle en mousse comme structure principale et quelques diverses pièces en plastique et en bois autour !

Nexus VI

Je l’ai ensuite entièrement reproduite en 3D pour les plans ou elle doit être « vivante » et voler, la boule réelle servait uniquement pour les plans de manipulation par les méchants et le crash.

Au fur et à mesure de sa reproduction j’ai réfléchi à la manière de lui faire faire des expressions et de la mettre en scène en suivant les premières idées du réalisateur. Etant donné qu’il y a juste un œil central, il fallait jouer avec les paupières pour donner de l’expression. J’ai ajouté des antennes et quelques mouvements « à la Transformers » pour son déploiement et le tour est joué.

J’ai beaucoup triché avec les paupières en les déformant pour la rendre plus méchante par exemple.

Nexus VI
Nexus VI

3DVF : Des combats sont aussi présents, avec tirs et sang qui gicle… Sur ce genre d’effet, on peut évidemment aller du discret au gore, en passant par l’exagération cartoon. Quels ont été les échanges en interne sur le style à adopter, et comment as-tu créé ces effets ?

Sur les combats je n’ai pas fait grand-chose. L’explosion de la tête est réelle, c’est l’œuvre de Lucie Schosseler notre spécialiste des effets pratiques sur le terrain.

Les tirs et le sang qui gicle, c’est des effets très simples avec des stockshots.

En ce qui concerne le style, c’est de l’improvisation !

Nexus VI
Nexus VI

3DVF : Le ciel comporte aussi des effets qui contribuent à l’ambiance, avec des astéroïdes. Peux-tu nous en dire plus ?

C’est simple, partout où il y’avais du ciel, il fallait ajouter des astéroïdes, et donc trouver un moyen de tracker, même si il n y’avait rien de prévu pour ça, au moment du tournage on l’avait pas anticipé.

C’était parfois complexe pour pas grands chose, mais ça participe à l’immersion. Parfois il fallait ajouter aussi des nuages ou de la montagne.

Nexus VI

3DVF : La météo en montagne étant changeante, as-tu eu des problèmes de raccord d’un plan à l’autre ? Et l’équipe a-t-elle eu quelques surprises durant le tournage ?

Oui mais ça a globalement été réglé avec un peu d’étalonnage et quelques triches au moment du tournage.

Nexus VI

3DVF : Y a-t-il eu des effets « invisibles », par exemple des villages, chemins ou autres éléments qui étaient visibles sur les plans filmés et qu’il a fallu supprimer ?

Oui il y en a pleins ! On a tourné principalement dans les Alpes ou il y’avais des stations de ski, des touristes, des télésièges et lignes électriques, des routes et maisons bien sûr, et même l’équipe de tournage a dû être effacée sur des plans drone par exemple. Il fallait tracker et mettre des pansements faits au préalable sur Photoshop.

Nexus VI

3DVF : Concernant le pipeline, y a-t-il eu des évolutions par rapport à l’épisode 7 ? As-tu basculé sur Blender 3.x ? Pour le moteur rendu, es-tu resté sur le mix Cycles et E-Cycles ?

Effectivement une mise à jour s’imposait, l’épisode 7 a été géré avec la version 2.93, je suis passé a la version 3.0 pour profiter des dernières nouveautés comme Cycles X, j’ai bien sur mis à jour mes addons et j’ai fait une build personnalisée avec mes features.

3DVF : Quel bilan tires-tu de cet épisode ? Et as-tu déjà commencé le travail sur la suite ?

La post-production de cet épisode a été plus longue que prévu, notamment à cause du crash.

L’épisode 9 est en cours de post-production, j’y travaille actuellement et il y’aura des choses spectaculaires !

Nexus VI
Ci-dessus et ci-dessous : les crédits VFX
Nexus VI

Pour en savoir plus

L’article Interview : Nexus VI épisode 8, les coulisses d’un crash est apparu en premier sur 3DVF.

L’Opus X Profile brille dans la partition Cameo

Par : admin

Cameo monte en gamme avec ce spot à couteaux Opus Profile X équipé d’un moteur de leds blanches de 750 W, d’un panel de fonctions et de protocoles de commande complets Nous l’avons testé et voici nos impressions. Lire la suite

L’article L’Opus X Profile brille dans la partition Cameo est apparu en premier sur SoundLightUp..

SIGGRAPH 2022 : Exaion présente ses solutions cloud

Par : Shadows
Temps de lecture : 3 minutes

L’entreprise française Exaion sera cet été au SIGGRAPH 2022 (du 8 au 11 août à Vancouver), et y montrera ses solutions cloud pour les studios d’animation et effets visuels.
Filiale d’EDF, Exaion fournit des services dédiées pour l’industrie 2D/3D, grâce à des partenariats avec deux entreprises déjà spécialisées dans ce domaine. La vision d’Exaion: permettre aux indépendants et petites/moyennes structures de devenir des « entreprises étendues », avec une offre 100% numérique, collaborative et évolutive. L’idée étant par exemple de permettre à l’équipe d’un studio de collaborer avec des freelances et d’autres studios partenaires au sein d’un même espace numérique. Et puisque les services sont évolutifs, un studio peut renforcer ponctuellement son stockage en ligne ou sa puissance de calcul si un projet le nécessite.

A l’approche du SIGGRAPH, Exaion fait une double annonce.

Exaion se déploie en Amérique du Nord

Exaion nous explique que selon eux, beaucoup de studios adopteront Omniverse, la plateforme de collaboration temps réel dans le cloud de NVIDIA. Celle-ci permet pour rappel de partager des données, travailler sur des projets 3D et jumeaux numériques, ou encore de développer des outils spécifiques. Exaion se penche donc sur le sujet et veut déployer Omniverse sur ses serveurs, de façon à ce que les studios disposent d’une solution clés en mains, sans avoir à gérer d’installation fastidieuse.

Pour y parvenir, Exaion a formé un partenariat avec deux sociétés déjà bien implantées dans le secteur de la création numérique :

  • Progiss, partenaire de 3DVF et société française spécialisée dans les solutions logicielles, matérielles, les services à destination des studios créatifs, des artistes freelance ou encore des écoles d’animation/effets visuels/jeux vidéo ;
  • Daregraphic, société spécialisée dans les remote graphics située à Montréal.

Concrètement, Progiss et Daregraphic vont aider Exaion à déployer Omniverse, mais aussi aider les studios à définir leurs besoins avant de basculer vers cette plateforme, et les aider à faire la bascule. Exaion explique que son objectif est de faire en sorte que les clients se concentrent sur leur coeur de métier, Exaion/Progiss/Daregraphic gérant la maintenance et la partie technique.

Cette offre, qui sera donc notamment disponible en France, pourra peut-être faciliter l’adoption d’Omniverse, d’autant que les entités de petite/moyenne taille n’ont pas forcément le temps ou les ressources nécessaires pour gérer la partie technique d’un tel système : la déléguer a donc du sens. Cela pourra aussi inciter des studios à tester Omniverse sans risque pour voir si l’outil répond à leur besoin : ces derniers mois, nos échanges autour d’Omniverse avec différentes entreprises du secteur montraient clairement qu’un travail d’évangélisation est encore nécessaire pour convaincre les studios à faire le saut.

Exaion donnera plus de détails sur ces sujets durant le SIGGRAPH 2022.

Des solutions cloud bientôt disponibles en Amérique du Nord

Jusqu’à présent, les studios d’Exaion étaient localisés en France, puisque leur maison mère est EDF. L’entreprise ne proposait donc pas de services cloud hors Europe.

Mais Exaion veut évidemment se développer dans l’industrie créative dans son ensemble. Elle annonce donc qu’une branche canadienne est en préparation, avec un datacenter qui sera installé à Montréal, au Canada.

Exaion précise qu’un premier datacenter d’interconnexion entre l’Europe et l’Amérique du Nord (nom de code: QC0) sera mis en service en août. Il servira de base arrière aux datacenters d’Exaion. L’étape suivante aura lieu en septembre, avec la mise en service d’un premier datacenter à Montréal. Exaion disposera donc de serveurs fonctionnels pour Omniverse à la rentrée.

Exaion au SIGGRAPH : les informations pratiques

Pour plus d’informations sur Exaion et leurs solutions cloud, vous pouvez visiter le stand #1119 durant le SIGGRAPH, et consulter leur site. Exaion partagera son stand avec ses deux partenaires : Progiss pour les clients en France/Europe que vous pouvez contacter par e-mail, Daregraphic pour l’Amérique du Nord qui dispose d’une page contact. Vous pouvez les contacter si vous souhaitez planifier un rendez-vous durant le SIGGRAPH.

Précisons enfin que 3DVF sera au SIGGRAPH 2022 en tant que partenaire média officiel. N’oubliez pas de nous suivre sur les réseaux (YoutubeTwitterInstagramLinkedInFacebook) pour ne rien rater de notre couverture du salon, et n’hésitez pas à nous contacter si vous souhaitez échanger sur place!

L’article SIGGRAPH 2022 : Exaion présente ses solutions cloud est apparu en premier sur 3DVF.

La France version Anime pour séduire les touristes japonais

Par : Shadows
Temps de lecture : 2 minutes

Atout France, l’agence de développement touristique de la France, lance sa nouvelle campagne à destination du public japonais avec un spot animé qui met en scène différents lieux emblématiques : Paris, Mont Saint-Michel, Rouen ou encore Val de Loire.
L’objectif ? Séduire les touristes potentiels malgré les années de Covid et les complications associées en matière de tourisme. Pour y parvenir, Atout France a fait le choix de l’animation, et a confié sa campagne à un studio japonais : Studio Daisy, qui travaille essentiellement sur des courts-métrages, clips, cinématiques et publicités.

La réalisation a été confiée à Ryoutimo (à qui l’on doit par exemple Yozakura Shijuso / Quatuor pour
cerisiers nocturnes
et Yoru no Kuni / Le Pays de la Nuit). La direction artistique est signée Masao
Shimizu.

Atout France explique que sans surprise, chaque détail a été pensé avec soin : les personnages représentent par exemple « les principaux types de voyageurs japonais en France », explique l’agence. Autrement dit : couples, jeunes femmes, familles (avec ici trois générations représentées).
L’équipe nous indique également que des photos et prises de vues ont été utilisées pour créer des décors réalistes, l’objectif étant de respecter la topographie des différents lieux et de proposer une représentation des monuments qui se rapproche du réel.
Enfin, Minji KIM et Nobuhiro TATENO de Butterfly Effect ont créé la musique.

Crédits :

Réalisation / Création de personnages / direction du dessin:Ryoutimo
・Art conceptuel / Scénario couleur: Sato TAKAHARA
・Storyboard / Direction artistique / Direction du tournage / Montage:Masao SHIMIZU
・Narration:Meiko KAWASAKI Sho KARINO
・Dessins originaux:
studio daisy
Yuki ISHI Marin INAI
Aimi ISHIBASHI Izumi KAWAHARA Yuya KURIHARA
Yuya NAKAGAWA Yuri MATSUMOTO
Sato TAKAHARA
・Contrôle de l’animation:Miki KANEKO
・Animation:
studio daisy
Aki KOBAYASHI Miki KANEKO
Yuki ISHI Emiko HIRATA Marin INAI
Aimi ISHIBASHI Izumi KAWAHARA Yuya KURIHARA
Yuya NAKAGAWA Yuri MATSUMOTO
Ririka FUKAYA Yasuhito YAMADA Hikaru KOBAYASHI
・Conception colorisation / sélection et contrôle des couleurs:Natsumi WATABE
・Finition:
studio daisy
Natsumi WATABE Yuki ISHI Emiko HIRATA
Marin INAI Aimi ISHIBASHI
Izumi KAWAHARA Yuya KURIHARA

Digital Evolution Factory
Ayumi NAKAHARA Yuki TOZAWA
Tomomi KATO Hajime SATO
Taiki URA Emiko FURUZONO Kiyomi TAKAHASHI
Daisuke UCHIUMI Kaori MARUYAMA
GKsales
Liumengdi Shizhijie Shi bing Yangshusheng
・Direction artistique:Kaori TAKANO
・Art d’arrière-plan:VECTART
Takashi AOI
Takeshi SATO Kazuhiro OBATA Takuya EBISAWA
Koji OKAMOTO Wakako SHIMIZU Kotomi SUGIO
Rie ODA Kaori TAKANO
・Gestion de la production de l’arrière-plan:
Miki KAZUNO
・Effets sonores:Noriko IZUMO
・Enregistrement:Haruka ONO
・Assistant d’enregistrement:Yusuke TOMIDOKORO
・Son:Ai Addiction
・Production du son:Junichi INABA Ryuhei MATSUNAGA
・Musique:Butterfly Effect
Minji Kim Nobuhiro Tateno
・Production musicale:FUJIPACIFIC MUSIC INC.
・Production / Production du logo:Anna YOSHIHARA
・Assistant de production:Ken SASAKURA
・Support de production:Kazuya MORI Koichi
HASHIMOTO
・Production de l’animation:studio daisy

Crédit des visuels : Atout France

L’article La France version Anime pour séduire les touristes japonais est apparu en premier sur 3DVF.

Concours : gagnez un polo Buzz L’Eclair dédicacé par l’équipe du film !

Par : Shadows
Temps de lecture : < 1 minute

Alors que le film Buzz L’Eclair poursuit son parcours dans les salles de cinéma, nous vous proposons un petit concours estival autour du film.

A gagner : un polo aux couleurs de l’aventurier spatial de Pixar, signé par le réalisateur Angus MacLane et la productrice Galyn Susman !

Pour participer, deux options s’offrent à vous :

  • Commenter notre interview vidéo en compagnie d’Angus MacLane et Galyn Susman directement sur youtube, et vous abonner à la chaîne 3DVF ;
  • Partager l’interview vidéo sur Twitter en mentionnant @3DVF et avec le hashtag #Concours3DVF

Vous pouvez également doubler vos chances de gagner en suivant les deux méthodes en parallèle.

Le concours se termine le dimanche 24 juillet à minuit heure française.
La personne gagnante sera tirée au sort par nos soins et contactée directement par l’équipe 3DVF (via Twitter ou en réponse de son commentaire Youtube).
Les frais d’envoi seront pris en charge par 3DVF.

Voici également quelques détails sur le polo :

  • au recto, un logo 3DVF/Progiss ;
  • au verso, le visuel Buzz L’Eclair et les signatures ;
  • taille M ;
  • Le feutre indélébile utilisé devrait permettre un lavage en machine basse température.

Nous en profitons enfin pour rappeler que Buzz L’Eclair est encore visible au cinéma.

L’article Concours : gagnez un polo Buzz L’Eclair dédicacé par l’équipe du film ! est apparu en premier sur 3DVF.

What’s Ean Been Up To?

Par : Ean Golden
Ean Golden in a workshop

Hey! It’s been a minute! Our long-time editor and now GM of DJ TechTools – Dan White told me “Ean, people are probably curious what you are up to lately”. Fair enough, considering I haven’t posted any new articles myself in quite some time. After 12 years, 500 articles, and 300 videos, I needed a […]

The post What’s Ean Been Up To? appeared first on DJ TechTools.

Evolving Energy Solutions to Contribute to a More Sustainable Society

The United Nations released a report in April warning that if urgent action is not taken to substantially reduce harmful carbon emissions, the world will face "unprecedented heatwaves, terrifying storms, widespread water shortages" and become uninhabitable. However, the UN's Intergovernmental Pane...

Advancing the Discussion on Reducing Carbon Emissions

On July 13, the Panasonic Group held its second sustainability management briefing followed by a panel discussion on the responsibility of reducing carbon emissions. In the opening session, Group CEO Yuki Kusumi announced the release of the Group's GREEN IMPACT PLAN 2024 (GIP2024), a milestone tow...

Panasonic Sustainability Management Briefing

Press Release Videos Presentation Material & Infographic Photos Event Story Related Articles Press Release Panasonic Group Releases GREEN IMPACT PLAN 2024 (Jul 13, 2022) Videos Group CEO Briefing Panel Discussion Green Impact Plan 2024 - Panasonic G...

Panasonic Group Releases GREEN IMPACT PLAN 2024

Panasonic Holdings Corporation announced the release of its GREEN IMPACT PLAN 2024 (GIP2024). The plan will serve as a milestone toward the 2050 targets laid out in the company's long-term environmental vision, Panasonic GREEN IMPACT (PGI).

❌