❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Le Mandalorien est de retour : la saison 2 en images

Par : Shadows

Le chasseur de primes au mystérieux visage est de retour ! Disney+ dévoile un teaser pour la seconde saison de sa série The Mandalorian.

Dans cette seconde saison, le Mandalorien et celui que beaucoup ont surnommé « baby Yoda » (même s’il ne s’agit pas, pour rappel, du même personnage) continueront leur périple dans la galaxie. Dans cette ère qui suit l’effondrement de l’Empire Galactique, les dangers sont partout. Il leur faudra donc trouver des alliés…

Jon Favreau reste showrunner du projet. Lui et Dave Filoni, Kathleen Kennedy, Colin Wilson sont producteurs exécutifs, Karen Gilchrist étant co-productrice exécutive.

Cette seconde saison s’appuiera à nouveau fortement sur les effets visuels et les techniques de murs de LEDs. Il sera intéressant de voir si l’expérience de la saison 1 aura permis à l’équipe d’améliorer l’usage de cette approche.

Sortie prévue le 30 octobre sur le service de streaming Disney+.

Voici également la VF :

"Où que j'aille, il me suit." Découvrez la nouvelle bande-annonce de #TheMandalorian, en streaming dès le 30 octobre exclusivement sur #DisneyPlus.

— Disney+ FR (@DisneyPlusFR) September 15, 2020

L’article Le Mandalorien est de retour : la saison 2 en images est apparu en premier sur 3DVF.

Panasonic Enriches Its SDGs Content on Its Global Website

Osaka, Japan - Panasonic Corporation has added its Sustainable Development Goals (SDGs) initiatives to its global corporate website on August 31, 2020. SDGs are targets adopted by the United Nations at its September 2015 summit as common goals for the international commu...

UpNano imprime en 3D des pièces allant de plusieurs micromètres à quelques centimètres

UpNano est une jeune entreprise basée à Vienne qui a développé une technologie de micro-impression 3D à haute résolution. Basée sur un procédé de polymérisation à 2 photons (2PP),  le système serait capable de produire des pièces en plastique d’un…


Interview to Paco Gramaje

This is our interview to Paco Gramaje, art director of the Paco Gramaje Studio in Barcelona.

The studio creates immersive multidisciplinary AV shows, especially focusing on the fusion between projection mapping and dance performance.

We asked Paco a few questions about his background and creative career and also about the new projects he has been cooking up during the quarantine period.

1. When did you start working on the interaction between audiovisual and dance performance, and how did you get involved? What are the aspects that are more appealing to you about working in this interdisciplinary field?

It all begun in 2009. After quitting my job as an engineer I moved to Madrid to study a Master in Motion Graphics while making my first experiences in the world of video art. 

In 2010 I started up several collaborations with art organizations in Madrid and they proposed to me to shoot a dance performance by the choreographer Iratche Ansa.

The performance was going to be held at the Matadero in Madrid. From that recording I put together my first video dance “Comunicación Interpretación Automática” which had a very good reception.

I had discovered the potential of dance from an audiovisual perspective and the inner revelation of what I wanted to do in the next few years.

A few months later I made my first dance pieces with live visuals with choreographer Barbara Fritsche.

Thanks to those projects I was able to work on the musical “Hoy No Me Puedo Levantar” in 2013. In 2014 I directed my first proper theatre show: “Girasomnis”.

Interview to Paco Gramaje
2. You are the creator of “Girasomnis”, an itinerant project that has been traveling around the world. Can you tell us about the creative process behind the inception of this innovative project?

I try to “connect” the visuals with the dancers. Sometimes I encourage the dancers to “connect” or follow my visuals.

In this project I also composed the music. This is very useful as I have better control of the creative process. With this project I tried to evoke feelings in the audience without words: just images, dance and instrumental music.

Paco Gramaje - Audiovisual artist
3. Paco Gramaje Studio recently launched the “Dance Mapping Virtual Tour 2020” which it’s fundraising on Gumroad. This is in preparation for a new cutting-edge AV dance project in 2021 involving a 360 immersive environment . Can you give us some insights about the whole project?

This quarantine caused an abrupt stop in my job, but also gave me time to start imagining something new.

The idea was born during the first week of confinement. At the start, It was simple: I just wanted to publish some of our best projects and make them public. But I also felt a need for a change.

The last 3 years I was quite disconnected from my artistic side due to working mostly on commercial projects. 

I was just focusing on making money to pay my bills and trying to have a stable team for audiovisual production. The outbreak of the Covid-19  has been an absolute shift in our work. We started questioning the possibility of doing our shows as we did before.

Therefore I needed to devise another type of format for the new normal awaiting us: a fully immersive virtual Dance Mapping Show.

As my previous theatre production, without the pressure of a client and using the Girasomnis music.

So, in April I started to visualize and write a synopsis of this new project. I then decided to publish “Dance Mapping Virtual Tour 2020” as a memorandum of all these years of physical shows. 

Now it’s time to go further. I want to gather all the knowledge I gained during the last 10 years and apply it to a virtual reality show, where I can break the limits and make an immersive 360º visual performance with dancers.

This new production is planned to be released in VR and physical 360 projection format in late 2021.

4. When working on a project how do you pick your collaborators? What are the main roles you look for in your team? 

When I have the budget I can work with some powerful audiovisual freelancers from my network of collaborators. Failing that I work alone.

I also work with very talented dancers/choreographers from Barcelona. During the years they started to understand my ideas and transform them in beautiful choreographies. 

5. Can you describe your general creative approach when starting on a new project?

I have mostly 2 ways of work. I compose a music draft and then I work on the visuals and choreography or vice versa: I make a draft of visual content with a draft choreography and I try to match the sounds and music.

Sometimes I give leeway to the dancer, so they can create their own choreography and then I create the visual content following their movements.

In the last few years I also worked with some talented musicians for a faster audiovisual production.

6. In 2015, Paco Gramaje Studio won an award at the International Mapping Festival in Girona for the Micro-mapping category. Could you share with us your thoughts about the concept of “Micro-mapping”? 

This was a concept from Roman Torre. In 2015 I shared a space with him and we collaborated together on a video mapping of a rotating stone. It was a nice project called Liquid Series.

In the video mapping area I also tried to develop innovative concepts, differing from the typical big projection on a building facade. 2 Years ago I started to develop the concept of “Holomapping”. I am planning to finish it next year as well.

7. We are aware you regularly teach courses and masterclasses of video mapping applied to performing arts, in Spain and Latin America.

What specific training would you recommend for digital artists who have just started their career and why? Which are the countries with more opportunities for audiovisual arts, in your opinion?

Nowadays, it is possible to learn a lot following digital online courses, but it is always better if somebody guides you. As with everything in life the best way to learn is practice, making mistakes and improving. 

Spain is not the best country for arts, I would say. As far as I know French artists or from other European countries have more grants and support from their governments, but everything is possible if you are passionate about your work.


Facebook | Twitter | Instagram | Vimeo | YouTube

The post Interview to Paco Gramaje appeared first on Audiovisualcity.

Cinegy Multiviewer 15.2: Hail to the King

Munich, Germany, 05 August 2020: Cinegy GmbH, the premier provider of software technology for digital video processing, asset management, video compression and automation, and playout, has released the latest version of Cinegy Multiviewer 15.2, solidifying Cinegy’s position as the leading IP and multipurpose multiviewer vendor. Cinegy Multiviewer 15.2 is the most flexible multiviewer ever, great for ...

The post Cinegy Multiviewer 15.2: Hail to the King appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Cosmic Lab

Par : Marco Savo

Cosmic Lab is a multimedia studio formed by audiovisual artists and creators based in Osaka, Japan.

They combine art and technology to develop powerfully immersive audiovisual experiences.

We discovered this amazing collective thanks to ADAF 2020 and we fell in love straight away.

Cosmic Lab possibly represent the archetype of the audiovisual artist, rooted in the art world and the underground clubbing scene.

As many Japanese new media artists they are not afraid of experimenting and mixing up techniques and styles. As far is it’s punchy, alluring and visually stunning they will use it in their performances.

From immersive VJ sets to operatic projection mapping, from AV live graffiti to cutting-edge interactive installations. Cosmic Lab always achieves to captivate the audience and mind-blow even the more AV experts.

Here our top picks from their impressive portfolio of audiovisual projects:

Live Paint Showcase: “Magnetic”

Cosmic Lab - Audiovisual artists

As we said: no fear of experimenting. Here we see a very interesting fusion between hip hop and audiovisual culture.

At the opening event of MAGNET by SHIBUYA 109 “ShibuGekiSai”, Cosmic Lab and Doppel collaborated on a performance combining live painting and video projection.

The 3D video cubes are animated in motion graphics by the audiovisual artists guiding the graffiti artists on the patterns they will fill with their spray cans.

The DJ spins tunes throughout the performance linking graffiti and projection through the overall hip hop groove.

Buddhist Chant and Light Performance

An audiovisual feast and a once-in-a-lifetime experience to celebrate the Koyasan’s 1200th anniversary (The center of Shingon Buddhism).

We see something truly remarkable and unique: a fusion among the vibrating tones of the Buddhist chant, Japanese drums and an elaborate projection mapping.

Under the musical inputs and the AV latest technologies the great Pagoda comes alive. The result is spectacular, mesmerizing and sumptuous to honor the ancient tradition of Japanese Buddhism.


Here Cosmic Lab went a few steps ahead by reinventing the way of making AV live performances through a new tool called QUASAR.

It loosely reminded us of the Reactable Machine, developed in Barcelona in 2003 to make music through physical interaction.

In this next-generation AV instrument, each musical measure is not interpreted in a linear fashion, but as an endless loop.

Also the tangible interface gives a physical structure to the AV content making possible to build rhythm and layers in all new intuitive physical way. Impressive!

Cosmic Lab - Audiovisual artists



Facebook | Twitter | Instagram | Vimeo | YouTube

The post Cosmic Lab appeared first on Audiovisualcity.

Pandemic reinforces value of partnerships

Aldermaston, UK, 29 July 2020: Having completed a number of projects in recent months despite the constraints of the global pandemic, SI Media and GB Labs reflect on the underrated value provided by global and regional partnerships. Based just north of Venice, Italy, SI Media is an international broadcast software solution provider – including its proprietary ...

The post Pandemic reinforces value of partnerships appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Test : la manette SteelSeries Nimbus+ et le support SmartGrip

En mai, SteelSeries annonçait la 3ème itération de sa manette MFi, la Nimbus+. Grâce à votre aide sur Patreon et aux liens Amazon du blog, je me suis acheté cette dernière. Je possédais déjà la Stratus XL, la première manette au format classique de la marque.

Physiquement, il n’y a pas tellement d’évolution : la Nimbus+ ressemble à la Stratus XL, mais aussi à une manette de Xbox One. On a les branches classiques, les boutons, et deux sticks analogiques. SteelSeries a choisi la disposition de Sony plutôt que celle de Microsoft, avec deux sticks placés en bas, de façon symétrique, mais la structure reste la même. Pour les joueurs, la Nimbus+ amène quelques nouveautés. Premièrement, elle propose des boutons L3 et R3, c’est-à-dire des sticks cliquables. Deuxièmement, au lieu d’un seul bouton au centre, elle offre un bouton Home (qui va servir à allumer la manette), ainsi que deux boutons latéraux. Un qui sert de bouton start sous iOS, et un second, avec trois points, utiles dans certains jeux. Les boutons supplémentaires servent essentiellement dans un cas : avec le cloud gaming. Les jeux PC attendent la présence de ces boutons (qui sont bien présents sur les manettes de Xbox One et PlayStation 4) et c’est parfois un problème avec une manette purement MFi. Dans les jeux iOS, l’usage reste plus rare étant donné qu’une bonne partie des manettes ne les a pas. On peut aussi noter que la croix directionnelle est différente : celle de la Stratus XL est complète, avec les diagonales, et assez douces. La Nimbus+ se limite à une croix concave qui clique (physiquement et de façon audible) lors des pressions. La différence est marquée, mais c’est vraiment une question de feeling et c’est très subjectif.

La Nimbus + devant

La nouvelle croix

Du Lightning

Le second point qui va différencier la Nimbus+ de la Stratus XL de 2014, c’est la batterie. La Stratus XL utilise deux piles AA (ou un connecteur micro USB caché), la Nimbus+ a une batterie intégrée avec une autonomie annoncée de 50 heures. Elle se charge en Lightning, ce qui est pratique si vous avez des appareils iOS, mais le câble n’est pas dans la boîte. Vu le prix, c’est un peu radin.

On peut utiliser les boutons L3 et R3

Le support smartphone

La Nimbus+ arrive avec un support pour le smartphone, avec une conception un peu particulière. Il propose une pince classique pour le smartphone qui s’adapte bien aux iPhone récents, mais ne convient pas pour les anciens modèles, ou pour un iPhone SE de première génération. Le support se fixe sur la manette à travers deux tiges de métal qui rentrent dans deux trous de la manette. L’avantage, c’est que le support est compact. Le défaut, c’est qu’il n’y a pas de réglage de l’orientation du smartphone, et que les tiges peuvent bouger. Si c’est efficace dans un canapé ou pour jouer de façon fixe, ça risque franchement de bouger dans une voiture ou le métro, même si je vous déconseille franchement de faire ça. Enfin, avec un téléphone un peu lourd (genre iPhone 11), la manette est déséquilibrée vers l’arrière.

Le support inséré

Avec un iPhone 11

J’ai aussi le SmartGrip pour la Stratus XL, qui est aussi compatible Nimbus (la première) et Stratus Duo (la version Android). Cet accessoire optionnel (10 €) se fixe sur la manette avec une pince et des manipulations qui ne sont pas très intuitives. La pince pour le smartphone a deux avantages : elle permet d’orienter le smartphone avec des roues crantées, et s’adapte aux petits appareils, genre iPhone 5S ou SE. Par contre, le SmartGrip a un gros défaut sur la Stratus XL : il recouvre la trappe des piles, le bouton d’allumage et les boutons de connexion. Il faut donc enlever le support à chaque intervention, ce qui est vite énervant.

Le support externe SmartGrip

Une fois mis en place

Il cale bien un iPhone SE

Maintenant, il y a une question simple : est-ce qu’il s’agit d’une bonne manette ? Oui. Elle est bien construite, efficace, visiblement solide. Mais elle est surtout onéreuse. Elle vaut 80 €, et ce n’est pas la présence du support qui va changer les choses, surtout quand il n’y a pas de câble dans la boîte. Pour rappel, Apple prend en charge les manettes Xbox One et PlayStation 4 et même si la connexion est parfois plus compliquée (surtout si vous utilisez les manettes avec les consoles respectives), et elles valent entre 50 € et 60 € (parfois moins en promotion). Qui plus est, iOS 14 va prendre en charge les vibrations sur les manettes, et la Nimbus+ n’a pas cette fonction. Apple va aussi supporter certaines fonctions spécifiques des manettes, comme le trackpad et les lumières des manettes Sony.

Ce n’est pas un mauvais produit, mais c’est un produit onéreux et vraiment limité aux gens qui jouent sous iOS (et un peu macOS), ce qui réduit quand même pas mal le marché. Et du coup, il est possible de jouer à plusieurs (sans soucis de liaison) à Crossy Road Castle sur Apple TV. Et c’est amusant.

⁣ ⁣⁣ ⁣#repost @nvs_av⁣ ⁣__________________⁣ ⁣⁣ ⁣Amazing...

⁣#repost @nvs_av⁣
⁣Amazing Experience at @fotonicafestival ⁣
⁣Thanks to all⚡️⁣
⁣@videosolid @nick_n__ck @fotonicafestival .⁣
⁣#techno #experimentalmusic #experimental #video #visualart #visual #vj #liveset #eurorack #conceptstore #concept #videooftheday #postoftheday #fotonica #festival #cinema #audio #electronicmusic #electronic #modularsynth #drum #nvs #performance #performanceart #color #cinema #vdmx #millumin #

⁣ ⁣⁣ ⁣#repost @u.machine⁣ ⁣__________________⁣ ⁣⁣ ⁣Deformation...

⁣#repost @u.machine⁣
⁣Deformation #Umachine #digitalart #dance #mapping #videoprojection #art #picoftheday #instadance #audiovisual #installation #umachine #artist #audiovisualperformance #show #interactiveart #generativeart #madewithsmode #millumin #realtimevideo

Japan Media Arts Contest 2020

Par : Marco Savo

DEADLINE: 04 September 2020 18:00 (Japan standard time)

We are constantly scanning our map for new opportunities for audiovisual artists, especially outside the European network.

It is quite hard to map out the Asian audiovisual scene, mostly due to language barriers and different social media landscape.

Therefore we are very pleased to present you with this art contest for the Tokyo based media arts festival.

The Japan Media Arts Contest is a long-lasting institution reaching its 24th edition this year. The call is open to all audiovisual artists worldwide and encompasses the following categories:

Art Division | Entertainment Division | Animation Division | Manga Division
Open call for audiovisual artists
For each division the elected jury will award the following prizes, based on the artistic value and creativity of the artwork:

Grand Prize (1.000.000 JPY), Excellence Awards (500.000 JPY), Social Impact Award (500.000 JPY), New Face Awards (300.000 JPY), U-18 Award (certificate, trophy), Special Achievement Award (certificate).

It is interesting to notice the wide range of categories not necessarily related to the new media arts world. The inclusion of animation and manga highlights their wide recognition in the Japanese scene as special forms of art.

The Japan Media Arts Contest offers opportunities for young and emerging artists as well as recognized professionals making the audiovisual event a turning point every year for artistic innovation and excellency.

Japanese Media Arts Contest 2020

The Japan Media Arts Festival has been awarding prizes to outstanding artistic works since its establishment in 1997.

It is supported by The Agency of Cultural Affairs, Government of Japan to develop and promote the creation of Japanese and international media arts.

Through the annual Exhibition of Award-winning Works, the festival has offered the opportunity to the audience of directly appreciating these celebrated works.

The attendants are also invited to participate to the side events such as symposia, screenings and artists’ showcases.



The post Japan Media Arts Contest 2020 appeared first on Audiovisualcity.

The Future Group Unveils Significant Mixed Reality Advances in Pixotope Version 1.3

  Our object tracking software integration allows users to reach new levels of freedom while interacting with virtual elements on set   OSLO, NORWAY — 23 July 2020: The Future Group, creators of live photo-realistic virtual production system Pixotope®, today unveils its latest Version 1.3 software featuring a wide range of advances that significantly improve ...

The post The Future Group Unveils Significant Mixed Reality Advances in Pixotope Version 1.3 appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.


The TPN establishes a single benchmark of security preparedness for media and entertainment vendors OWNZONES Entertainment Technologies, the leading cloud-based video supply chain company, has announced today its appointment as the newest member of the Trusted Partner Network (TPN). The TPN is a new, global and industry wide film and television content protection initiative. The ...

The post OWNZONES BECOMES NEWEST MEMBER OF THE TPN: TRUSTED PARTNER NETWORK appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

IMT Expands Software Division; Introduces Intelligent Data Mover with Predictive Cost and Data Transfer Speed Analytics

IMT’s new enterprise software product, SoDA, provides real-time, actionable insights into customers’ data management strategies LOS ANGELES, Calif. – July 22, 2020 – Integrated Media Technologies, Inc. (IMT), a leading media technology provider, today announced the expansion of its advanced software development division to bring to market innovative software tools and applications that automate and ...

The post IMT Expands Software Division; Introduces Intelligent Data Mover with Predictive Cost and Data Transfer Speed Analytics appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

RenderMan : une conférence ce vendredi, entre avenir technique et rendu stylisé

Par : Shadows

Dans le cadre des « PreVIEW » de la VIEW Conference (qui se tiendra en Italie en Octobre), une conférence en ligne gratuite est organisée ce vendredi.

Le technical artist Dylan Sisson de Pixar (qui est notamment à l’origine des fameuses théières Pixar) et le journaliste Ian Failes évoqueront RenderMan. Au menu, deux grands volets :

  • l’utilisation du moteur de rendu dans le film Onward/En Avant ;
  • les dernières avancées techniques de RenderMan et son avenir, notamment en ce qui concerne le rendu non photoréaliste (NPR). Le studio Pixar planche en effet sur des outils qui vont étendre les capacités graphiques de RenderMan, du photoréalisme absolu à des approches plus stylisées.

L’inscription est gratuite mais obligatoire, et il est aussi possible d’envoyer des questions à pour que Dylan Sisson y réponde durant la présentation.

La conférence sera par contre relativement tardive depuis la France, puisqu’elle débutera demain 24 avril à 23h30 CET, et donc à minuit 30 en France.


L’article RenderMan : une conférence ce vendredi, entre avenir technique et rendu stylisé est apparu en premier sur 3DVF.

L’impression en IrDA et les vieux Mac

En rangeant, je me suis rendu compte que j’avais deux trucs que je n’avais jamais testé dans mon bordel mon labo mon bureau. Deux adaptateurs IrDA pour une imprimante en bus parallèle.

Avant même de parler de la réussite (de l’échec, en fait), un truc : ma seule imprimante en port parallèle est une Deskjet 340 portable, dont la cartouche est vide. J’ai acheté une cartouche sur eBay, mais elle était périmée depuis 18 ans (logique) et en mauvais état. Et donc elle ne fonctionne pas correctement : la partie qui sert à détecter la cartouche part en lambeaux, et elle n’est pas reconnue. J’attends un jour un kit pour transvaser l’encre (périmée) de la cartouche remplie vers la vide, mais ça ne change rien au fonctionnement de l’imprimante… en dehors du fait qu’elle ne dépose pas d’encre.

L’imprimante et son adaptateur

J’ai donc deux adaptateurs. Le premier est d’origine HP, spécifiquement pensé pour l’imprimante en question. Ce n’est pas le plus pratiques du monde, mais il est alimenté par le bus. En fait, le récepteur infrarouge est placé sur le bas de l’adaptateur, et même s’il tourne, il n’est pas toujours évident de placer l’émetteur (l’ordinateur) en face. Le second est un Psion, qui place le récepteur au boût d’un câble (bien) mais qui nécessite une alimentation : une pile 9 V. Avec lui, c’est vite vu : ce n’est visiblement pas de l’IrDA, il est pensé pour de vieux Psion et ne sert à rien avec un Mac.

L’adaptateur HP

Attention à un truc avec l’IrDA : si Apple a mis de l’infrarouge dans ses Mac portables (et même dans le premier iMac), ce n’est pas nécessairement de l’IrDA. Certains PowerBook (190, 5300 et 1400) sont uniquement IRTalk, un protocole qui permet de faire passer de l’AppleTalk dans les airs. D’autres supportent IRTalk et IrDA : PowerBook 2400, 3400c, G3 (Kanga), G3 (WallStreet) et G3 (PDQ). Enfin, certains ne supportent que l’IrDA : les PowerBook G3 Lombard et Pismo, les PowerBook G4 (les premières générations de Titanium) et les premiers iMac G3. Il existe aussi des adaptateurs IrDA en USB pour les machines non compatibles.

Un adaptateur USB qui fonctionne encore sous Catalina

En théorie, ça fonctionne, même si ça semble tout de même dépendre du protocole de l’imprimante. En pratique, je n’ai pas réussi. Les pilotes de l’imprimante ne proposent pas de connexion en IrDA, et je n’ai pas réussi à l’ajouter avec les outils de Mac OS 9. Avec Mac OS X, c’est vite réglé : que ce soit Tiger ou Catalina (oui, mon adaptateur IrDA en USB fonctionne avec Catalina), la norme n’est pas proposée. Si Mac OS 9 détecte bien l’imprimante en IrDA – ce n’est pas le cas de mon vieux PC sous Windows XP -, impossible d’imprimer. J’ai essayé pas mal de choses, mais sur ce site, je me mets quelques limites : si après quelques heures, je n’arrive à rien, je mets le projet de côté. Spécialement quand c’est une imprimante sans encre…

Mac OS X ne propose l’IrDA dans les imprimantes

Mac OS 9 voit l’imprimante

Même avec un pilote HP spécifique, rien à faire

La liaison plante

En Avant, Soul : Pixar dévoile en vidéos ses derniers secrets techniques et artistiques

Par : Shadows

Pixar a mis en ligne de nouvelles vidéos et publications sur les dernières avancées et recherches du studio, employées notamment sur le film d’animation En Avant (sorti en début d’année) et sur Soul, prévu pour la fin 2020.

  • « Garment Refitting for Digital Characters », pour commencer, est une technique permettant d’ajuster des vêtements 3D entre différents personnages de morphologies variées. Le plan présenté dans la vidéo montre montre un cas concret : les jeans du premier homme ont été adaptés pour l’enfant, et celui de la femme adulte à l’adolescente. Le sweat du premier homme a été ajusté à tous les autres personnages. Enfin, le pantalon du second homme a été ajusté pour correspondre à la taille de l’adolescent.
    Fernando de Goes, Donald Fong, Meredith O’Malley, qui présenteront une publication sur le sujet durant le SIGGRAPH, donnent quelques détails techniques ci-dessous. La technique s’appuie sur des itérations successives avec deux grandes étapes : une phase de relaxation (le vêtement est adapté à la forme de la cible tout en minimisant les distorsions du mesh) et une phase de réajustement qui remet à zéro l’espace entre le vêtement et le corps du personnage à l’aide de valeurs données par l’utilisateur.
    La technique gère des contraintes variées comme les épaisseurs multiples ou les coutures, et a été employée sur le film Soul.

We present a new technique to refit garments between characters of different shapes. Our approach is based on a novel iterative scheme that alternates relaxation and rebinding optimizations. In the relaxation step, we use affine-invariant coordinates in order to adapt the input 3D garment to the shape of a target character while minimizing mesh distortion. In the rebinding step, we reset the spacing between the refitted garment and the character body controlled by user-prescribed tightness values. Our method also supports additional constraints that encode the spatial and structural arrangement of multi-layers, seams, and fold-overs. We employed this refit tool in Pixar’s feature film Soul to transfer garment pieces between various digital characters.

  • « Sculpt Processing for Character Rigging » vise à accélérer le travail de rigging : l’utilisation de sculpts permet en effet de corriger efficacement les rigs de déformation, mais demande un travail fastidieux et beaucoup de nettoyage manuel. Les outils présentés par Fernando de Goes, Patrick Coleman, Michael Comet, Alonso Martinez durant le SIGGRAPH, et détaillés là encore dans une publication, permettent d’accélérer drastiquement la génération et la réutilisation de ces éléments.

Pose-space sculpting is a key component in character rigging workflows used by digital artists to create shape corrections that fire on top of deformation rigs. However, hand-crafting sculpts one pose at a time is notoriously laborious, involving multiple cleanup passes as well as repetitive manual edits. In this work, we present a suite of geometric tools that have significantly sped up the generation and reuse of production-quality sculpts in character rigs at Pixar.
These tools include a transfer technique that refits sculpts from one model to another, a surface reconstruction method that resolves entangled regions and a relaxation scheme that restores surface details. Importantly, our approach allows riggers to focus their time on making creative sculpt edits to meet stylistic goals, thus enabling quicker turnarounds and larger design changes with a reduced impact on production. We showcase the results generated by our tools with examples from Pixar’s feature films Onward and Soul.

  • « FaceBaker: Baking Character Facial Rigs with Machine Learning », publication de Sarah Radzihovsky, Fernando de Goes, Mark Meyer, part du constat que les rigs utilisés au cinéma sont très complexes et donc lourds à utiliser. L’idée est ici d’utiliser le machine learning pour déterminer des déformations approximatives du mesh facial, afin d’alléger les calculs associés. La méthode a d’autres avantages, comme la portabilité de rigs propriétaires sur des plateformes externes.

Character rigs are procedural systems that deform a character’s shape driven by a set of rig-control variables. Film quality character rigs are highly complex and therefore computationally expensive and slow to evaluate. We present a machine learning method for approximating facial mesh deformations which reduces rig computations, increases longevity of characters without rig upkeep, and enables portability of proprietary rigs into a variety of external platforms. We perform qualitative and quantitative evaluations on hero characters across several feature films, exhibiting the speed and generalizability of our approach and demonstrating that our method out performs existing state-of-the-art work on deformation approximations for character faces.

  • « Making Souls: Methods and a Pipeline for Volumetric Characters », enfin, est une publication de Patrick Coleman, Laura Murphy, Markus Kranzler, Max Gilbert. Comme son nom l’indique, elle se concentre sur les personnages fantomatiques du futur long-métrage Soul.
    Pixar nous indique ici que le style visuel a nécessité l’implication de nombreuses personnes au sein du studio, de l’art department au lighting en passant par les shaders, TDs, développeurs. L’enjeu artistique était d’équilibrer l’aspect éthéré des âmes avec un design attrayant et une bonne lisibilité.
    L’équipe s’est notamment appuyée sur un système procédural sous Houdini pour obtenir l’aspect doux des personnages et les lignes dynamiques, et a mis en place un système de contrôle automatisé pour gérer les calculs de façon configurable et prendre en compte, lors des rendus, les modifications faites aux performances des personnages.

The soul characters in Disney/Pixar’s Soul have a stylized appearance that sets them into a unique world, which introduced many new challenges. Everyone from the art department and character modelers and shaders to the technical directors and developers in the effects, lighting, and software groups collaborated to bring this new visual style to screen. The soul world is abstract and ethereal; this needed to be balanced with visual clarity and design appeal. As our character rigging and animation tools use rigged surfaces, a key challenge was presenting a new representation derived from this data that meets our visual goals. To achieve softness of volumetric form and dynamically changing linework, we built a system to procedurally generate this data in Houdini. Significant numerical computation was required to create this data at the fidelity required. We developed an automated system for managing this computation in a configurable way, while keeping data for downstream renders in sync with changes to character performances.

Rappelons pour finir que Soul devrait sortir le 25 novembre en France.

L’article En Avant, Soul : Pixar dévoile en vidéos ses derniers secrets techniques et artistiques est apparu en premier sur 3DVF.

Jornal do Centro invests in a Profuz LAPIS system

Par : RadianceC

    Jornal do Centro invests in Profuz LAPIS allowing remote accessibility and enhancing outreach capabilities For immediate release – 14 July 2020, Lisbon, Portugal  – IABM-member PBT EU is delighted to confirm the adoption of a Profuz LAPIS system at Portugal’s Jornal do Centro in collaboration with reseller partner Pantalha.  Jornal do Centro selected ...

The post Jornal do Centro invests in a Profuz LAPIS system appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Three Media signs up to DPP

Manchester, UK – 14 July 2020 – Three Media, a specialist technology company, today announced it has joined the DPP, the media industry’s business network, with the aim of expanding its exposure and bringing its distinctive perspective to the forum. Originally founded by UK broadcasters, including the BBC, ITV and Channel 4, to standardise tapeless programme ...

The post Three Media signs up to DPP appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News. dévoile une bande-annonce dans la lignée de Love, Death and Robots pour Watch Dogs : Legion

Par : Shadows

Si la conférence Ubisoft Forward n’a pas été l’occasion pour le groupe d’évoquer ses troubles internes, le studio a fait plusieurs annonces durant la soirée. Une cinématique pour le jeu Watch Dog : Legion a été dévoilée.

Si le style vous évoque l’épisode Le Témoin de la série Love, Death and Robots, ce n’est pas un hasard : le même studio en est à l’origine, avec Alberto Mielgo à la réalisation dans les deux cas. Notez également qu’Alberto Mielgo et son équipe de avaient déjà travaillé sur la préproduction de Spider-Man : New Generation, avec là encore une filiation graphique assez nette.

Pour cette cinématique, l’équipe était composée entre autres Pablo Vasquez (lighting artist connu des adeptes de Blender pour avoir créé la série Caminandes), de Lara Cores au compositing, ou encore de la concept/visdev artist Yun Ling.
Au niveau technique, Pablo Vasquez précise que « les logiciels utilisés étaient secondaires », chaque artiste ayant utilisé ses outils favoris (Blender, Maya, Cycles, Arnold…) afin d’obtenir le meilleur résultat possible.

L’article dévoile une bande-annonce dans la lignée de Love, Death and Robots pour Watch Dogs : Legion est apparu en premier sur 3DVF.

JP Delport promoted Managing Director at Broadcast Solutions UK

Broadcast Solutions UK are pleased to announce the appointment of JP Delport as Managing Director. Broadcast Solutions UK is a subsidiary of Broadcast Solutions, one of Europe’s biggest System Integrators, headquartered in Germany. Having joined the UK company at the beginning of 2020 as Sales Director, JP Delport will now take the helm as Managing ...

The post JP Delport promoted Managing Director at Broadcast Solutions UK appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Tatsuru Arai

Par : Marco Savo

The spectrum of audiovisual artists is as broad as the tools and different languages available.

Each artist explores a particular area of the audiovisual. The sum of all their artwork is what defines audiovisual culture.

Of course the definition is fluid and ever-changing due to the technological evolution and the constant offspring of new artistic languages.

Tatsuru Arai investigation embraces one of the most important aspect of the audiovisual culture: the synesthesia, the condition under which two or more senses are perceived simultaneously. In his specific case by visualizing the geometric structure that rigs the musical composition.

Tatsuru Arai - Audiovisual artist

One of the first artists to investigate the relations between music and imagery was Kandinski. He explored how different shapes and colours relate to each other by communicating different movements to the viewer. Same as different notes, rhythm and music patterns relate to our inner soul, triggering different emotional movements.

The Japanese artist (currently living in Berlin) features an interesting background of music composition, computer programming and multimedia art. Arai’s generative art is highly complex and goes beyond the audiovisual genre. It takes on a profound reflection around the universe and its structure based on vibrations, as advocated by the theoretical framework of the string theory.

His series “Principle of Hyper Serial Music” starts a direct dialogue with the Serialism movement developed by René Leibowitz and Pierre Boulez. The series adds “innovation” to the three main points of the serial music: “structural”, “complex” and “noisy”. Arai achieves this by incorporating AI within the musical composition and the visualization of its structure.

The result is an audiovisual duet between human and machine with the two elements constantly learning from each other in his ever-evolving investigation. Ultimately, Tatsuru uses the sound and its visualization as a key to make experience of the nature of the universe, even if just a small part of it.



Facebook | Vimeo

The post Tatsuru Arai appeared first on Audiovisualcity.

PATCHLAB FESTIVAL: Krakow, 23-25 October 2020

Par : Marco Savo

Patchlab Digital Art Festival is an annual audiovisual event showcasing digital art created with the latest technologies and new media.

The theme of the 2020 edition is CONNECTED. It explores the implications of the digital revolution we are undergoing in our lives due to the pandemic. The head-spinning rise of the internet based communication during the last months is still quite hard to grasp.

The internet was created originally as an effective and immediate form of communication. With the evolution of social media platforms, the world wide web is now a primary channel to express our emotions.

Audiovisual artists can help us understand the fast-changing environment we live in by visualizing the Nietzsche’s unsaid. Anything that is too complex for a total comprehension can be grasped by living the artistic experience.

Immersive installations, interactive artwork and live performance communicate complex statements through sensorial experience, giving us the chance to digest information slowly, at our own pace. Generative art as an antidote to the overwhelming data dump we experience everyday.

Patchlab festival - Audiovisual event
Matteo Zamagni, Nature Abstraction

Due to the uncertainty of in-person attendance, the organizers are planning the audiovisual event through virtual platforms. It will be therefore accessible to a wider audience through the experimental use of new technologies.

Patchlab will present art projects online and via AR (augmented reality). There will be experimental computer animations presented in the virtual cinema, remotely accessible workshops and also a dystopian multi-person computer game allowing the exploration of a post-apocalyptic New York. There will also be AV NIGHT, during which we will see unique audiovisual projects in 360° format.

OPEN CALL – DEADLINE: 30th of July 2020

All audiovisual artists are invited to submit their project proposals for this year’s program to be implemented online in an unexpected way.

Proposals can only be submitted via the online form.



Facebook | Vimeo | Instagram

The post PATCHLAB FESTIVAL: Krakow, 23-25 October 2020 appeared first on Audiovisualcity.

Maman : plongée dans un foyer dysfonctionnel, par Ugo Bienvenu et Kevin Manach

Par : Shadows

Miyu Distribution a mis en ligne Maman, court-métrage réalisé par Ugo Bienvenu et Kevin Manach en 2013. Un projet qui met en scène les trois membres d’une famille dans son quotidien. Dans un style 2D crayonné, le duo de réalisateurs se concentre sur l’ambiance, pesante.

Papa repasse. Enfant range. Maman expire.

Directors: Ugo Bienvenu and Kevin Manach
Production : Miyu Productions
Screenplay : Ugo Bienvenu amd Kevin Manach
Editing: Ugo Bienvenu and Kevin Manach
Sound effects: Nicolas Fioraso
Mixage: Lionel Guenoun
Sound Editing: Arthur Lesueur

Danse, performances, requin : l’INREV dévoile ses derniers projets

Par : Shadows

L’équipe de recherche Image Numérique et Réalité Virtuelle (INREV), rattachée à l’Université Paris 8, a mis en ligne des aperçus vidéos de certaines de ses activités de ces derniers mois.

Si vous ne connaissez pas déjà cette entité, son équipe (environ 25 personnes en comptant enseignants-chercheurs, doctorants, chercheurs associés) présente son travail ainsi :

Les recherches créations et les expérimentations artistiques de l’INREV visent à créer des environnements visuels et sonores hybridant réel et virtuel, dans lesquels évoluent des entités de synthèse interactives dont les capacités cognitives et perceptives sont amplifiées par l’apprentissage, grâce aux techniques d’intelligence artificielle et de vie artificielle.

En pratique, l’INREV explore quatre axes principaux de recherche : intelligence et vie artificielle en lien avec la réalité virtuelle/mixte/étendue, les relations entre arts numériques et vivants, le jeu vidéo du point de vue de l’esthétique et des pratiques artistiques, et enfin le patrimoine.

En janvier dernier, l’INREV a notamment pu participer à un atelier en collaboration avec d’autres entités, et au cours duquel plusieurs installations et performances ont été mises en place : sharky shARky (monde sous-marin en réalité augmentée), Look at Me (une performance faisant appel à de la projection), I Don’t Know Nature (installation interactive). Un making-of est aussi disponible.

Autre projet récent de l’INREV : une jam session de danse en motion capture en compagnie de Teal Darkenwald de l’Université de Californie du Sud. Sur le plan technique, l’équipe s’est appuyée sur les solutions Rokoko et Perception Neuron.

Silk Pavilion II – Mediated Matter Group at the MoMA

Silk Pavilion II –  Mediated Matter Group at the MoMA
Latest in the series of groundbreaking projects by Mediated Matter Group (MIT Media Lab) is the new successor to the Silk Pavilion (2013) project, results currently on show (subject to COVID-19 restrictions) at the Museum of Modern Art in New York. The project utilizes an integrated kinetic mandrel designed to guide the natural spinning motion […]