Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 4 avril 2020Vos flux RSS

Souvenirs de quarantaine : Fred Goguet

Par admin

Caché quelque part en Normandie avec Priscilla et Oscar, Fred Goguet Ingénieur du Son et Régisseur Son nous raconte ses doutes, ses espoirs et les quelques difficultés à donner cours à la place des profs. Vivement que la cloche sonne la fin de cette moche récré.

SLU : Quels sont vos secteurs et zone d’activité

Fred Goguet : Le Spectacle et l’évènementiel

Comment allez-vous, vous et vos proches ? Êtes-vous touchés par le virus Covid-19 ?

Nous allons bien, aucun problème de santé, c’est une chance en ce moment. Notre petite famille essaye de gérer au mieux cette période difficile.

Où êtes-vous ?

En Normandie.

Quelle a été pour votre activité l’impact de cette pandémie avant le confinement ?

Comme beaucoup d’entre nous, les prestations, évènements, concerts se sont annulés les uns après les autres… Et puis plus rien.

Et depuis le confinement ?

Ma dernière prestation fut une date avec Anggun à Moscou juste avant le confinement et depuis le néant, un désert

Quels ont été les principaux projets annulés ?

Concert en Indonésie, événements

Quels sont les projets reportés, et à quelle échéance ?

A cette heure, je n’ai aucune info concernant le report éventuel des différentes prestations, nous verrons en fonction de l’évolution de la pandémie et des directives gouvernementales. Dans l’événementiel difficile de savoir comment tout ce bazar va s’organiser. Il faut croiser les doigts pour que la saison des festivals ne soit pas impactée.

Quel est l’impact économique pour vous ou votre société, cela risque-t-il d’impacter votre avenir de façon permanente ?

Perte de dates, donc perte financière of course. Maintenant cela sera t’il durable ou passager ? Là et la question à laquelle je n’ai pas de réponse, c’est l’inconnue totale. Je me garderai bien de faire des prévisions dans cette période d’incertitude, l’important c’est qu’on sorte de cette saloperie de Covid-19.

Quelles sont vos activités personnelles durant ce confinement ?

Je m’occupe de ma famille, courses, cuisine, jeux, film. Je laisse à ma femme le soin de gérer la classe à la maison avec notre fils Oscar de 8 ans .

Comment occupez-vous votre temps professionnel ?

N’ayant plus d’activité, je n’ai plus de temps professionnel… Mdr

Quelle est la première chose que vous allez faire en sortant du confinement ?

Accompagner mon fils au cheval et faire une fête à la maison avec des potes.

Avez-vous une anecdote surprenante à nous détailler ?

Surprenante je sais pas, mais marrante :
Hier après midi, ma femme était en train de faire faire des math à notre fils. Des problèmes à résoudre, des petits papiers à découper, je sens que Priscilla a la tête qui chauffe…
Et là j’entends Oscar dire : « Je vais mourir ». Priscilla : « Ben pourquoi Oscar ? » Réponse de notre fils : Parce que Maman va m’égorger ».
Heureusement il a beaucoup d’humour et la séance de Math s’est terminée en un gros éclat de rire.


11 septembre 2008, un souvenir que SLU offre à Fred et au reste de l’équipe son sous la responsabilité de Marco. Le lendemain de cette image très pluvieuse, on a pu se dire : « abemus papam in Paris ».


Nous ajouterons chaque jour les souvenirs qui nous parviendront via le questionnaire à télécharger ici.
Et nous l’envoyer avec un selfie au format paysage sur l’adresse mail  redaction@soundlightup.com

L’article Souvenirs de quarantaine : Fred Goguet est apparu en premier sur SoundLightUp..

Ember Mug, la tasse de café connectée à Santé

Par Pierre Dandumont

Aujourd’hui, encore un test d’un produit qui se connecte à l’application Santé, l’Ember Mug. Il s’agit d’une tasse connectée en Bluetooth qui va permettre de garder un café (ou un thé) à la bonne température pendant environ 1 heure. Et qui va mesurer votre consommation de caféine.

Le mug a une contenance de 10 oz (en gros, 300 ml) et semble de bonne qualité. Il ne chauffe pas trop quand il contient un liquide, il semble solide, il se nettoie facilement, rien à dire sur ce point. On voit le côté connecté sur deux choses : la LED placée à la base, qui est réglable, et le cercle sous la tasse. Parce que oui, la tasse se recharge. Ce n’est pas de l’induction comme un téléphone, pour des questions d’efficacités : on a deux broches sur la base et deux cercles sous la tasse. Ce choix permet de mettre la tasse dans n’importe quel sens. Question alimentation, c’est assez costaud : 19 V et 2,1 A (~40 W), on est donc assez loin d’un chargeur de téléphone.

La tasse

Attention, il existe deux générations. La première (le mien) possède une base un peu large et une autonomie un peu faible. Je l’ai eu sur Amazon pour 100 € (grâce aux liens placés ici et sur Twitter). Apple ou le fabricant vende une v2 pour 120 €. Elle possède une batterie un peu plus performante (90 minutes), est résistante à l’eau (IPX7) et la base est un peu moins large. Mais dans l’ensemble, c’est le même produit. Il existe d’ailleurs des versions plus grosses (14 oz, 415 ml), une tasse de voyage (en gros, un truc qui ressemble aux gobelets Starbucks) et une version cuivrée du mug, plus onéreuses (150 € en 10 oz).

La charge

Avant de passer aux usages, il y a pleins de trucs énervants à prendre en compte. Premièrement, la tasse ne chauffe pas réellement, elle garde à une température précise (entre 50 et 62°C). Deuxièmement, l’autonomie est assez limitée : 1 heure à ~55°C avec ma version, 1h30 avec le mug le plus récent. Troisièmement, il faut évidemment éviter le four à micro-ondes et le lave-vaisselle. En gros, il faut nettoyer à la main avec une éponge, et éviter les cuillères. Tout ça mis ensemble, c’est pas mal de contraintes, surtout que le passage au micro-ondes/lave-vaisselle risque d’endommager la tasse (et l’appareil).

Le chargeur, un peu large

L’application

L’application n’est franchement pas géniale. Déjà, elle supporte mal l’iPhone SE : les textes sont coupés dans pas mal d’endroits. Ensuite, il faut un compte (je n’aime pas ça) et le contrat est un peu trop long à mon goût. Enfin, il faut activer le support de Santé dans un sous-menu. En pratique, j’ai mis l’application en anglais, c’est un peu plus lisible. Le fonctionnement est un peu particulier : une fois la tasse remplie, il faut swipper vers le bas pour afficher les boissons (on peut éditer) et choisir ce que vous buvez. L’appli gère assez mal l’écran de l’iPhone SE (encore) et les boutons sont peu accessibles. Il y a quelques choix, mais on peut aussi créer sa boisson : type (café/thé), marque (pour le café : Starbucks, Peet’s Coffee, Costa Coffee, Caribou, Lavazaa ou… rien), le type de café, la température et la taille habituelle des tasses. C’est très américano-centré en pratique, malheureusement. Truc important, pour que Santé récupère le niveau de caféine, il faut bien choisir le type de boisson à chaque fois. Au début, je ne le faisais pas et du coup, je n’ai pas de données à ce moment là.



L’iPhone SE coupe au bon endroit


Mise à jour d’une tasse


Mise à jour


La température


Trop chaud


Trop froid


Vide


Il faut bien choisir


On voit le type choisi


Quelques infos (batterie, LED, etc.)

Dans l’application, on a un petit graphique qui montre le moment où vous buvez une tasse de café et votre sommeil ou votre rythme cardiaque, si vous avez un appareil qui mesure la fréquence. Dans Santé, on a simplement le nombre de milligrames de caféine ingéré. En gros, il compte 300 mg par tasse. Quand je suis en bouclage ou que je me déplace, je suis à (beaucoup) plus de deux tasses, mais ici je reste vers deux par jour, ce qui est raisonnable. On le voit, aussi, il y a un jour ou il n’a pas mesuré et j’ai donc visiblement oublié de sélectionner le type de café.

L’intégration Santé


Dans Santé


L’app’ compare la consommation avec la fréquence cardiaque

L’usage

La partie connectée est franchement pleine de défauts, ce n’est pas pratique, il y a énormément de contraintes. Mais à l’usage, l’idée est plutôt bonne : garder un café ou un thé à la bonne température (bon, je mets un peu plus bas que ce qui est recommandé) est un plaisir. J’ai tendance à parfois oublier mes boissons et donc là, ça reste chaud pendant pas loin d’une heure. Et une notification prévient quand c’est buvable (parfait avec le thé) et quand la batterie baisse. Honnêtement, un simple bouton pour choisir le type de boisson aurait été préférable à l’application, et l’intégration dans Santé est assez minimale. Bien évidemment, il faut recharger, nettoyer à la main, etc., mais ça reste pratique. J’expliquais au-dessus que le but est de garder chaud, mais il est tout de même possible de chauffer le contenu, c’est juste assez lent et ça vide la batterie, ce n’est donc pas très conseillé. Le seul bémol, en réalité, c’est quand on arrive à la fin du café : s’il ne reste qu’un fond de liquide, la température monte pas mal, et on est largement au-delà de celle attendue, visiblement les capteurs n’aiment pas ça.

Une notification


Sur son socle

Est-ce que ça vaut son prix ? Je ne pense pas, surtout sur les version modernes qui valent entre 120 et 150 €. Est-ce que c’est pratique ? Oui, vraiment, surtout si vous oubliez votre café. Mais l’application est franchement perfectible malheureusement.

Blackmagic Design Introduces New ATEM Mini Pro Live Production Switcher

Par By Terry Sullivan

Blackmagic Design’s new ATEM Mini Pro live production switcher

Today, during an hour-long live-stream event, Blackmagic Design’s CEO Grant Petty made several product announcements. The most noteworthy was the introduction of a new ATEM Mini Pro, which at $595 is, according to the company, a new low-cost live production switcher that has “all the features of ATEM Mini but now with extra features for recording, streaming and monitoring.”

Blackmagic Design also said the new ATEM Mini Pro includes a new hardware streaming engine to allow direct streaming via its Ethernet connection to YouTube Live, Facebook and Twitch. The new ATEM Mini Pro also supports recording the stream direct to USB flash disks in H.264, plus supports recording to multiple disks for continuous recording, and includes multi-view capability on the HDMI video output that allows all inputs to be monitored on a single monitor, as well as live status of recording, streaming and the audio mixer.

Blackmagic Design’s new ATEM Mini Pro live production switcher (rear view)

Other new ATEM Mini Pro features include:

  • Miniaturized control panel-based design.
  • Supports connecting up to 4 cameras or computers.
  • USB output operates as a webcam and supports all video software.
  • Two stereo audio inputs for connecting desktop or lapel microphones.
  • A free ATEM Software Control for Mac and Windows.
  • Internal media for 20 RGBA graphics for titles, opening plates and logos.
  • ATEM Advanced Chroma Key for green/blue screen work.
  • Audio mixer supports limiter, compressor, 6 band EQ and more!
  • Remote HDMI control for Blackmagic Pocket Cinema Cameras.

Petty said the new ATEM Mini Pro switcher is available now.

In addition to the ATEM Mini Pro, Blackmagic Design had a couple of other announcements. The company announced two free updates for its popular Blackmagic Pocket Cinema Camera 4K and 6K models that includes powerful studio camera features. It also introduced an update for its HyperDeck Studio Mini broadcast recorders

The Blackmagic Camera update (6.9) and the HyperDeck Studio Mini update (7.1) are available for download now from the company’s website. For more on each product, see the following press releases:

Blackmagic Design’s New ATEM Mini Pro Live Production Switcher

The post Blackmagic Design Introduces New ATEM Mini Pro Live Production Switcher appeared first on HD Video Pro.

  • 3 avril 2020 à 23:10

Blackmagic Design Announces HyperDeck Studio Mini v7.1

Par Zazil Media

New and free software update adds new H.264 codec, new AAC audio codec, longer single file record durations and faster file transfers using Ethernet. Fremont, CA, USA – Friday, April 3, 2020 – Blackmagic Design today announced HyperDeck v7.1 a major new software update that adds multiple new features to HyperDeck Studio Mini broadcast recorders. The ...

The post Blackmagic Design Announces HyperDeck Studio Mini v7.1 appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Blackmagic Announces New ATEM Mini Pro and Other Updates

Par Chuck Crosswhite

Blackmagic Design announces the new Blackmagic ATEM Mini Pro switcher, updates to the Blackmagic Pocket Cinema Cameras and the HyperDeck minis. Today, the team at Blackmagic Design ...

Blackmagic Design Announces New ATEM Mini Pro

Par Zazil Media

Powerful new model adds a new hardware streaming engine via Ethernet, recording to USB flash disks and new multiview for monitoring all cameras! Fremont, CA, USA – Friday, April 3, 2020 – Blackmagic Design today announced ATEM Mini Pro, a new low cost live production switcher with all the features of ATEM Mini but now with ...

The post Blackmagic Design Announces New ATEM Mini Pro appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Half-Life : Alyx – Toutes les astuces pour finir le jeu en difficulté maximum

Par Bastien L
half life alyx astuces conseils

Le jeu VR Half-Life : Alyx tant attendu est enfin disponible sur Steam, et propose une aventure captivante. Découvrez toutes les astuces et les conseils pour bien débuter et même finir le jeu au plus haut niveau de difficulté.

Plutôt court et linéaire, Half-Life : Alyx n’est pas un jeu difficile en lui-même. Cependant, les choses peuvent se corser si vous décidez de jouer au niveau de difficulté maximal. Vous devrez alors faire preuve de stratégie, de discrétion et de parcimonie. Découvrez nos astuces et conseils pour exceller.

Cherchez la résine

La résine fait office de monnaie dans l’univers d’Half-Life : Alyx. Elle permet d’améliorer votre arme à plusieurs reprises au sein des Combine Fabricators au fil de la campagne.

Vous ne pourrez pas améliorer votre arme aussi souvent que vous le souhaitez. Il est donc important de collecter autant de résine que possible pour pouvoir exploiter pleinement ces rares opportunités et améliorer votre arme au maximum.

Pour ce faire, fouillez minutieusement chaque pièce. En règle générale, les chemins qui s’écartent de la route principale mènent à des salles dissimulant de la résine et des munitions.

Sur le chemin principal, songez aussi à observer l’environnement fréquemment pour trouver de la résine cachée. Fouillez sous les meubles et dans les étagères pour être sûr de tout trouver…

Il peut être tentant de dépenser votre résine dans le laser ou le Reflex Sight. Toutefois, songez aussi à augmenter la capacité du chargeur de votre arme et à débloquer le rechargement automatique pour le fusil à pompe.

Économisez vos munitions

Plus encore que la résine, les munitions sont essentielles dans le jeu. Elles ne sont pas rares, mais vous pouvez en manquer si vous avez vraiment la gâchette facile et que vous privilégiez l’une des trois armes (et consommez donc davantage de munitions pour cette dernière).

Les munitions peuvent être trouvées un peu partout dans le décor, sur les étagères, au sol et même sur les cadavres qui jalonnent votre périple.

Les boîtes de stockage peuvent être ouvertes pour trouver des munitions, au même titre que les tiroirs. Les caisses en bois, que vous pouvez jeter au sol ou faire exploser, peuvent aussi en contenir.

Mieux vaut se montrer économe en munitions. Ne les gaspillez pas sur les bernacles et sur les caisses en bois. Il est préférable de casser les caisses à la main ou de les jeter. Concernant les bernacles, le plus simple est de les distraire en jetant un objet et de passer discrètement.

Récupérez rapidement le Reflect Sight

Le Reflect Sight est un accessoire compatible avec le pistolet et la mitrailleuse. Celui-ci vous permet de viser plus facilement, mais aussi de mettre en lumière les points faibles des ennemis.

Il s’agit donc d’un outil indispensable, notamment pour tuer les zombis en un seul tir. De plus, il vous permettra de vérifier que vous ennemis sont bel et bien morts. Tâchez de l’obtenir rapidement, et équipez-le aussitôt.

Le fusil à pompe peut être chargé de 7 cartouches

Dans beaucoup de jeux vidéo, le fusil à pompe ne peut accueillir que deux cartouches. Ce n’est pas le cas dans Half-Life : Alyx.

Vous pouvez charger cette arme de sept cartouches, mais il est possible de ne pas s’en rendre compte puisque cela est inhabituel et que le jeu ne le précise à aucun moment. Maintenant, vous le savez !

Utilisez votre tête et vos deux mains

Toutes les armes du jeu se tiennent à une main. Vous pouvez donc utiliser l’autre main pour vous déplacer.

Il est par exemple possible de se suspendre à des éléments du décor. De cette manière, vous pourrez plus facilement éviter les attaques ennemies.

De même, tournez la tête fréquemment pour observer tout autour de vous. Ceci vous permettra de repérer les ennemis avant qu’ils ne vous tendent d’embuscade. Pensez aussi à vous baisser et à vous mettre à couvert pour éviter les tirs.

Comment résoudre les puzzles et les énigmes ?

 

Prêtez attention aux informations visuelles tout au long du jeu. Par exemple, un petit écran sur votre arme indique combien de munitions il vous reste. De même, si vous oubliez de désactiver la sécurité de l’arme, une petite lumière rouge vous le signalera.

Ceci est également valable pour résoudre les énigmes et les puzzles pour lesquels Alyx doit utiliser son multi-outil. Parfois, la solution pour résoudre un puzzle peut se présenter sous la forme d’un graffiti sur le mur ou de hiéroglyphes anciens. Par ailleurs, votre ami Russell vous conseillera régulièrement via la radio pour vous aider à avancer si vous êtes bloqué…

La plupart du temps, il s’agit d’insérer l’outil dans l’emplacement électronique puis à résoudre l’un des différents types de puzzles. En règle générale, le bleu représente la victoire. N’hésitez pas à vous déplacer autour du puzzle profiter d’une meilleure visibilité pour ensuite le résoudre.

N’hésitez pas à faire demi-tour pour vous soigner

Les stations de soin sont disséminées tout au long du jeu, et vous permettent de vous soigner après les avoir activées. Une seule charge suffit à vous régénérer entièrement.

Cependant, notez qu’il est possible de retourner jusqu’à une station à tout moment. De fait, il peut être intéressant de retourner quelques pièces en arrière plutôt que d’utiliser une seringue. Vous pouvez aussi rester à proximité d’une station pendant un combat pour pouvoir vous soigner plusieurs fois.

Faites des stocks de soin et de grenades

Vos deux poches seront généralement pleines, et il serait dommage de laisser des soins ou des grenades faute de place. En guise d’alternative, vous pouvez réaliser des stocks dans un endroit sûr.

Les objets ne disparaissent pas dans ce jeu. Ainsi, après avoir utilisé des objets, vous pourrez retourner à votre stock pour remplir à nouveau vos poches.

Utilisez l’environnement

De nombreux éléments du décor peuvent être utilisés pour vous protéger, même si le jeu ne vous le précise pas explicitement. Vous trouverez par exemple de nombreux casques et masques à gaz, notamment dans les souterrains.

En ramassant ces objets, vous pouvez effectivement les placer sur votre tête pour vous protéger. Ils se détruiront toutefois après une attaque subie.

Baissez-vous pendant les combats

Dans les niveaux de difficulté les plus bas, il est possible de se précipiter en faisant feu sur tout ce qui bouge. En revanche, dans les difficultés plus élevées, les combats deviennent beaucoup plus tactiques.

Lors des fusillades, il est important de choisir rapidement un endroit où vous mettre à couvert. Accroupissez-vous pour vous mettre à l’abri des tirs ennemis. En utilisant cette méthode, vous subirez moins de tirs et le jeu se révèle aussi bien plus immersif.

Tentez de rester furtif

Si vous n’êtes pas assez discret dans Half-Life : Alyx, les Crabes de Tête vous sauteront au visage. C’était déjà le cas dans les précédents opus de la saga, mais particulièrement terrifiant dans la réalité virtuelle

Pour éviter ces séquences stressantes, tâchez de rester furtif. S’ils ne vous ont pas repéré et sont déjà sur un ennemi, laissez-les passer et faufilez-vous sans attirer leur attention.

Faites attention à ne pas faire de bruit, car le moindre objet que vous faites tomber suffira à vous faire repérer. Tant que cela est possible, il est toujours plus judicieux de jouer la carte de l’infiltration plutôt que d’opter pour un passage en force. Gardez vos munitions pour les moments où vous ne pourrez pas faire autrement.

Sauvegardez régulièrement

Il y a des sauvegardes automatiques dans Half-Life : Alyx, mais il est important de sauvegarder régulièrement. De cette manière, si vous mourez souvent, vous pourrez reprendre juste avant le passage où vous avez échoué.

L’option est facilement accessible puisqu’elle est placée au sommet du menu. Pensez donc à sauvegarder après chaque passage difficile…

Utilisez tous les emplacements de sauvegarde

Pour chaque compte, vous pouvez utiliser un maximum de 10 emplacements de sauvegarde. Il est très facile d’alterner entre ces différentes sauvegardes.

Par défaut, le jeu chargera la plus récemment lancée. Cependant, dans le menu principal, vous pouvez cliquer sur l’onglet ” Jeux ” pour consulter la liste complète des emplacements de sauvegarde. Les détails concernant l’enregistrement le plus récent sont indiqués.

Par ailleurs, notez que le fait de commencer une nouvelle partie ne supprime pas automatiquement un autre emplacement de sauvegarde. Vous pouvez choisir sur quel emplacement commencer une nouvelle partie. Il est donc possible de partager le jeu entre plusieurs membres du foyer ou utilisateurs d’un même compte Steam…

Évitez le Motion Sickness

Half-Life : Alyx est un jeu d’action intense, et vous risquez de ressentir le Motion Sickness (sensation de mal de mer). Tout particulièrement si vous n’avez jamais joué à un jeu VR auparavant.

Tout d’abord, testez les différents moyens de locomotion proposés dans les paramètres. Pour vous déplacer, vous avez le choix entre vous téléporter ou vous déplacer librement.

Pour les joueurs les moins expérimentés, la téléportation peut être préférable. Cependant, les joueurs les plus accoutumés à la réalité virtuelle pourront choisir le déplacement libre.

Dans tous les cas, si vous vous sentez mal, cessez immédiatement de jouer et prenez une pause. Si vous continuez à jouer malgré cette sensation de malaise, vous prendrez plus longtemps à vous en remettre.

Les options de confort pour les Bernacles

De nombreuses options sont proposées pour rendre l’expérience aussi confortable que possible. Outre les différentes options de déplacement dans les menus, vous pouvez également modifier la façon dont les Bernacles interagissent avec vous

Par défaut, les Bernacles vous tracteront vers eux. Cependant, ce mouvement peut provoquer le Motion Sickness chez de nombreux joueurs. Si vous êtes dans ce cas, il est possible de désactiver ce déplacement artificiel dans les paramètres.

De cette façon, vous subirez certes l’attaque du Bernacle et les dégâts qui en résultent, mais vous resterez sur place pendant toute la séquence.

Cet article Half-Life : Alyx – Toutes les astuces pour finir le jeu en difficulté maximum a été publié sur Réalité-Virtuelle.com.

Dealing With HEVC/H.265 Footage

Par Daniel Brockett

The Panasonic Lumix DC-S1H is one of the newest generation mirrorless hybrids that utilizes the H.265 codec for internal recording.

Does your current primary camera support H.265 recording? Other than a preset in your camera’s codec/recording options, what do you know about the H.265 codec and how to most effectively use it in your production and post workflow? I thought it would be timely to explore H.265 usage in digital cinema and pro video since we’re just receiving word that there are already new options on the horizon that will update and compete with H.265. While this is by no means a complete list, popular cameras like the entire ZCam line, the Panasonic Lumix S1H and AU-EVA 1, Go Pro Hero 7 and 8 Black, Apple iPhone, Canon XF-705, as well as many others, currently or will support H.265 in the future.  

Dealing With HEVC/H.265 Footage
H.265 was originally known as High-Efficiency Video Coding.

High-Efficiency Video Coding (HEVC), also known as H.265 and MPEG-H Part 2, is a video compression standard designed as a successor to the widely used Advanced Video Coding (AVC, H.264 or MPEG-4 Part 10). I was amazed to discover that H.265 was started in 2013, but it’s only about the past two years that it seems to have reached critical mass with a lot of new cameras, from Go Pros to high-end digital cinema cameras, including it in their codec options. In comparison to AVC, HEVC offers from 25 percent to 50 percent better data compression at the same level of video quality or substantially improved video quality at the same bit rate. It supports resolutions up to 8192×4320, including 8K UHD, and unlike the primarily 8-bit AVC, HEVC’s higher fidelity Main10 profile has been incorporated into nearly all-supporting hardware.  

Dealing With HEVC/H.265 Footage
The Fujifilm X-T3 utilizes the H.265 codec for internal recording at resolutions up to 4K DCI at 60p.

My H.265-Capable Cameras

Out of my own two main digital cinema cameras, only one of them supports H.265 recording, the Fujifilm X-T3, but I also notice that my GoPro Hero 7 Black supports H.265, although GoPro refers to it only as HEVC. Like many other terms in our business, there are often two or even three commonly used names, but just to be clear, as of today, HEVC and H.265 are the same thing and are often used interchangeably. From here on out, I’ll refer to HEVC primarily as H.265, but just beware that as your read and research about how this codec works and how it related to your gear, you may see both of the names HEVC and H.265 in common and interchangeable use.

Dealing With HEVC/H.265 Footage
8-Bit capture or processing typically results in banding. What is image banding? This frame capture shows banding if you look at the gradations from the sun, left and right to the sky. You will see similar results on interiors lit with any bright sources on flat surfaces where the light falls off in intensity.

Getting Rid Of Banding?

For me, the main factor in H.265 is that its efficiency allows 10-bit video recording in a tiny mirrorless camera like the Fujifilm X-T3, although not all H.265-capable cameras support 10-bit recording (looking at you, Apple!), but most do. That alone makes it an interesting codec as the camera’s other recording choice, H.264, is limited to 8-bit recording. As you’re probably aware, with 8-bit video the maximum number of colors that can be displayed at any one time is only 256. The result is that 8-bit video can look very good but will be limited in color reproduction, resulting in color banding in gradients. If you shoot skies, you’ll often see banding, as well as in numerous interior situations. When performing color-intensive techniques like green screen, keying and compositing, it can be more difficult to pull a clean and precise key with 8-bit video.

Shooting 10-bit video, the maximum number of colors that can be displayed jumps from 256 to 1,024 levels per channel. The end result is that 10-bit video reproduces gradients and skies with little to no perceptible banding and for keying/green/blue screen, compositing and color grading, 10-bit gives you much more color resolution to work with, meaning that you can refine composites and push the signal around in color grading considerably more.

Dealing With HEVC/H.265 Footage
H.265 utilizes a different and more efficient blocking scheme in its compression than its predecessor H.264 did, resulting in greater compression efficiency and more accurate image reproduction with fewer macro blocking artifacts.

How does H.265 increase efficiency over say, its predecessor, H.264? H.265 achieves greater levels of compression, including better variable-block-size segmentation, improved deblocking and motion compensation filters, sample adaptive offset filtering and better motion vector prediction and precision. H.264 utilized same size blocks while H.265 advances the concept.

Now that we have established what H.265 is, let’s talk about how you actually can efficiently utilize it in your own work. Now that H.265 footage is becoming more commonplace in professional production workflows, I have a few observations about how it’s used and what some common issues are around H.265.

H.265 Is NOT An Editing Codec. It’s a Distribution Codec.

In our business, time is money, right? In production, shooting H.265 isn’t any more difficult or time consuming than any other codec you’ve been using. Where I see a lot of users having issue with H.265 is when it comes to handing it off to clients or for their own postproduction workflows. Let’s state it now, H.265 is unequivocally not designed for editing. Why? Without getting into the technological intricacies of exactly how each codec, Long GOP (groups of pictures) and Intraframe (individual video frame) encoding works, with H.265 being a compressed codec, your computer has to do a lot more heavy lifting to decompress that information to edit.

When a video has been shot with a long GOP codec, there’s a lot of interpolated information in many of the frames. Transcoding the footage into ProRes or another edit-ready codec converts those groups of pictures to an All-Intraframe codec so that your computer no longer has to devote CPU cycles to making sense of the interpolated data. It also allows you to upgrade the color from 4:2:0 to 4:2:2/4:4:4, which won’t make the colors better in your shot but gives you a bit less color/signal degradation when color grading.

Because You Can, Should You?

Sure, if you can invest in the top-of-the-line CPU with a lot of RAM and the fastest RAID for editing, it’s possible to edit H.265 in real time without dropping frames. But even if you have a system capable of real-time processing the H.265 footage, what happens when you need to edit a multicam project? Then you’re asking your computer to decade multiple streams of long GOP H.265 footage in real time.

What if you’re editing a huge project with a long running time and lots of H.265 footage? What generally happens is if your system is capable of editing an H.265 media stream with real time performance, it’s probably at or near the edge of your system’s capability. It’s always a good idea with client projects, deadlines and money on the line to have extra capability and additional overhead. For this reason, most experts agree that transcoding H.265 to a more edit-friendly codec is the safest way to assure that your system will have enough additional overhead to handle multiple streams and layers without choking by not being able to play back in real time.

Efficient H.265 Production/Post Workflows

The two most common solutions to the challenges presented by using a distribution codec like H.265 for editing are:

  1. Bypass H.265 by using an external recorder to record straight to an edit ready codec like Apple ProRes.
  2. Transcode H.265 to an edit-ready codec like Apple ProRes.
Dealing With HEVC/H.265 Footage
The Blackmagic Design Video Assist is an external 5” recorder (a 7” version is also available) designed to record incoming inputs in ProRes or DNxHD codecs.

External Recorders

Let’s break down each of these approaches. For number one, using an external recorder, many users report good results utilizing an external recorder like the Atomos Ninja V or the Blackmagic Design Video Assist. It’s nice to be able to shoot, return to your editing system with ready-to-edit ProRes or even compressed RAW files to edit with. All isn’t perfect, though, with this approach, there are several drawbacks and limitations in using an external recorder:

  • Additional expense for recorder, batteries to power it, recording media (SSDs or SDHC cards) and some kind of mounting hardware.
  • Additional size, bulk and weight added to your camera. In the case of a small camera like most mirrorless hybrids, you need to add a cage and mounting arm to accommodate an external recorder.
  • Additional clutter with cabling. You’ll need to run an HDMI or SDI cable from your camera to the recorder, adding a snagging, wear-and-tear hazard.
  • Adds fan noise to your recording. All of the external recorders seem to have internal fans that, while quiet in most shooting circumstances, can be too noisy in shooting quiet interviews in small rooms, etc.
  • Extra Logistics Management. With all external recorders, you add additional power and media management requirements, necessitating extra batteries or draining your larger V-Mount or Gold Mount batteries more rapidly than normal. You also have to keep an eye on and manage the media requirements for the recorder. 4K ProRes generally fills up large media rather quickly if you’re shooting long-form content like events and documentary shoots.

In general, external recorders solve one problem or challenge (getting around the H.265 computing requirements in post) by adding additional problems or challenges to your production workflow. It’s up to you if the tradeoffs are worth the advantages.

Dealing With HEVC/H.265 Footage
The FCP X import interface includes an option to ‘optimize’ (transcode) incoming media to ProRes.

Transcode H.265

For number two, transcoding H.265 to an edit-ready codec, you realize the same advantage of using an external recorder, you begin your post process with an editing computer-friendly codec like ProRes. Transcoding your footage overcomes almost all of the disadvantages of using an external recorder: no additional expense, weight, bulk, size and power requirements, and no additional HDMI or SDI cable going from your camera to a recorder. All isn’t perfect with shooting H.265 and transcoding after the shoot:

  • I edit using Apple’s FCP X. What’s great about using H.265 with FCP X is you can set FCP X to automatically transcode incoming video to ProRes upon ingest. Doing this really cuts out the middleman; you bring in H.265 and can immediately begin editing. FCP X will be quietly transcoding the H.265 in the background whenever you aren’t moving the mouse. You can begin going through your footage, tagging and adding metadata through building keyword collections. In my opinion, overall, FCP X is by far the fastest and most efficient editing tool on the market. Notice how I’m not saying it’s the “best” editing tool on the market? I understand that the choice of editing tool is a personal one and people become very attached to and defensive about their choice of editing software.
  • I don’t—I have edited with all of the “Big Four” editing program that most pros use (Adobe Premiere CC, Blackmagic Design Resolve, AVID Media Composer and FCP X) and I feel that anything can be easily edited with any of the four; it really comes down to your personal preferences. If you’re working with a lot of H.265 footage on an ongoing basis, you owe it to yourself to at least try FCP X. FCP X and Resolve are the fastest renderers on the market and FCP X, is hands down, the fastest editing workflow. Premiere and AVID have their advantages too, don’t get me wrong. I use and have used all four and each has their distinct advantages and disadvantages, but from an H.265 viewpoint, FCP X is the most elegant and straightforward solution.
  • If you don’t want to or can’t switch to FCP X to facilitate editing H.265 (and there are lots of legitimate reasons why one wouldn’t want to switch to FCP X—PC Users, people who are required to use Adobe CC, AVID users who are in an all-AVID multiuser environment, etc.). Your plan of action should be to externally transcode to ProRes or another edit-friendly codec.
Dealing With HEVC/H.265 Footage
Apple’s Compressor 4.0 is an excellent option to transcode your media to a more edit-friendly codec, regardless of your editing software as long as you’re on the Mac platform.

To that end, there are excellent utilities that aren’t very expensive that will efficiently transcode your footage. Even if you don’t want to use FCP X and you’re on the Mac platform, Apple Compressor is an excellent, easy to utilize, fully-featured transcoding and compression utility that’s optimized for the latest Apple OS and it only costs $49 from the App Store.

Dealing With HEVC/H.265 Footage
Brorsoft Video Converter is available on PC and Mac platforms if you’re looking for a flexible transcoding utility for your H.265 footage.

Brorsoft makes a utility called Video Converter for both PC and Mac platforms that can easily and efficiently transcode your H.265 to the best format for your editing system. There are numerous other utilities made by numerous other developers and most of them cost less than $60 and offer a free trial to make sure that the utility can do what you need it to. Most of these utilities also other functions that may be helpful to your post workflow for other file conversions.

Your Decision How To Deal with H.265 Footage

H.265 is a reality for professional media production right now. How you choose to deal with it in your workflow is a choice you’ll have to make using whatever factors make the most sense for your budget and workflow. For some, investing in the top-of-the-line hardware available is worth it to be able to edit H.265, at least at some level, in real time, is important to their business plan. For other workflows and uses, an external recorder makes the most sense. For those of us who prefer to deal with H.265 in postproduction, a software solution and transcoding makes the most sense.

Dealing With HEVC/H.265 Footage
The Moving Picture Experts Group (MPEG) is a working group of ISO/IEC in charge of the development of international standards for compression, decompression, processing and coded representation of moving pictures, audio and their combination.

An Addendum To Think About

Keep in mind that coming in 2020, we’ll see the introduction by the Motion Picture Experts Group (MPEG) of VVC, Versatile Video Coding that will also be known as H.266. From the intro documentation, it becomes clear that the design parameters of this new codec are definitely made with more advanced distribution properties. The MPEG requirements document defines this as a bit rate reduction of between 30 percent and 50 percent with the same perceptual quality as HEVC (H.265) Main Profile.

In terms of complexity, the same document states that “Encoding complexity of approximately 10 times or more than that of HEVC is acceptable for many applications.” Reading between the lines, it seems as if this new H.266 codec hasn’t been thought through any more effectively for shooting/acquisition than it was for H.265 in 2013. Meaning that for you, as a digital cinema/video user, you may need to continue these strategies I’ve outlined in this article much longer than just the useful lifespan of H.265 since it appears that the new version, H.266 is also mainly a distribution codec.

New codecs will always be coming into our workflows, it helps to have strategies in place for how to deal with them effectively.  

The post Dealing With HEVC/H.265 Footage appeared first on HD Video Pro.

  • 3 avril 2020 à 19:13

Red Giant Debuts Tutorial on How to Create a Forcefield

Par Zazil Media

Aharon Rabinowitz utilizes Red Giant tools to demonstrate how easy it is to create a forcefield during this time of social distancing Portland, OR – April 2, 2020 – Red Giant has just released a quick and easy tutorial on creating a forcefield/watery surface effect. Now out on YouTube, Aharon Rabinowitz showcases his process of ...

The post Red Giant Debuts Tutorial on How to Create a Forcefield appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

We pick the brains of Cinema.AV on his beautiful video synth work

Par Hayley Cantor




These days AV artists are hiding out all over the place, this time curiosity didn’t kill the cat, as I stumbled upon the work of Cinema.AV on Instagram. it’s amazing where a hashtag can take you… #videosynth. I was keen to find out how someone so visually analog ends up that way, and how they manage in an ever expanding digital world (at the time of writing more so than ever).

1.Tell us about your first ever live gig? When was it and how did it go?

For years, I used to play a kind of ambient, soundscape style of music, and for live performance, I would put whatever found vhs tape behind me for visuals. Often without a screen. It often just turned into lighting for my performance, instead of clearcut visuals. 

Fast-forward to a couple years later, in summer 2015, where I started buying jvc video mixers, archer and vidicraft boxes. It was here where I took it upon myself to do visuals for a show I had booked. Sadly, I didn’t realize, the projector couldn’t handle the distorted signals I was throwing at it. Luckily though, someone at the last moment, let me borrow theirs. It was total godsend. The result was this hyper-distorted cross between national geographic videotapes. It worked for the more abstract, psychedelia I had booked for the evening,

Later down the line, I found the need for time base correctors in live performance, and mixers equipped with such. To evenly blend, rather an abruptly with one of those RCA Y splitter cables turned on end. Which is actually the same as the classic Klomp dirty mixer. It was all stuff I got for free, or nearly no money. Never top of the line. Always the most difficult, least practical solutions. But the result was always unique to the moment, to the performance; endlessly fleeting. 

2.We discovered your work on Instagram. How do you usually connect with the AV community online? Does social media play a big role for you?

Strangely, yeah. I hardly ever go out locally, unless of course I’m playing a show. So beyond that setting, you’ll never find me in the wild. Even before this quarantine action, I was a total homebody. Staying in whenever possible to work on art and infinitely explore the machines. So having access to social media platforms is actually key to the whole system. I can actively gauge what pieces people actually like, what ideas stick and in turn, get shared with a larger audience. 

Its those posts that snowball into bigger and better gigs. As the recognition on a global scale is significantly more gratifying than just the local efforts I receive so often. In fact, for the better part of 2019, I was very busy with live video work. Having nearly no time off, I accepted this as a lifestyle, rather than just hobby. And in the social media zone, I’ve been able to publicly beta-test things like the Erogenous Tones Structure module, Phil Baljeu’s custom vector graphics system and as of late Andrei Jay’s latest raspberry pi video synth and feedback algorithms as hardware devices. The curiosity the results generated have in turn, sold modules and made the manufactures money to sustain their efforts.   

…having access to social media platforms is actually key to the whole system. I can actively gauge what pieces people actually like, what ideas stick and in turn, get shared with a larger audience. 

To be fair though, I’m not sure how much of this actually real. If it’s all made up, or the reactions are fabricated. It’s a fine silver-lining we’re all walking along. One day, a post could generate hundreds of interactions, while the next day, nothing. I think alot of that could actually be the option for folks to drift between realities, between the physical and the cyberspace. It’s in this cyberspace, that I do often connect with other artists, say for example my bud Konopka and has online video painting series. To watch him create something entirely from scratch, in real time, thousands of miles away is a true head-spin if you think about it. But not even 5 years ago would have been possible. 

All photos courtesy of Evan Henry.

3. It’s fascinating to how analog and digital worlds inspire AV artists. What’s your take on the two and how do you find working with analog systems for live visuals?

Truly. When I first got started, it was all analog, all found devices. Though in time, I’ve found the whole LZX modular zone, which started analog and now has drifted into this wild digital hardware dimension that has opened up all kinds doors. The obvious attraction to the large analog modular is the physicality and pure intuitive nature of the whole thing. As in a live setting, there is nothing more fun and unpredictable than a hand-wired mess of cables and devices to create this ever-fleeting dialogue, never again to be replicated. For ambient, for house, for techno and literally everything in between, there’s this infinite body that just works, and often never crashes or fails. 

If anything, it’s always the digital component that freezes or fails first. I’ve done shows with computer artists that for some reason or another, who just can’t make it work that particular night.

If anything, it’s always the digital component that freezes or fails first. I’ve done shows with computer artists that for some reason or another, who just can’t make it work that particular night. So just step in and end up taking over the evening with my system. However, I’ve had my fair share of venues tell me their systems are HDMI only. So learned to convert the analog composite outputs of the modular to the HDMI with aid of things like Ambery converters and scalers, Extron scalers, and even the silly Blackmagic shuttle, that has it’s own share of issues. It wasn’t until last summer that I realized the Roland V4-EX had a very effective means of conversion and scaling to HDMI, VGA, and back down again. The result was a total game-changer. So I sold my other mixers, and devices to scale up to HDMI and hadn’t looked back. This meant I could seamlessly work with digital projection systems and streaming processes. And from the get-go, it’s been used in every performance effort since. It’s even let me collaborate with both digital and analog artists alike. To fade and key between all manner of artists and ideas. 

So little things like that make the whole system go, which leads me into the question…

4.What’s your basic setup when do performance live AV shows? (If you have one)

I am constantly pushing myself as an artist. So every year or so, I’ll experience this major creative shift around winter time, when my job at the photo lab temporarily shutters for winter break on campus. It is is then where I have about a month to chill and regroup my mind. This generally means some new gear enters the studio, and in turn the dirty warehouses they get thrown into for live work. 

All photos courtesy of Evan Henry.

In 2019, I saw my modular system grow from a single 6U, two row case that could fly on any airline, to a larger 12U, four row system, that for the majority, made it’s way into every gig. In tandem with the V4-EX, the two were all I needed to do 8-10 hours of a rave whatever else I was getting booked for. However, the few time I flew out for one-offs, I brought it back down to 6U. Which was a lot of fun and lent itself to collaboration with other artists. It was in this time though, away from gigs and rather chill moments at the lab, where I began to experiment with the virtual dimension of VSynth, the Max/Msp visual extension. The result was very reminiscent of my larger modular system. Though at the time, my computer could only handle small patches. Anything big would see my computer begin to overheat and grind to a halt. 

This got me looking at computers, seriously.  As a video generation and manipulation tool, much in the same way the dedicated hardware was, but a larger, more sophisticated, and recallable level. It was months of research and a very generous donation within the family that lead me onto a gaming-oriented laptop, complete with a dedicated graphics card, that in it’s day was considered high-spec, and miles beyond my aging macbook. From the moment I lifted open the box and got it booted, I went straight into complex Max patches and dense 3D structures with the aid of Resolume Arena. When I realized I could save, and recall every motion, I started plotting how to gig with it. To layer to pieces together and to treat Resolume as a video sampler of my analog devices. What began to happen was a meshing of dimensions. No longer was one any better than the other. They were one of the same. It was with this entry that live performance physically became less stressful and far more manageable. No longer did have to carry this unwieldy modular system on a train or a bus. I could now discreetly carry the common laptop computer, just as everyone else. 

All photos courtesy of Evan Henry

Setting up and breaking down, with the projector, is a two cable, two power supply motion. So quick and so light. With the aid of a midi controller, all the tactility remains, and nothing changes. The digital results do look incredible though. I cannot deny that. No matter what I have though, I make the best of all of it. For touring, in 2020, my setup is just that. I did some dates with Steve Hauschildt and Telefon Tel Aviv across Texas and the process was so smooth. Same for the brief efforts with LLORA and BATHHOUSE, just weeks ago. So much less to think about, all with the same manipulations and motions.  

5. What would be your dream AV gig?

Currently speaking, the dream is still to tour, to travel and do large scale art installations with my video work. I had things lined up, but those have all fallen in favor of the current pandemic. But that’s honestly not going to hold anyone for long. These things will all still happen, just not soon as I had anticipated. I was truthfully hoping to break into the festival dimension; Mutek, Movement, Sonar, Aurora, as from a live scale, that feels like the next big move, amidst touring through the theaters and dedicated art spaces. I’ve had tastes of all those, but like anyone serious about their craft, I want to further and really make a name for myself, as truly, I don’t know what else to do. 

Find out more about Cinema.AV on his artist page

The post We pick the brains of Cinema.AV on his beautiful video synth work appeared first on Audiovisualcity.

Crisis VRigade 2 : le FPS défonce tout dans un teaser haletant

Par Sitraka R
image issue du teaser de crisis vrigade 2

Si Crisis VRigade 2 n’a pas encore de date de sortie, Diego Martin, un des créateurs du jeu, nous donne l’eau à la bouche avec un teaser impressionnant publié sur Twitter.

Pour rappel, Crisis VRigade est un FPS en réalité virtuelle où le joueur incarne un agent du SWAT à la poursuite de criminels dangereux. Plutôt classique, le titre plaît toutefois pour sa difficulté élevée. Il a tellement plu qu’il est devenu le jeu le plus populaire sur SideQuest après un rejet de Facebook pour l’Oculus.

De gros changements avec Crisis VRigade 2

Si les détails sur Crisis VRigade 2 sont encore rares, ces premières images laissent présager d’énormes différences avec le premier. Ainsi, toute la conception graphique semble avoir été revue, passant d’un style un peu simpliste et coloré à un environnement hyper réaliste et sombre. Si l’on saute le générique du teaser, l’on ne pourrait jamais deviner qu’il s’agit du même univers que celui de Crisis VRigade. Le résultat en scotchera plus d’un.

Maybe it's not #HalfLifeAlyx (wow! btw…), but its VR, has guns, rifles, explosions and lots of action. Difficult times for developing here, but we hope to deliver soon enough to entertain your isolation…#psvr #ps4 #indiedev #oculus #htc #gamedev #shooter pic.twitter.com/0O5el6F7o6

— Diego Martín (@diempuntoes) April 2, 2020

Fort heureusement pour les fans, on devrait rester sur un FPS. En tout cas, c’est ce qu’on devine à la vue de cette vidéo. Aucun changement radical de ce côté donc. Mais étant donné l’environnement beaucoup plus détaillé, on peut présager une évolution du gameplay. Toutefois, serait-ce vers quelque chose d’encore plus difficile ? On demande à voir.

D’après la description du titre sur Steam, Crisis VRigade 2 est un FPS mettant, encore une fois, le joueur dans la peau d’un soldat du SWAT. Toujours d’après le site, ce nouveau chapitre promet toujours plus d’action, de fusillades, d’armes et de sang. Mais il serait aussi encore plus difficile. Confirmation donc.

Mais mêmes compatibilités

Cependant, une chose ne changera certainement pas : les plateformes prises en charge. Ainsi, le tweet de Martin cite nommément en hashtag Steam, Oculus et PSVR. Enfin, malgré le flou sur la sortie, les fans ne devraient plus attendre bien longtemps. En effet, le tweet mentionne également que le jeu devrait paraître assez tôt pour nous divertir durant le confinement.

Nous espérons simplement que les créateurs ne vont pas accélérer le développement de Crisis VRigade 2 au détriment de la qualité pour nous faire plaisir. Rendez-vous sur la page du titre sur Steam qui promet un accès anticipé dans les 6 mois à venir.

Cet article Crisis VRigade 2 : le FPS défonce tout dans un teaser haletant a été publié sur Réalité-Virtuelle.com.

Souvenirs de quarantaine : Philippe Mathieu

Par admin

Philippe Mathieu, éclairagiste et scénographe, cuisine, bricole, jardine… Il a même appris à faire du pain depuis l’arrêt de la tournée « La Chica ».

SLU : Quels sont vos secteurs et zones d’activités ?

Philippe Mathieu : Je travaille exclusivement sur des tournées. Je conçois les plans de feux, la scénographie et j’accompagne les artistes sur la route en étant derrière la console.
J’ai, notamment travaillé avec AaRON, Christine and the Queens, AIR, Marina Kaye, LEJ, Juliette Armanet, Clara Luciani, Angèle et Catherine Ringer.

Comment allez-vous, vous et vos proches ? Êtes-vous touchés par le virus Covid-19 ?

Je vais bien, aucun symptôme pour moi, ni pour mon entourage proche et les gens confinés avec moi vont bien aussi. Je croise les doigts et je fais tout pour que cela reste ainsi.

Où êtes-vous ?

Je suis chez moi, avec mon épouse et mes deux enfants de 14 et 18 ans. J’habite une ancienne fermette dans un village de 500 habitants situé dans le Pas-de-Calais (non loin de Bethune). Nous l’avons acheté il y a 14 ans et je la rénove au fil des ans. Je ne suis pas sorti de chez moi depuis le 15 mars mais heureusement j’ai un jardin à disposition !

Quel a été pour votre activité l’impact de cette pandémie avant le confinement ?

J’ai été très « chanceux » car avant le confinement cette pandémie n’a eu aucun impact sur mon activité grâce à un heureux concours de circonstances qui m’a permis de travailler jusqu’au 13 mars inclus, contrairement à bon nombre de mes collègues à l’arrêt dès la fin février. Je venais de finir la tournée d’Angèle par 4 AHA Bercy du 18 au 21 février, évitant de justesse l’interdiction des rassemblements de plus 5 000 personnes intervenue la semaine suivante.
J’enchaînais directement avec la Tournée de « La Chica », une artiste Franco-Venezuelienne en progression et donc dans un format de salle de moins de 1 000 personnes (club de 300/500 personnes). Cette tournée a pu se poursuivre normalement jusqu’à l’interdiction des rassemblements de plus de 100 personnes qui a eu lieu le 13 mars et même ce jour-là, l’espace Vasarely, à Antony, qui organisait le concert, a décidé de le maintenir en limitant la jauge à 100 personnes. On a donc joué dans une ambiance un peu bizarre, il faut l’avouer. Le cœur n’y était pas. J’ai eu un sacré pincement au cœur quand j’ai éteint la console, en me disant que je n’étais pas près d’y toucher de sitôt.

Et depuis le confinement ?

Depuis le confinement je suis à l’arrêt total !

Quels ont été les principaux projets annulés ?

Pour l’instant c’est donc la tournée de « La Chica » qui est impactée et, c’est vraiment dommage, car pour une artiste dont la carrière est en train de se développer, chaque concert compte. Un festival à Lisbonne devait se dérouler la semaine dernière et il a été annulé. Malheureusement ça aurait pu lui apporter de nouvelles perspectives à l’international… Le reste de la tournée française a lui aussi été annulé, sans trop de perspectives de report.

Quels sont les projets reportés, et à quelle échéance ?

Je devais reprendre la tournée avec Catherine Ringer pour une résidence à partir de début avril mais cela n’aura évidemment pas lieu. Certaines dates seront reportées, mais rien n’a été officialisé donc je ne peux pas donner de détails. Pour Angèle la résidence pour les festivals est en juin et pour l’instant je n’ai eu vent d’aucun report.

Quel est l’impact économique pour vous ou votre société, cela risque-t-il d’impacter votre avenir de façon permanente ?

C’est difficile à dire. Comme je travaille sur de gros projets mais aussi pour des artistes en développement, les situations sont variées. D’une manière générale, ce qui est certain, c’est que pour l’instant le secteur de la tournée vit un séisme important, avec des productions de tournées qui vont être mises dans des situations financières très difficiles. Je pense notamment aux petites structures. Les reports de dates ne sont pas toujours possibles et même en cas de report, les pertes financières fragilisent tout le monde (producteurs, artistes, techniciens, salles de spectacles, etc.).

Dans mon cas personnel, pour l’instant les dégâts sont limités, mais la véritable inquiétude et la grosse incertitude est la tenue ou non des festivals en juin, juillet et août. Si on devait avoir des annulations en masse, le séisme se transformerait en Tsunami et il y aurait peu de survivants. Il y a beaucoup de tournées qui équilibrent leurs comptes avec ces festivals où les cachets sont plus importants que pour des dates de club ou SMAC.
En ce qui me concerne aussi, il sera difficile de tenir sans car j’ai 4 tournées sur la route : Angèle joue pour 14 dates en festivals, Catherine Ringer pas loin de 30 dates, La Chica et L.E.J. Si ça devait s’arrêter ça serait une réelle catastrophe. Sans compter que nombre de festivals ne survivraient pas non plus à une année blanche en termes de trésorerie. Ca pourrait donc avoir un retentissement aussi sur la saison 2021. Je pense ne pas être le seul à croiser les doigts pour que la situation s’arrange d’ici là.

Quelles sont vos activités personnelles durant ce confinement ?

J’ai d’abord rattrapé le retard de sommeil que j’avais accumulé 🙂
Ensuite je cuisine pas mal pour toute ma famille, je bricole, je jardine et j’ai même appris à faire du pain. J’ai aussi passé quelques heures sur des jeux vidéo. Une activité que je n’avais pas eue depuis longtemps. Enfin, avec ma famille, un rituel de confinement s’est instauré et tous les jours, à 18 heures, on fait un jeu de société.

Comment occupez-vous votre temps professionnel ?

Etant à l’arrêt professionnellement, je n’ai le courage de rien.
J’ai vaguement tenté d’ouvrir Wysiwyg mais je me suis arrêté après avoir mis le dongle dans l’ordi. C’est difficile de se mettre à travailler sur des projets sans savoir s’ils vont voir le jour. Mais je vais quand même m’y remettre cette semaine, j’ai quelques fiches techniques à peaufiner pour certains festivals ainsi qu’un nouveau projet pour la rentrée à préparer.

Quelle est la première chose que vous allez faire en sortant du confinement ?

Voir mes parents et mes frères, qui sont confinés chacun de leur côté en région Lilloise.


Nous ajouterons chaque jour les souvenirs qui nous parviendront via le questionnaire à télécharger ici.
Et nous l’envoyer avec un selfie au format paysage sur l’adresse mail  redaction@soundlightup.com

 

L’article Souvenirs de quarantaine : Philippe Mathieu est apparu en premier sur SoundLightUp..

[Produire et Post-produire dans le Cloud l'état de l'art]

Par jcperney@ctmsolutions.com (Jean-Christophe Perney)
Capture_decran_2020-04-03_a_15.53.25[Produire et Post-produire dans le Cloud l'état de l'art - 10 Webinars avec CTM Solutions pour comprendre et échanger] Le contexte actuel nous oblige à produire différemment, et à repenser nos habitudes de travail; CTM Solutions vous invite à voir et participer à une nouvelle série de webinar sous la forme de 10 épisodes proposés sur le mois d'Avril en Français :

NDI HX Camera (iPhone) with OBS (Mac OS 10.15.4)

Par skr
I´ve just installed NDI HX Camera and want to use it as Input source for OBS Studio 24.06.

The only way I figured out to get the stream into OBS Studio is by launching NewTek NDI Video Monitor 3.1 (28) and then choose "Window" as source for OBS. That works fine so far, but I wonder, if there is a way to get the stream directly into OBS, without using Video Monitor?

The Filmmaker’s Cinematic Quandary: S-Log2 vs. Cine4

Par Lewis McGregor

Today, we'll discuss the pros and cons of the S-Log2 vs. the Cine4, and the importance of color and tones concerning the integrity of your project.

La sortie d’Iron Man VR repoussée sine die

Par Gwendal P
Iron Man VR sortie

Le Coronavirus oblige Sony à repousser la sortie d’Iron Man VR et The Last of Us Part II. Aucune nouvelle date n’a été annoncée pour le moment.

C’est par un tweet que Sony a annoncé la mauvaise nouvelle. Iron Man VR qui était censé sortir le 15 mai est désormais repoussé à une date ultérieure qui n’a pas été fixée. Or, ce n’est pas la première fois que ce jeu subit un report. En janvier déjà, l’éditeur japonais avait indiqué que le héros de Marvel n’atterrirait pas sur le PSVR à la date convenue. Les équipes de développement souhaitaient encore peaufiner leur jeu pour proposer la meilleure expérience possible.

Cette fois-ci en revanche, c’est le Coronavirus qui s’en mêle et perturbe la livraison prévue pour le mois de mai. Sony explique que pour des raisons logistiques, ils craignent de ne pas pouvoir proposer un lancement du jeu dans des conditions satisfaisantes. Pire encore, aucune nouvelle date n’a été annoncée. Alors qu’Iron Man VR est sans doute l’une des expériences les plus attendues sur PSVR, ce report devrait porter un gros coup au moral des fans du super héros de Marvel.

Update: SIE has made the difficult decision to delay the launch of The Last of Us Part II and Marvel's Iron Man VR until further notice. Logistically, the global crisis is preventing us from providing the launch experience our players deserve.

— PlayStation (@PlayStation) April 2, 2020

Le nouveau report d’Iron Man VR fait mal au PSVR

Dans son tweet, Sony parle également du jeu The Last of Us Part II, lui aussi repoussé. Là encore une bien mauvaise nouvelle pour les joueurs de la console japonaise. Surtout, est-ce que cela ne préfigure pas d’autres reports, jusque là non soupçonnés ? Sony a pourtant affirmé récemment que la sortie de la PS5 ne souffrirait d’aucun délai. Il est légitime de se demander aujourd’hui si c’est toujours réellement le cas.

En ce qui concerne Iron Man VR, il était justement censé représenter l’une des dernières grosses sorties sur la génération de consoles actuelle. En outre, quelques doutes se sont installés quant à la rétrocompatibilité des titres PSVR sur PS5. Même s’il est probable que cela fonctionne correctement, la situation de ce jeu n’est pas idéale. L’avenir du célèbre Avengers n’est décidément pas rose.

Cet article La sortie d’Iron Man VR repoussée sine die a été publié sur Réalité-Virtuelle.com.

OWNZONES Presents Latest Content Workflow Technologies to Online Audience

Par Amisa Saari-Stout

Webinar includes demonstration of Connect™ SaaS platform that re-imagines the video supply chain in the cloud  OWNZONES Entertainment Technologies will present its latest products and technologies in a global webinar, taking place on April 7th, 2020 at 9:15am PST. The cloud pioneer will highlight the latest developments within OWNZONES Connect™, the next-gen content servicing and ...

The post OWNZONES Presents Latest Content Workflow Technologies to Online Audience appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

This redesigned light-plot is starting to take shape !...



This redesigned light-plot is starting to take shape ! ⁣
⁣States, command-line, grid, trackpad, rect-selection, … New beta coming in the next days.⁣
⁣#milllumin #light #plot #interface #beta
https://www.instagram.com/p/B-g5rk_JBGK/?igshid=1hky5vwyqvvgj

⁣ ⁣⁣ ⁣#repost @aptart2020⁣ ⁣__________________⁣ ⁣⁣ ⁣APTART Media...




⁣⁣
⁣#repost @aptart2020⁣
⁣__________________⁣
⁣⁣
⁣APTART Media Facade Set up⁣
⁣아파트아트 첫번째 투어가 충남 아산에 위치한 아파트에서 진행되고 있습니다. ⁣
⁣@millumin2 으로 메핑(Mapping)을 진행중입니다. ⁣
⁣3월 26일부터 27일까지 저녁 7시부터 9시까지 진행됩니다. ⁣
⁣#APTART (at 충청남도 아산시 배방읍)
https://www.instagram.com/p/B-g31acpJrH/?igshid=1flsct12vpwqa

UniBeast 8.4 Update

UniBeast has been updated to version 8.4.0 for macOS High Sierra. This tool creates a bootable USB drive from your Mac App Store purchased copy of macOS. The resulting USB drive allows for a clean install, upgrade or use as a rescue boot drive.

  • 3 avril 2020 à 11:13

Le siège rotatif de Roto VR proche d’une commercialisation

Par Gwendal P
siège rotatif roto vr

Roto VR a annoncé avoir reçu un financement de l’ordre de 1,5 million de livres pour l’aider à commercialiser son siège rotatif pour la réalité virtuelle. Plusieurs investisseurs ont participé afin de réunir cette somme.

Roto VR a d’abord connu un premier échec en 2015 avec une campagne de financement participatif qui n’a jamais abouti. Heureusement, ses fondateurs n’ont pas baissé les bras et ont attendu des temps plus propices pour renouveler leur effort. En effet, à cette époque, la réalité virtuelle pour le grand public n’en était qu’à ses balbutiements, et réservée à une frange de passionnés. Aujourd’hui, la situation est tout autre. La VR est en plein essor, les plus grands groupes ont rejoint la bataille. D’après les chiffres communiqués par Steam, 1% des utilisateurs de la plateforme possèdent un casque, ce qui équivaut à plus d’un million de personnes.

C’est pourquoi la deuxième campagne de financement de Roto VR a bien mieux fonctionné. Surtout que leur concept est intéressant et pourrait attirer encore plus de monde dans l’univers de la réalité virtuelle. En effet, ce siège rotatif devrait considérablement réduire la nausée provoquée par le mal des transports. Cet élément, qui peut devenir très perturbant, est l’un des principaux freins à une démocratisation encore plus rapide de la VR. Le siège apporte également un système de retour de force pour un sentiment d’immersion encore plus fort.

Une solution qui s’attaque au réel et au virtuel

Ainsi, les investisseurs justifient leur choix en évoquant les multiples situations dans lesquelles ce siège peut servir. Outre ses aspects bénéfiques pour attirer les indécis à la VR, il pourrait parfaitement avoir sa place dans des salles de jeux, des attractions, des cinémas, tout comme à la maison. Avec l’entreprise dans de bonnes mains, ils font confiance à ce projet qui devrait bien s’intégrer dans ce marché qui connaît une forte croissance.

Roto VR compte lancer son siège, du même nom, pour les particuliers et pour les entreprises très prochainement. La première offre débutera à 1 500 dollars et comprendra le siège. À noter qu’il est compatible avec la plupart des casques du marché.

Cet article Le siège rotatif de Roto VR proche d’une commercialisation a été publié sur Réalité-Virtuelle.com.

Souvenirs de quarantaine : Bruno P.Souchaud

Par admin

Bruno P. Souchaud, Directeur GLP France, Bruno Souchaud a perdu son père terrassé par le Covid-19. S’il le révèle dans ces lignes, c’est pour que chacun de nous prenne bien conscience du danger.

SLU : Quels sont vos secteurs et zones d’activités ?

Bruno P.Souchaud : Toute France.

Comment allez-vous, vous et vos proches ? Êtes-vous touchés par le virus Covid-19 ?

Je confine en région parisienne avec ma conjointe, heureusement avec un petit jardin. Nous sommes pour l’instant en bonne forme, avec exercices quotidiens. Ma famille a cependant été gravement touchée, mon père est décédé brusquement en Ehpad des suites du virus.

Où êtes-vous ?

Aulnay Sous Bois, Seine Saint-Denis (département hélas très touché par ce fléau).

Quel a été pour votre activité l’impact de cette pandémie avant le confinement ?

Radical coup d’arrêt, tous les rendez-vous ont été annulés et démos matériel reportées à partir d’une bonne douzaine de jours avant le confinement officiel.

Et depuis le confinement ?

Tout est à l’arrêt.

Quels ont été les principaux projets annulés ?

Tous les salons cruciaux pour GLP annulés ou reportés, en particulier Prolight + Sound. Commandes de renforcement de parcs existants chez de gros prestataires reportées, sans doute en septembre (la remise en marche de notre secteur sera lente et hélas douloureuse). Impossibilité de lancer correctement les nouveaux produits, alors que certains teasers circulaient déjà.

Quels sont les projets reportés, et à quelle échéance ?

Difficile à dire car il n’y a pas vraiment de date de sortie de crise fixée précisément. Il y a pour l’instant un flou total. Le salon PLASA de Londres devrait permettre de compenser (mais à plus petite taille) l’annulation du Prolight + Sound. En revanche, la R&D en Allemagne en profite pour avancer de son côté, même à distance (les dates de confinement ont été différentes là-bas).

Quel est l’impact économique pour vous ou votre société, cela risque-t-il d’impacter votre avenir de façon permanente ?

Pas à long terme pour GLP, mais le renforcement de l’équipe GLP France ne se fera sans doute pas avant fin 2020, voire début 2021, contrairement aux prévisions de début d’année.

Quelles sont vos activités personnelles durant ce confinement ?

Musique, musique, musique ! Deezer, guitare et home studio.
Rangement (j’ai retrouvé des pass visiteurs de salons SIEL, JTSE et Discom/Mixmove du siècle, pardon, millénaire dernier !).
Binge watching Netflix (pourquoi inflige-t-on des rediffs de La 7e Compagnie ou des Gendarmes contre les Extraterrestres l’après-midi durant le confinement ? C’est une double peine !).

Comment occupez-vous votre temps professionnel ?

Je termine l’adaptation totale en français du site glp.de
J’ai repris sérieusement les cours de perfectionnement en allemand sur Babbel.com (merci le e-learning).
J’essaie de comprendre les subtilités de la M.A. Wing que j’utilisais jusqu’alors de façon assez pataude pour mes démos.

Quelle est la première chose que vous allez faire en sortant du confinement ?

Sortir manger une putain de côte de bœuf au restau avec famille et copains, en terrasse ! Et juste avant, passer chez le coiffeur, ça devient grave…

Voulez-vous partager des initiatives ou soutiens créés durant le confinement ?

Avec plaisir ! Voici avec les liens : Initiative culturelle (bon pour le moral !). Toutes les captations du Français de ces dernières années en accès libre durant le confinement !

Et initiative solidaire (bon pour les autres !) :

– Pour les soignants qui font un boulot incroyable

– Pour les plus démunis qui prennent la situation de plein fouet

Avez-vous des questions ou des conseils à formuler ?

Etablir des programmes d’activités régulières, tant pour l’aspect professionnel que pour vos loisirs, çà permet de garder le rythme et de structurer les journées.

Avez-vous une anecdote surprenante à nous détailler ?

La nature reprend ses droits dans mon jardin (chants d’oiseaux comme jamais avant), avec en prime un niveau de bruit très faible (je n’entends plus la A3, et l’aéroport de Roissy tout proche s’est fait oublier).

Bruno P. Souchaud, Directeur GLP France.


Nous ajouterons chaque jour les souvenirs qui nous parviendront via le questionnaire à télécharger ici.
Et nous l’envoyer avec un selfie au format paysage sur l’adresse mail  redaction@soundlightup.com

L’article Souvenirs de quarantaine : Bruno P.Souchaud est apparu en premier sur SoundLightUp..

TransferJet, la connectique sans fil de Sony et Toshiba

Par Pierre Dandumont

En rangeant mon bureau, je suis tombé sur un truc que je n’ai jamais testé ici : des dongles TransferJet. J’en avais parlé il y a de longues années sur Tom’s Hardware, par contre. Du coup, petit test.

TransferJet, c’est quoi ? Une technologie sans fil à courte portée lancée par Sony, et utilisée notamment par Toshiba. Elle permet des débits de l’ordre de 375 Mb/s (un peu moins de 50 Mo/s) sur quelques centimètres (au mieux), avec en théorie 560 Mb/s. Bon, ça reste de la théorie, surtout qu’atteindre 375 Mb/s en USB 2.0, c’est très optimiste. Elle fonctionne avec une fréquence élevée (4,48 GHz) et devait remplacer l’USB pour la connexion d’appareils photo, de smartphones, etc. Bon, en vrai, ça n’a pas été un succès mais Toshiba et Sony ont tout de même lancé quelques produits.

En USB


En micro USB

Il existe trois adaptateurs principaux. Le premier est en USB (avec une prise A mâle) pour les PC mais aussi les Mac. Enfin, en théorie : une application a existé sur le Mac App Store, mais elle n’existe plus. J’ai essayé de la trouver sans succès pour le moment. Sous Windows, il existe un pilote pas trop vieux.

le second, identique, est en micro USB avec une prise mâle. Il sert en fait pour les smartphones Android. Il existe une application chez Google pour le gérer. J’ai sorti ma fidèle tablette Cyprien Gaming, qui a une prise micro USB Host pour tester. La version USB classique marche aussi avec un adaptateur, si votre smartphone a de l’USB-C (par exemple).

La dernière version, que je n’ai pas, fonctionne sous iOS. Elle s’interface en Lightning.

De Windows à Android

D’une machine virtuelle Windows vers ma (vieille) tablette Android, le transfert d’un fichier vidéo de 736 Mo prend 3 minutes et 43 secondes (un petit 3,3 Mo/s). Dans l’autre sens, c’est plus rapide : 2 minutes 30 (4,9 Mo/s) mais assez loin de ce que j’avais obtenu en 2014 (8,9 Mo/s). Ca vient sûrement du stockage franchement lent de ma tablette bas de gamme, mais bon.

L’interface


L’envoi


Réception OK


Oups, erreur

Ma tablette Cyprien Gaming

D’Android à Android

Ensuite, j’ai essayé d’Android à Android, et c’est plus rapide dans les deux sens, aucune idée de la raison. De la tablette vers mon Nokia (avec un adaptateur USB-C vers USB), le transfert prend 1 minutes et 7 secondes (~11 Mo/s). Dans l’autre sens, c’est nettement plus lent que sous Windows et c’est un peu instable, j’ai eu des transferts bloqués. Il a fallu 5 minutes et 26 secondes (2,2 Mo/s). La flash de ma tablette est donc vraiment lente…

Sur un Nokia

Sous Android


Réception


Pas de dongle branché


réception (sur un autre)

Dans tous les cas, TransferJet était une bonne idée il y a quelques années, mais ça n’a pas d’intérêt en 2020 : le Wi-Fi et les solutions comme AirDrop permettent des débits plus élevés, avec une portée plus élevée. Si la solution avait été intégrée dans les appareils, la donne aurait été différente, mais en pratique il faut mettre un dongle, approcher les deux appareils (ils doivent presque se toucher) et espérer que ça fonctionne, ce qui reste un peu aléatoire.

Peter Brook : lire et relire en temps de coronavirus

Par Régis Vasseur
Si le théâtre pouvait servir, sinon à comprendre, du moins à mieux voir le monde. Dans une ville vide pour cause de coronavirus, relisons Peter Brook.

  • 3 avril 2020 à 07:50

MacOS: Light Mode or Dark Mode?

384015 In macOS do you prefer Light Mode or Dark Mode? Why?

  • 3 avril 2020 à 05:19

HPA 2020 Tech Retreat, Part 5

Par Michael Guncheon

Last time, I talked about the problem of judder—the stuttering or strobing that occurs when there’s fast movement in a scene. The movement may be caused by fast camera movement or by fast movement of objects in a scene—like vehicles. Judder is even more pronounced as we move to more HDR finishing.

At the Hollywood Professional Association’s Tech Retreat in February, Pixelworks discussed their TrueCut motion grading workflow. By analyzing each frame in a shot, the software can smooth out the judder.

The workflow process begins with powerful workstations (either local or cloud-based) analyzing scenes that may need to be adjusted. This isn’t a simple task. Proprietary algorithms perform complex motion analysis. This isn’t a button press and get some coffee. It takes time.

Once the analysis is complete, the TrueCut software integrates with color grading software like DaVinci Resolve or Baselight. Preset options for correct judder are presented for each shot for quick decisions. Or for more creative control, there’s a software control panel (shown at the top of this article).

One way to offset judder is by increasing motion blur.  The control panel allows you to control motion blur via changes to the shutter angle. Yes, changing the perceived shutter angle in post is possible.

Another control is something Pixelworks calls judder angle. This control reduces the appearance of judder, not by motion blur but through pixel interpolation based on the prior analysis of the scene. Between adjusting shutter angle and judder angle, a motion grader can use TrueCut to do a shot-by-shot motion grade for a film.

The demo at HPA showed removing motion blur, adding motion blur, and—more importantly—dialing down the judder. And while almost completely removing judder effects is an option, visually it takes the scene from film to video.

Currently, motion grading occurs during the color grading session. This type of grading, like color grading, really involves creative decisions. I’m told directors/cinematographers have different opinions on the best motion grade for each shot just as they do with color.

As this process is used for more and more films, will we see motion grading move to a new position? Will we see Motion Grader in the credits?

The post HPA 2020 Tech Retreat, Part 5 appeared first on HD Video Pro.

  • 3 avril 2020 à 01:17
❌