Collanews

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierVos flux RSS

Blackmagic Design Announces HyperDeck Studio Mini v7.1

Par Zazil Media

New and free software update adds new H.264 codec, new AAC audio codec, longer single file record durations and faster file transfers using Ethernet. Fremont, CA, USA – Friday, April 3, 2020 – Blackmagic Design today announced HyperDeck v7.1 a major new software update that adds multiple new features to HyperDeck Studio Mini broadcast recorders. The ...

The post Blackmagic Design Announces HyperDeck Studio Mini v7.1 appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Blackmagic Design Announces New ATEM Mini Pro

Par Zazil Media

Powerful new model adds a new hardware streaming engine via Ethernet, recording to USB flash disks and new multiview for monitoring all cameras! Fremont, CA, USA – Friday, April 3, 2020 – Blackmagic Design today announced ATEM Mini Pro, a new low cost live production switcher with all the features of ATEM Mini but now with ...

The post Blackmagic Design Announces New ATEM Mini Pro appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

We pick the brains of Cinema.AV on his beautiful video synth work

Par Hayley Cantor




These days AV artists are hiding out all over the place, this time curiosity didn’t kill the cat, as I stumbled upon the work of Cinema.AV on Instagram. it’s amazing where a hashtag can take you… #videosynth. I was keen to find out how someone so visually analog ends up that way, and how they manage in an ever expanding digital world (at the time of writing more so than ever).

1.Tell us about your first ever live gig? When was it and how did it go?

For years, I used to play a kind of ambient, soundscape style of music, and for live performance, I would put whatever found vhs tape behind me for visuals. Often without a screen. It often just turned into lighting for my performance, instead of clearcut visuals. 

Fast-forward to a couple years later, in summer 2015, where I started buying jvc video mixers, archer and vidicraft boxes. It was here where I took it upon myself to do visuals for a show I had booked. Sadly, I didn’t realize, the projector couldn’t handle the distorted signals I was throwing at it. Luckily though, someone at the last moment, let me borrow theirs. It was total godsend. The result was this hyper-distorted cross between national geographic videotapes. It worked for the more abstract, psychedelia I had booked for the evening,

Later down the line, I found the need for time base correctors in live performance, and mixers equipped with such. To evenly blend, rather an abruptly with one of those RCA Y splitter cables turned on end. Which is actually the same as the classic Klomp dirty mixer. It was all stuff I got for free, or nearly no money. Never top of the line. Always the most difficult, least practical solutions. But the result was always unique to the moment, to the performance; endlessly fleeting. 

2.We discovered your work on Instagram. How do you usually connect with the AV community online? Does social media play a big role for you?

Strangely, yeah. I hardly ever go out locally, unless of course I’m playing a show. So beyond that setting, you’ll never find me in the wild. Even before this quarantine action, I was a total homebody. Staying in whenever possible to work on art and infinitely explore the machines. So having access to social media platforms is actually key to the whole system. I can actively gauge what pieces people actually like, what ideas stick and in turn, get shared with a larger audience. 

Its those posts that snowball into bigger and better gigs. As the recognition on a global scale is significantly more gratifying than just the local efforts I receive so often. In fact, for the better part of 2019, I was very busy with live video work. Having nearly no time off, I accepted this as a lifestyle, rather than just hobby. And in the social media zone, I’ve been able to publicly beta-test things like the Erogenous Tones Structure module, Phil Baljeu’s custom vector graphics system and as of late Andrei Jay’s latest raspberry pi video synth and feedback algorithms as hardware devices. The curiosity the results generated have in turn, sold modules and made the manufactures money to sustain their efforts.   

…having access to social media platforms is actually key to the whole system. I can actively gauge what pieces people actually like, what ideas stick and in turn, get shared with a larger audience. 

To be fair though, I’m not sure how much of this actually real. If it’s all made up, or the reactions are fabricated. It’s a fine silver-lining we’re all walking along. One day, a post could generate hundreds of interactions, while the next day, nothing. I think alot of that could actually be the option for folks to drift between realities, between the physical and the cyberspace. It’s in this cyberspace, that I do often connect with other artists, say for example my bud Konopka and has online video painting series. To watch him create something entirely from scratch, in real time, thousands of miles away is a true head-spin if you think about it. But not even 5 years ago would have been possible. 

All photos courtesy of Evan Henry.

3. It’s fascinating to how analog and digital worlds inspire AV artists. What’s your take on the two and how do you find working with analog systems for live visuals?

Truly. When I first got started, it was all analog, all found devices. Though in time, I’ve found the whole LZX modular zone, which started analog and now has drifted into this wild digital hardware dimension that has opened up all kinds doors. The obvious attraction to the large analog modular is the physicality and pure intuitive nature of the whole thing. As in a live setting, there is nothing more fun and unpredictable than a hand-wired mess of cables and devices to create this ever-fleeting dialogue, never again to be replicated. For ambient, for house, for techno and literally everything in between, there’s this infinite body that just works, and often never crashes or fails. 

If anything, it’s always the digital component that freezes or fails first. I’ve done shows with computer artists that for some reason or another, who just can’t make it work that particular night.

If anything, it’s always the digital component that freezes or fails first. I’ve done shows with computer artists that for some reason or another, who just can’t make it work that particular night. So just step in and end up taking over the evening with my system. However, I’ve had my fair share of venues tell me their systems are HDMI only. So learned to convert the analog composite outputs of the modular to the HDMI with aid of things like Ambery converters and scalers, Extron scalers, and even the silly Blackmagic shuttle, that has it’s own share of issues. It wasn’t until last summer that I realized the Roland V4-EX had a very effective means of conversion and scaling to HDMI, VGA, and back down again. The result was a total game-changer. So I sold my other mixers, and devices to scale up to HDMI and hadn’t looked back. This meant I could seamlessly work with digital projection systems and streaming processes. And from the get-go, it’s been used in every performance effort since. It’s even let me collaborate with both digital and analog artists alike. To fade and key between all manner of artists and ideas. 

So little things like that make the whole system go, which leads me into the question…

4.What’s your basic setup when do performance live AV shows? (If you have one)

I am constantly pushing myself as an artist. So every year or so, I’ll experience this major creative shift around winter time, when my job at the photo lab temporarily shutters for winter break on campus. It is is then where I have about a month to chill and regroup my mind. This generally means some new gear enters the studio, and in turn the dirty warehouses they get thrown into for live work. 

All photos courtesy of Evan Henry.

In 2019, I saw my modular system grow from a single 6U, two row case that could fly on any airline, to a larger 12U, four row system, that for the majority, made it’s way into every gig. In tandem with the V4-EX, the two were all I needed to do 8-10 hours of a rave whatever else I was getting booked for. However, the few time I flew out for one-offs, I brought it back down to 6U. Which was a lot of fun and lent itself to collaboration with other artists. It was in this time though, away from gigs and rather chill moments at the lab, where I began to experiment with the virtual dimension of VSynth, the Max/Msp visual extension. The result was very reminiscent of my larger modular system. Though at the time, my computer could only handle small patches. Anything big would see my computer begin to overheat and grind to a halt. 

This got me looking at computers, seriously.  As a video generation and manipulation tool, much in the same way the dedicated hardware was, but a larger, more sophisticated, and recallable level. It was months of research and a very generous donation within the family that lead me onto a gaming-oriented laptop, complete with a dedicated graphics card, that in it’s day was considered high-spec, and miles beyond my aging macbook. From the moment I lifted open the box and got it booted, I went straight into complex Max patches and dense 3D structures with the aid of Resolume Arena. When I realized I could save, and recall every motion, I started plotting how to gig with it. To layer to pieces together and to treat Resolume as a video sampler of my analog devices. What began to happen was a meshing of dimensions. No longer was one any better than the other. They were one of the same. It was with this entry that live performance physically became less stressful and far more manageable. No longer did have to carry this unwieldy modular system on a train or a bus. I could now discreetly carry the common laptop computer, just as everyone else. 

All photos courtesy of Evan Henry

Setting up and breaking down, with the projector, is a two cable, two power supply motion. So quick and so light. With the aid of a midi controller, all the tactility remains, and nothing changes. The digital results do look incredible though. I cannot deny that. No matter what I have though, I make the best of all of it. For touring, in 2020, my setup is just that. I did some dates with Steve Hauschildt and Telefon Tel Aviv across Texas and the process was so smooth. Same for the brief efforts with LLORA and BATHHOUSE, just weeks ago. So much less to think about, all with the same manipulations and motions.  

5. What would be your dream AV gig?

Currently speaking, the dream is still to tour, to travel and do large scale art installations with my video work. I had things lined up, but those have all fallen in favor of the current pandemic. But that’s honestly not going to hold anyone for long. These things will all still happen, just not soon as I had anticipated. I was truthfully hoping to break into the festival dimension; Mutek, Movement, Sonar, Aurora, as from a live scale, that feels like the next big move, amidst touring through the theaters and dedicated art spaces. I’ve had tastes of all those, but like anyone serious about their craft, I want to further and really make a name for myself, as truly, I don’t know what else to do. 

Find out more about Cinema.AV on his artist page

The post We pick the brains of Cinema.AV on his beautiful video synth work appeared first on Audiovisualcity.

⁣ ⁣⁣ ⁣#repost @aptart2020⁣ ⁣__________________⁣ ⁣⁣ ⁣APTART Media...




⁣⁣
⁣#repost @aptart2020⁣
⁣__________________⁣
⁣⁣
⁣APTART Media Facade Set up⁣
⁣아파트아트 첫번째 투어가 충남 아산에 위치한 아파트에서 진행되고 있습니다. ⁣
⁣@millumin2 으로 메핑(Mapping)을 진행중입니다. ⁣
⁣3월 26일부터 27일까지 저녁 7시부터 9시까지 진행됩니다. ⁣
⁣#APTART (at 충청남도 아산시 배방읍)
https://www.instagram.com/p/B-g31acpJrH/?igshid=1flsct12vpwqa

La lenteur du déploiement de la fibre optique ralentit le secteur VR en France

Par Sitraka R
fibre optique

Alors que le consommateur a accès à plus d’offres et de services VR que jamais, le faible déploiement de la fibre optique dans l’Hexagone détériore l’expérience utilisateur.

Pour rappel, seuls 34,8 % des Français peuvent compter sur une connexion à très haut débit (supérieur à 100 Mbps). La vaste majorité doit donc composer avec une connexion plus lente, voire inexistante pour 0,6 % de la population. Or, en plus de pénaliser le citoyen, cet état des faits met aussi à mal les professionnels, obligés d’attendre pour espérer une adoption plus importante de la technologie.

Difficile parfois d’avoir la fibre optique chez soi

Malgré les ambitions de l’État, établies dans son Plan France Très Haut Débit, la réalité est encore tout autre actuellement. Pour raccorder son logement, il faut avant tout faire un test d’éligibilité fibre.

Proposé par les opérateurs, comme Coriolis, le test établira la capacité de la ligne téléphonique à supporter une connexion. Selon les résultats, il faudra donc parfois se contenter d’un débit limité par le partage entre plusieurs bâtiments.

Toutefois, si on habite un immeuble, il faudra aussi obtenir l’aval du syndic pour raccorder le bâtiment. Entre l’attente de l’assemblée générale et les négociations avec les opérateurs, on comprendra le déploiement hésitant de la fibre optique, malgré la bonne volonté des acteurs impliqués.

Comment le déploiement de la fibre optique a un impact sur la VR

Entre les problèmes de débit pour les téléchargements de jeux et de latence, les créateurs de contenus VR font encore face à de nombreux obstacles sur leur chemin. Bien évidemment, la rapidité d’une connexion influence ces phénomènes.

Toutefois, les problèmes de la VR ne se limitent pas à un mauvais accès à internet. En effet, la qualité finale de l’expérience repose en grande partie sur la proximité de l’utilisateur avec la source. Ainsi, ceux qui se trouvent en ville auront toujours des contenus VR de meilleure qualité, même si le déploiement de la fibre optique atteint ses objectifs en France.

En tout cas, les fabricants d’équipements VR essaient pallier ces manquements avec des produits plus efficients, moins gourmands en bande passante. Toutefois, on ne peut qu’espérer que l’État va accélérer son plan pour que tout Français puisse accéder facilement à des services ou contenus en réalité virtuelle.

Les besoins de la VR nécessitent un déploiement plus rapide de la fibre optique

Le streaming de contenus VR est tout particulièrement gourmand en bande passante. En effet, des quantités phénoménales d’informations circulent en permanence entre le casque et les serveurs des créateurs. Voici quelques chiffres pour donner une idées des besoins de la VR et pour comprendre pourquoi un déploiement de la fibre optique est primordial pour le secteur.

Ainsi, pour streamer un contenu 360 degrés en basse résolution, la réalité virtuelle requiert un débit minimum de 25 Mbps. Si l’on souhaite augmenter la qualité du rendu à celle des images d’un écran TV HD normal, on devra accaparer entre 80 et 100 Mbps de bande passante. Enfin, une expérience VR totalement immersive nécessitera au moins 600 Mbps. Comme vous pouvez le voir, la plupart des Français sont encore bien loin du compte.

Cet article La lenteur du déploiement de la fibre optique ralentit le secteur VR en France a été publié sur Réalité-Virtuelle.com.

Voici à quoi va ressembler le futur des réalités virtuelle et augmentée

Par Gwendal P
futur XR

Apple, et d’autres sociétés ont breveté une nouvelle technologie de réalité mixte. Contrôlable par la pensée, elle préfigure le futur d’une discipline en plein essor.

Tout a commencé alors qu’un ingénieur d’Apple a un jour présenté à ses supérieurs le concept ultra novateur d’un casque de réalité virtuelle virtuelle. L’idée était simple : il s’agissait d’enfiler un casque VR alors que l’on se trouvait déjà dans un univers virtuel. Emballées par cette trouvaille, les têtes pensantes de la firme à la pomme ont immédiatement approuvé le concept et donné leur feu vert au projet. Cependant, tout ne se passa pas comme prévu. En effet, quelques mois plus tard, l’ingénieur en question avait perdu toutes ses capacités cognitives et semblait être devenu un légume, comme lobotomisé.

Effrayés, mais surtout terriblement déçus par la tournure des événements, ses supérieurs ont tout de même décidé de capitaliser sur son idée. Une autre équipe de chercheurs a ainsi repris toute sa théorie, en modifiant simplement le support de base. Plutôt que de faire de la réalité virtuelle virtuelle, ils ont voulu appliquer le principe à la réalité augmentée. Seulement, ils se sont rendu compte après quelques essais que l’AR virtuelle n’apportait rien de nouveau. Non, il leur fallait une invention beaucoup plus puissante, celle qui pourrait façonner l’avenir des êtres humains et révolutionner l’existence même de l’univers. Ainsi, c’est avec de telles ambitions et en toute humilité qu’ils ont développé la réalité augmentée augmentée (que certains appellent l’hyper réalité, mais ça sonne clairement moins bien…).

De longues années de recherches infructueuses

La réalité augmentée augmentée est un concept très simple. Il ne s’agit pas uniquement d’afficher des informations sur des verres de lunettes ou un écran, mais de les projeter dans le monde réel pour qu’elles deviennent visibles de tous. Sauf que, quand bien même le concept est simple, la fabrication d’un appareil capable de le mettre en pratique présente un défi ô combien plus élevé ! De nombreux obstacles se sont dressés sur leur chemin, et ils ne furent pas loin d’abandonner à un moment.

C’était sans compter sur l’ardent esprit compétitif qui anime les équipes de développement chez Apple lorsqu’ils sont un jour tombés sur une équipe concurrente de Microsoft, puis une autre de Google, Amazon, Tencent, et Alain Afflelou, toutes à la recherche de la même recette miracle. Ils purent se consoler du fait qu’elles essuyaient chacune revers après revers, et peinaient à se relever après chaque échec.

Chose étrange, alors qu’elles étaient au plus mal, ces équipes reçurent toutes en même temps la visite d’une personne qui leur transmit un message identique : pour réussir, ils devaient joindre leurs forces. Ils furent également tous conviés dans une usine de textile perdue au fin fond de l’état de New York aux États-Unis. Sur place, un émissaire leur remit un prototype de casque conçu par l’armée américaine, en collaboration avec la Nasa et un institut dont il a préféré taire le nom. Le seul indice était la mention « Cerebro » incrustée dans le métal chromé de l’appareil.

Tout seul, on va plus vite, ensemble, on va plus loin

Ensemble, les chercheurs ont commencé par étudier le casque grâce à de la rétro-ingénierie. Ils lui ont alors découvert des capacités de projection et de contrôle impressionnantes. Immédiatement, l’euphorie gagna l’ensemble de ces femmes et de ces hommes courageux qui en avaient bavé pendant de longues années. Au bout d’à peine quelques mois, ils réunirent les différents dirigeants de leurs boîtes respectives pour leur faire une démonstration d’un appareil au stade alpha. Les résultats furent plus que concluants. En effet, l’appareil de réalité augmentée augmentée était capable de projeter n’importe quel élément dans le réel. En outre, il se commandait entièrement par la pensée. Au-delà de cette prouesse, il permettait même de matérialiser une idée et de la concevoir dans l’espace.

Bien évidemment, le grand public n’est pas encore près de voir arriver cette technologie chez lui. L’on sait juste qu’elle est là, présente quelque part, dans les bureaux d’Alain Afflelou ou ailleurs.

À propos du premier ingénieur d’Apple, certains disent qu’il serait entré trop profondément dans les mondes de la réalité virtuelle virtuelle et s’y serait perdu, ne sachant plus faire la différence avec le réel. Néanmoins, une plaque à son (Lorenzo Di Castello) repose fièrement au QG de la société, en mémoire de ce héros, précurseur de la technologie qui allait changer le monde à jamais.

[Vous l’aurez sûrement compris vu la date de parution de cet article. Il n’est pas à prendre au sérieux, mais comme un moment de détente. N’hésitez pas à donner votre idée de ce que seront la VR et l’AR du futur]

Cet article Voici à quoi va ressembler le futur des réalités virtuelle et augmentée a été publié sur Réalité-Virtuelle.com.

Nvidia veut frapper fort avec sa nouvelle offre GeForce mobile

Par Pierre Lecourt

C’est officiel, Nvidia lance une nouvelle génération de puces GeForce Mobile avec au passage un renouvellement de plusieurs de ses technologies. Un attirail de fonctionnalités pensées pour intéresser presque tous les profils.

La marque a tout d’abord travaillé ses tarifs puisqu’elle nous promet des machines GeForce Mobile à partir de 699$ d’un côté et des modèles équipés de solutions GeForce RTX 2060 à partir de 999$ de l’autre. Un prix public qui, adossé à des promotions et des baisses, pourrait largement populariser ce type de solution auprès d’un public plus large. Plusieurs machines sont déjà évoquées avec ce type d’équipement.

Nvidia RTX

On retrouve l’ASUS ROG G512, le HP Omen 15, le Acer Nitro 5, le Lenovo Y540 et le MSI GF65 Thin. La marque indique que d’autres modèles pourraient glisser sous cette barre symbolique des 1000$ à court terme. On ne sait pas comment cela se traduira en euros chez tout le monde mais certains constructeurs vont suivre le mouvement pour glisser à leur tour sous la barre des 1000€ en Europe.

Predator Triton 500

C’est une excellentes nouvelle qui devrait donc toucher des engins déjà existants mais également ouvrir la porte à plus de nouvelles solutions dans le futur. Cela intéressera non seulement les joueurs qui devraient voir la note s’alléger sur certains modèles du marché, mais également d’autres types d’utilisateurs qui pourraient prendre appui sur les capacités de ce type de chipsets graphiques pour piloter des logiciels de création gourmands en calcul.

Nvidia Geforce RTX LT

Nvidia lance dans cette optique de nouveaux modèles de puces dans sa gamme “Super”, une gamme clairement à destination des créateurs de contenus. La marque surfe sur le  lancement conjoint des puces AMD Ryzen 9 4000 et des nouveaux Intel Comet Lake-H pour adosser sa solution graphique. 

Et c’est le jackpot pour la marque qui a été retenue par la totalité des constructeurs au sein de leurs futurs portables. Nvidia indique que plus de 100 nouvelles solutions vont sortir équipés de ses puces. Tous les constructeurs de la planète semblent être sur les rangs : HP, Lenovo, Acer, Asus, MSI, Gigabyte, Razer, Clevo et bien sur Dell pour ne citer que les plus connus. Un nombre impressionnant d’annonces de nouvelles solutions GeForce Mobile ont été dévoilées dans la foulée.

Un reboot de Turing boosté par le DLSS 2.0

D’un point de vue technique, on reste sur des machines exploitant l’architecture Nvidia Turing des RTX 20×0 déclinées dans différentes configurations avec l’emploi massif de la solution Max-Q qui ajuste fréquences et TDP pour intégrer des designs plus fins et compacts. Des modèles 14″ à bordures fines sont particulièrement prometteurs.

Nvidia

 

Nvidia abrite une ribambelle de fonctions en avant dans cette appellation globale Max-Q. Une solution permettant au consommateur d’identifier facilement une machine qui correspondra à ses besoins. On retrouve donc, pour commencer, l’emploi du “Dynamic Boost” qui n’est autre qu’un agent de circulation exploitant parallèlement les capacités du processeur embarqué et celles du circuit graphique. Fonctionnant de manière transparente, cette fonctionnalité établit pour chaque image à calculer un dosage entre les différentes capacités de calcul de l’engin afin d’adapter au mieux les performances disponibles. L’idée est de trouver un bon ratio entre la puissance à fournir et la consommation d’énergie. Les TDP des différents composants pouvant être dosés finement pour lisser la consommation globale vers une moyenne la plus basse possible.

Nvidia

La fonction “Advanced Optimus” vise également a améliorer l’endurance des machines en jonglant selon les besoins de l’utilisateur d’un système graphique à l’autre. Le portable équipé pourra basculer du circuit embarqué dans le processeur pour les tâches les plus légères et, dès que l’efficacité de la puce Nvidia sera plus optimale, basculera dessus. Cela peut être pour des raisons de performances mais également pour des besoins purement énergétiques. 

Nvidia présente également le DLSS 2.0 pour “Deep Learning Super Sampling 2.0” qui est piloté par des circuits d’intelligence artificielles dédiés et entraînes présents sur les cartes RTX. Ces Tensor Cores proposent système d’apprentissage permettant d’accélérer le nombre d’image par seconde calculées en temps réel par la machine. Nvidia assure que son DLSS 2.0 augmente la performance de calcul pur de ses circuits tout en proposant des images optimisées.

DLSS 2.0

Cela a également un impact sur l’autonomie de chaque engin puisque les Tensor Core permettent d’éviter de sur-exploiter les cœurs de calculs plus énergivores. La marque parle de 20% d’autonomie en plus pour ses machines ce qui est un gain énorme sur ce type d’engin. Cette technologie est sur le papier très impressionnante et je vais essayer de trouver le temps et les moyens de faire un dossier plus complet sur le sujet.

L’appellation Max-Q est également un engagement materiel pour Nvidia qui demande à ses partenaires d’opter pour de la mémoire GDDR6 Low Voltage. Cela permet non seulement d’améliorer l’efficacité globale de la solution mais également de consommer moins d’énergie. Les régulateurs de voltage sont également mis à jour pour améliorer les performances et l’efficacité des machines.

Nvidia

Cette sortie s’appuie également sur le travail mené par la marque à destination des graphistes entamé avec le lancement des cartes graphiques Super. Nvidia annonce le lancement de 10 portables RTX Studio pilotés par des puces RTX Super. Nvidia travaille avec de nombreux constructeurs pour concevoir ces ces engins sur les fondations de processeurs Intel Comet Lake-H. Acer, Gugabyte, MSI et Razer sont les premiers a avoir travaillé dans ce sens. Leurs portables seront capables d’offrir de très bonnes performances de calcul en mobilité à la fois en vidéo et en 3D. 

Legion Y540

Nvidia s’offre un pont d’or avec cette nouvelle gamme GeForce Mobile

Compatibles avec les solutions de nouvelle génération chez AMD comme chez Intel. Visant autant un public de joueurs pour un prix abordable que des machines d’exceptions pour du très haut de gamme. Lorgnant adroitement sur le marché des créateurs de contenu. Facilitant le travail pour les constructeurs avec des engins mobiles optimisés à la fois en terme de calcul et d’efficacité, cette nouvelle génération de GeForce Mobile frappe fort et large.

Nvidia

Si le calendrier global est quelque peu bousculé par la pandémie de Covid-19, si l’annonce de disponibilités pour le mois d’Avril chez les constructeurs peut être chamboulé, il semble pour le moment que de nombreux portables GeForce mobile concernés soient livrés aux dates anticipées.

De nombreuses excellentes machines sont en approche, pas forcément les moins chères mais des solutions vraiment très capables en terme de calcul. Des 13.3 et 14″ pour commencer mais également des 15.6″ compacts et assez légers. Cette génération d’engins est très prometteuse et, grâce aux sorties conjointes d’Intel et d’AMD, pourrait renouveler fortement un marché qui eu tendance a végéter sur le plan des performances.

Une bonne raison de faire évoluer son materiel dans les mois qui viennent ? Je ne sais pas encore mais ce nouveau catalogue me donne furieusement envie de tout tester !

Nvidia veut frapper fort avec sa nouvelle offre GeForce mobile © MiniMachines.net. 2020.

Meet Endlesss, the iOS app for collaborative music making

Par Vicky
Endlesss Tim Exile app

Tim Exile, longtime producer, performer, synth designer, and all-around musical aficionado, has finally released his much-awaited Endlesss app. And honestly, he couldn’t have timed it any better (though we’re sure he’s probably thinking the same thing). Endlesss is a new program that allows you to make music in real time with friends around the globe, […]

The post Meet Endlesss, the iOS app for collaborative music making appeared first on DJ TechTools.

Intel lance ses nouveaux processeur Comet Lake-H

Par Pierre Lecourt

C’est le troisième ricochet de cette dixième génération chez Intel. Les Comet Lake-H s’adressent aux machines plus puissantes, plus lourdes et plus épaisses. Les version U et Y sorties en Septembre dernier tournaient entre 4.5 et 25 watts de TDP. Les nouvelles puces affichent 45 watts de TDP.

Intel Comet Lake-H

Cela permet a Intel de proposer des processeurs plus performants et proposant plus de cœurs à des fréquences plus élevées. La marque se positionne face à un AMD plus mordant que jamais avec ses puces Ryzen 4000 sur les starting blocks. Une gamme très prometteuse si l’on en croit les premiers tests et qui pourrait venir grappiller des parts de marché à Intel sur ce segment du portable. Les nouveaux Ryzen pour machines mobiles semblent avoir résolu pas mal des points faibles des générations précédentes avec une consommation mieux maîtrisée et des arguments de poids : une finesse de gravure de 7 nanomètres face aux 14 nano d’Intel et des puces pouvant héberger jusqu’à 16 cœurs et le double de threads.

Intel Comet Lake-H

La fréquence, le nouveau cheval de bataille d’Intel

Il est donc nécessaire pour Intel de proposer un catalogue à la hauteur. Si les processeurs restent sur une gravure de 14 nanomètres, l’optimisation semble être très poussée par le fondeur. Sur le modèle le plus haut de gamme, le Core i9-10980HK, on retrouve 8 cœurs et 16 threads. Sa vitesse d’horloge maximale pouvant aller jusqu’à 5.3 GHz.

Intel Comet Lake-H

Intel en profite pour lancer son nouveau mode Turbo Boost Max 3.0, une solution qui permet à la machine de sélectionner automatiquement les deux meilleurs coeurs et d’en augmenter les performances pour des résultats optimaux. Même un “simple” Core i5 pourra atteindre une fréquence de 4.5 GHz ponctuellement. Un argument qui touche surtout les joueurs puisqu’une majorité de titres ne prend en compte que un ou deux coeurs seulement. augmenter leur fréquence à donc du  sens… Les usages plus professionnels se déportant désormais pour beaucoup sur les capacités des circuits graphiques annexes, embarqués en plus du processeur.

D’autres fonctionnalités font également leur apparition avec un mode facilitant l’overclocking. Les puces concernées, celles-qui accepteront cette cadence plus élevée, pourront donc être pilotée via un programme spécifique. Le but du jeu derrière étant de proposer pendant un temps donné un gain sensible de performances… Une fonction intéressante même si elle restera a privilégier sur des machines branchées sur secteur puisque cela impactera d’autant l’autonomie de la batterie. 

Comet Lake-H proposera également du Wifi6 par défaut, prendra en charge le ThunderBolt 3 via un contrôleur externe, gérera le cache Optane et acceptera désormais jusqu’à… 128 Go de mémoire vive DDR4-2933. De quoi proposer des machines mobiles très performantes aussi bien pour les joueurs que pour les créatifs. Ce qui ne change pas vraiment ? Le circuit graphique intégré qui reste un Intel UHD aux performances suffisantes pour un usage classique mais probablement insuffisant pour des joueurs… Ce qui est totalement logique puisque les constructeurs vont ajouter à cela un circuit graphique supplémentaire.

Intel Comet Lake-H

D’un point de vue performance brute, on reste comme d’habitude sur notre faim avec des comparaisons issues des laboratoires du fondeur. Les nouvelles puces sont ainsi mise en perspectives par rapport à des solutions Kaby Lake-H sorties en 2017. Cela peut avoir du sens puisqu’un acheteur classique ne va pas se ré-équiper chaque année, mais il est difficile de voir de cette manière le gain en performances réel entre Comet Lake-H et son prédécesseur.

L’impact de cette nouvelle génération sur la consommation des machines ne sera pas spécialement visible. Intel étant resté sur le même scénario de 45 watts de TDP de l’une à l’autre. Le fondeur précise tout de même que les nouveaux portables équipés de cette dixième génération seront probablement plus autonomes grâce aux progrès liés à l’utilisation des puces, l’optimisation des batteries et les efforts menés sur les designs de régulation thermiques. Les machines de 2020 devraient donc continuer a s’affiner tout en proposant de meilleures autonomies. 

2020-04-02 13_25_07-Window

Un Asus Zephyrus sous Core I7-9750H au TDP identique de 45 watts lancée l’année dernière

Dans cette nouvelle offre plusieurs solution se démarquent. Les Core i9 devraient avoir droit aux tests les plus élogieux mais les puces les plus pertinentes d’un point de vue investissement classique seront sans doutes les Core i7 et i5. Le Core  i7-10750H devrait se répandre largement dans l’offre moyenne gamme chez les constructeurs. Les Core Core i5-10400H et Core i5-10300H seront également sûrement de bons choix pour des usages familiaux. Seuls les joueurs les plus exigeants et les pros devraient se frotter aux puce core i9… A moins qu’Intel ne crée la surprise question prix ce qui ne semble pas spécialement prévu au programme du fondeur.

Intel Comet Lake-H

Intel Comet Lake-H

Un test de rendu vidéo UltraHD montre que le nouveau Core i9-10980HK est deux fois plus rapide qu’un Core i7-7820HK. Il offre également le double de performances en terme de jeux que ce modèle de processeur haut de gamme de 2017. On aimerait pour autant savoir ce que donne le nouveau venu face au Core i9-9980HK. Pas de doute qu’il soit plus rapide mais de combien et à quel prix ?

On va sans doute avoir droit à de multiples tests dans les semaines qui viennent qui mettront en perspective l’ensemble de l’offre d’Intel mais également celle d’AMD. Un état des lieux qui permettra sans doute de doser plus finement l’avancée proposée par la marque et son impact sur le marché. 

Certains n’ont cependant pas attendu pour investir dans Comet Lake-H. Intel annonce pas moins de 100 nouvelles machines équipées de ces puces sur le marché : HP, Lenovo, Dell, Acer, Asus, Gigabyte, MSI et Razer sont sur les rangs.

Intel lance ses nouveaux processeur Comet Lake-H © MiniMachines.net. 2020.

Unlock the Power of Macros with These Gaming Keyboards

Par Alejandro Medellin

Keyboards with dedicated macro keys can streamline your editing workflow, so consider these worthy keyboard options and save time on your next edit.

Cinema AV (AKA Evan Henry)

Par Hayley Cantor

Evan Henry, from Dallas, Texas, is a truly multidisciplinary AV artist, who primarily works visually under the artistic name Cinema AV, but who is also known to write ambient music scores with both analog and digital synthesizers. His work embraces both analog and digital set ups, with his main interest visually representing sound.

What began as a love of photography, cinema and found footage grew into something much greater when in 2015, Evan was introduced to video circuit-bending and once-obsolete video electronics. Using these pieces in a live performance setting was always his goal, and from the get-go, tachyons boxes, vcrs, and video mixers turned into buying used Gieskes 3trinsrgb+1c standalone video synthesizer, building its expanders and just over a year later, the LZX cadet and castle line of DIY eurorack modules.

From there, video art went from beyond a hobby, to a complete way of life. Reliant on live performance, he plays at gigs relentlessly for both local, and touring artists alike. In 2018, he joined Ghostly Intl.’s Steve Hauschildt on a tour through the East Coast and Canada. He became the resident visual artist for Proton Limited in Dallas, Texas in 2019. These motions set the stage for a constantly evolving motion in the live visual dimension. 

Cinema AV’s work extends itself to instant and 35mm film renderings and has appeared in galleries and pop-up’s throughout North Texas. But when not playing live, or coordinating visuals for Dallas Ambient Music Nights, Evan is occasionally writing or building a set of modules for fellow artists.

The result is an infinitely growing body of work, that in the last few years has expanded itself into largely digital dimensions in Resolume Arena and Max/Msp. 

Website | Instagram | Facebook | Youtube | Bandcamp | Soundcloud | Vimeo

The post Cinema AV (AKA Evan Henry) appeared first on Audiovisualcity.

Florian Petiteau – bande démo lookdev, lighting & compositing

Par Shadows

Florian Petiteau, qui faisait partie de l’équipe du court-métrage Comme un ours, présente sa bande démo look dev, lighting et compositing. Il est actuellement en recherche de poste.

L’article Florian Petiteau – bande démo lookdev, lighting & compositing est apparu en premier sur 3DVF.

Nvidia prépare un système d’eye-tracking novateur

Par Gwendal P
gaze tracking leds

Grâce à un système de LED qui émettent et captent de la lumière, Nvidia a mis au point un capteur de suivi du regard novateur. En consommant moins d’énergie et prenant peu de place, il pourrait bien s’intégrer aux casques actuels.

Le suivi du mouvement des yeux est un axe de recherche sur lequel travaillent beaucoup de fabricants de casques de réalité virtuelle. En effet, ce système se conjugue parfaitement avec ce que la VR du futur cherche à accomplir. C’est-à-dire un affichage de meilleure qualité avec des éléments semblables à la vision humaine. Et puis la possibilité de se passer de contrôleurs et de tout gérer avec les yeux. Le but est d’offrir l’expérience la plus naturelle possible. Sauf que cette technologie est pour le moment loin d’être optimisée pour être intégrée de manière confortable aux casques d’aujourd’hui. Trop lourde ou trop chère, elle n’est pas encore adaptée au marché.

Nvidia, société spécialisée dans la fabrication de processeurs graphiques s’est penchée sur le sujet. Ainsi, une équipe de trois chercheurs a mis au point un système de suivi du regard qui repose sur des LED. Ce système offre le double avantage d’être peu volumineux et peu gourmand en énergie. Il pourrait donc convenir à des casques autonomes sans en impacter les performances.

Plus de LED, moins de caméras et une meilleure gestion de la batterie

Pour cela, Nvidia propose deux versions de son prototype. La première utilise une combinaison de neuf LED par œil. Trois d’entre elles émettent un rayonnement infrarouge invisible pour l’œil, tandis que les six autres captent la lumière. Car c’est pour cette raison que Nvidia se sert de LED qui peuvent à la fois émettre et capter de la lumière. La seconde version ne compte que sur six LED qui assument cette fois les deux rôles en même temps.

L’avantage de cette technique, qui peut remplacer les caméras utilisées à l’heure actuelle, est qu’elle réduit la consommation d’énergie par l’appareil. En outre, cela diminue également les temps de latence puisque ce ne sont plus des millions de pixels qui doivent être analysés, mais quelques capteurs. Enfin, le logiciel est aussi allégé de la partie de traitement de l’image qui va avec.

Des prototypes prometteurs

Nvidia ajoute néanmoins que ces prototypes souffrent de quelques limitations. La plus flagrante étant la précision qui comporte un taux d’erreur trop important pour certaines applications de haute-précision (la recherche neurologique par exemple). Un autre problème vient du fait que les casques bougent sur la tête lorsque les gens font des mouvements rapides. Les capteurs sont alors désaxés et leurs mesures perdent en précision. D’ailleurs, le processus de calibration est chronophage et nécessite beaucoup de données.

Malgré cela, Nvidia fait un pas dans la bonne direction et propose un système intéressant par ces prototypes. D’autant plus qu’ils ne peuvent désormais que s’améliorer. Ce fabricant n’est pas le seul à faire des recherches à ce sujet. Nous vous parlions d’une startup suisse, la semaine dernière qui travaille sur un affichage avec une mise au point sélective, là où l’œil regarde. Les casques de réalité virtuelle du futur ne sont peut-être pas si éloignés que cela.

Cet article Nvidia prépare un système d’eye-tracking novateur a été publié sur Réalité-Virtuelle.com.

TOP 5 des vidéos de la semaine : Covid-19 et impression 3D…

Par Mélanie R.

Cette semaine, on vous présente plusieurs vidéos qui montrent comment les professionnels de l’impression 3D se mobilisent pour lutter contre le Covid-19. Plusieurs applications ont été imprimées en 3D pour protéger et aider le personnel médical. On tient à rappeler […]

Le port micro USB caché de la SteelSeries Stratus XL

Par Pierre Dandumont

En changeant les piles de ma manette SteelSeries (une Stratus XL iOS), je me suis rendu compte qu’elle possédait un port micro USB « caché ».

Il n’est pas caché comme sur les caméras Arlo, vu qu’il sert pour les mises à jour de firmware, mais il n’est pas accessible directement tout de même. Je me suis donc posé une question : est-il possible de jouer en filaire ? La réponse est malheureusement non. Une fois connecté en micro USB, la manette est vue comme un périphérique HID mais pas comme une manette. Bizarre ? Oui et non. L’interface sert uniquement à la mise à jour de firmware. En clair, impossible de jouer sans Bluetooth, que ce soit sous macOS (ou Windows) ou iOS.

Le compartiment des piles (évidemment des Apple)


Le port USB caché

Mais le micro USB n’est pas totalement inutile : il permet d’alimenter la manette. Une fois reliée à une source d’énergie, elle fonctionne en Bluetooth comme si vous aviez installé des piles. Petite bizarrerie, d’ailleurs, il n’y a pas besoin d’allumer la manette dans ce cas là : elle fonctionne directement. Ce n’est pas très pratique, vu qu’il faut enlever le capot du compartiment des piles et que la prise n’est pas très accessible, mais si vous manquez de piles, c’est une solution acceptable.

La manette est à jour


C’est le moment de jouer

A noter, enfin, que depuis mon premier test, le comportement a été modifié (sûrement via une mise à jour de firmware). Elle ne fonctionne plus en HID, mais – au moins – macOS supporte correctement les manettes iOS. Si vous êtes abonnés à Apple Arcade, vous pouvez donc profiter des jeux avec la manette.

Utiliser une manette 8BitDo sous iOS 13

Par Pierre Dandumont

Avec iOS 13, Apple a ajouté le support des manettes Xbox One et PlayStation 4 dans son OS. Mais uniquement celle des deux grands constructeurs : celles des autres fabricants sont exclues de façon articifielle. Vraiment ? Il existe une astuce pour utiliser une manette 8BitDo (et sûrement d’autres) sous iOS 13. Testé et approuvé.

Je parle des manettes 8BitDo parce qu’elles sont de bonne qualité en général et qu’elles se trouvent assez facilement. La SF30, qui reprend le feeling général d’une manette de Super NES mais avec des ajouts modernes, vaut une quarantaine d’euros. Ce n’est pas tellement moins qu’une manette de Xbox One ou de PlayStation 4, mais on peut préférer la prise en main (ou en avoir une). J’ai testé avec une vieille N30 Pro, qui n’est plus supportée par le fabricant, mais ça passe de la même façon avec d’autres.

Ma vieille manette et un iPad

La première chose à faire va être d’aller lire le manuel de la manette 8BitDo et de mettre à jour le firmware. Il va en effet falloir vérifier comment démarrer la manette dans différents modes. 8BitDo, pour une compatibilité maximale, triche en effet un peu : en mode Mac, la manette envoie des commandes HID, en mode iCade (j’en reparlerais), elle propose une émulation clavier, en mode Xbox, des commandes Xinput, etc. Selon les cas, il faudra passer en mode Xbox (sur ma manette, je dois presser X et le bouton power en l’allumant) ou en mode Mac. Le problème vient de la façon dont iOS filtre artificiellement les manettes sur le nom du périphérique… Avec ma manette, ça marche en mode Xbox.

Au lieu de jumeler la manette dans le menu Bluetooth, il faut se rendre dans Accessibilité -> Contrôle de sélection (pas besoin de l’activer) -> Boutons -> Appareils Bluetooth…. Ensuite, il suffit de choisir la manette, qui devrait apparaître. La compatibilité varie un peu : les versions récentes de chez 8BitDo s’affichent comme des manettes de PlayStation 4 (donc sous le nom Wireless Controller) en mode Mac, ce qui fonctionne. La mienne pas, mais en mode Xbox, elle a le nom 8Bitdo NES30 Pro(x) et ça marche. Je vous conseille de tester d’abord le mode Mac, ensuite le XBox si ça ne passe pas.




Une fois que c’est réglé là-bas et que la manette est connectée, elle devrait être utilisable comme une manette compatible MFi dans les jeux. Sur mon iPad, un logiciel de test voit la manette, et je peux jouer à Crossy Road Castle (j’aime beaucoup). Et Castlevania : Symphony of the Night, qui ne marche pas avec ma manette MFi filaire, accepte la manette avec cette astuce sur mon iPhone.

La manette est bien vue


Et je peux jouer !

Je ne garantis pas que ça fonctionne avec toutes les manettes Bluetooth, mais si vous n’avez pas de manettes compatibles officiellement, l’astuce fonctionne encore sous iOS 13.3. A noter que tout ça vient des limitations arbitraires d’Apple : d’un point de vue technique, iOS 13 bride juste sur le nom de l’appareil (et peut-être l’adresse MAC) dans la recherche. Mais en théorie, n’importe quelle manette HID ou Xinput fonctionne. Business is business.

Pourquoi Microsoft mise sur l’AR plutôt que la VR

Par Gwendal P
microsoft AR

En concentrant ses efforts sur la réalité augmentée, Microsoft vise les entreprises et organisations gouvernementales. En gros, la société va là où il y a de l’argent.

Microsoft a malgré tout fait une tentative dans l’univers de la réalité virtuelle en lançant en 2017 sa plateforme Window Mixed Reality. La firme de Redmond a en revanche laissé le soin à d’autres sociétés, HP, Samsung, Acer ou encore Lenovo, de fabriquer leurs propres casques. Ceux-ci se différencient de ceux d’Oculus ou HTC par le fait qu’ils n’ont pas besoin de tracker externe pour les suivre. Tout est en interne.

Depuis, peu ou prou de nouvelles de Microsoft sur ce front. Seule la déclaration de Phil Spencer, responsable de la branche Xbox a permis de confirmer les positions du géant américain. La VR n’est clairement pas leur priorité. La raison invoquée est que ce n’est pas ce que les gens veulent. À la place, ils ont concentré tous leurs efforts sur la réalité augmentée. Et si le grand public ne s’exprime pas beaucoup plus à ce sujet, une autre frange de la population s’y intéresse ; une dont les poches sont bien remplies.

La réalité augmentée gagne l’industrie en force

Plusieurs exemples récents le prouvent, l’univers de la réalité virtuelle, accompagnée par la réalité augmentée, est en plein boom. Les casques sont en rupture de stock, certains jeux rapportent des millions de dollars (enfin, au moins un million). Pourtant ce marché ne représente qu’une petite partie des gains engendrés par l’industrie. Ce n’est pas lui qui est le véritable moteur de la forte croissance attendue, bien qu’il y participe. Non, c’est principalement l’AR et son application dans divers secteurs comme l’industrie, la médecine et l’armée. C’est là où il y a potentiellement de l’argent.

Ainsi, quand Microsoft a présenté son casque HoloLens à l’E3 en 2015 avec une partie de Minecraft, les retours ont été positifs. Ils l’ont moins été quand le prix dépassant 3 000 euros a été annoncé. La cible de cet appareil était dès lors évidente et s’adressait en priorité aux entreprises et aux organismes gouvernementaux. Ainsi, même si Microsoft a vendu beaucoup moins de casques qu’Oculus, il est probable que leurs marges furent plus élevées.

Le futur est-il dans l’AR ?

En se positionnant le plus tôt possible sur la réalité augmentée, Microsoft a pris une bonne avance sur le reste du marché. Néanmoins, d’autres constructeurs, chinois (Magic Leap), français (Lynx) ou américains sont sur ses talons. Ils ont bien compris eux aussi les enjeux de l’AR. C’est aussi, en quelque sorte, le pari de miser sur une technologie qui représente l’avenir. En effet, la réalité augmentée ne devrait pas être limitée comme peut l’être la réalité virtuelle. Et le fait que des géants comme Google, Facebook et Apple s’y mettent prouve qu’ils s’attendent eux aussi à une petite révolution.

Alors pour le moment cela représente un petit marché. Cependant, Microsoft peut profiter de sa place en haut de la montagne pour observer les évolutions et calculer son prochain coup.

Cet article Pourquoi Microsoft mise sur l’AR plutôt que la VR a été publié sur Réalité-Virtuelle.com.

Rascular Announces Ross MC1 Channel Branding and Master Control Switcher Helm Control Integration

Par Jump

Rascular, designers of software-based powerful, customisable control and monitoring applications for third-party, professional video technologies, has today announced the availability of comprehensive software control of Ross’ MC1 family of Channel Branding and Master Control Switchers via its flagship control and monitoring system Helm. Responding to considerable customer interest, Rascular, using Ross’ powerful and flexible openGear® ...

The post Rascular Announces Ross MC1 Channel Branding and Master Control Switcher Helm Control Integration appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

⁣ ⁣⁣ ⁣#repost...




⁣⁣
⁣#repost @mecaniques_discursives⁣
⁣__________________⁣
⁣⁣
⁣“Sometimes we like small walls, sometimes we like large ones”⁣⁣
⁣⁣Visit the new mural page to see our latest project on big walls⁣⁣
⁣⁣Link in bio!
https://www.instagram.com/p/B-MH50opEHo/?igshid=1ck2yoaw185c3

⁣ ⁣⁣ ⁣#repost @loeilaguillaume⁣ ⁣__________________⁣ ⁣⁣ ⁣Y’a des...




⁣⁣
⁣#repost @loeilaguillaume⁣
⁣__________________⁣
⁣⁣
⁣Y’a des formations comme ça… #logicielregievideo #millumin2 #millumin #qlab #maitrise #perfectionnement #ocs #midi #hap #vp #mediaserver #reseau #imagination #mapping #projectionmapping #lepied #espacevirtuel #media #artnumerique #pixels #creation #regisseurvideo (at CFPTS)
https://www.instagram.com/p/B-MHrvwJsAA/?igshid=gr5tkudoxsap

NUGENS’s Surround Mix is Essential to Audio Post-Production for Today’s Evolving Media

Par D Pagan Communications

LEEDS, UK, MARCH 25, 2020 – NUGEN Audio’s Surround Suite offers a complete set of tools for  upmixing, downmixing and multi-channel sound reshaping for the production market. Featuring the company’s Halo Downmix, Halo Upmix, ISL True Peak limiter and SEQ-S match and morph EQ software, NUGEN’s Surround Suite is perfect for both movie and television ...

The post NUGENS’s Surround Mix is Essential to Audio Post-Production for Today’s Evolving Media appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Live streaming the Sunday sermon with Shogun 7

Par Denise Williams

With live-streaming soaring, the class-leading Shogun 7 HDR monitor-recorder-switcher is in high demand. It’s easy-to-use live switching and multi-channel ISO recording function make it quick and easy to deploy into settings from houses of worship to colleges, to vloggers front rooms. It offers a no stress setup to create live multi-camera content in no time ...

The post Live streaming the Sunday sermon with Shogun 7 appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Kraken Pro dévoilé : mettez de l’ordre dans vos assets

Par Shadows

Initialement présenté l’été passé au SIGGRAPH, voici Kraken Pro, solution développée par Turbosquid. Si l’entité est bien connue pour son marché de modèles 3D et textures, elle a beaucoup investi en R&D ces derniers temps, comme elle nous l’expliquait l’été passé.
Kraken Pro est directement issu de ces projets : il s’agit d’un service cloud qui promet de vous aider à organiser les assets de votre studio avec génération automatique de tags, métadonnées et vignettes, grâce entre autres à de l’intelligence artificielle.
Une fois la librairie en place, il est bien évidemment possible d’effectuer des recherches poussées (format, tag, etc) et de gérer collections, accès par une partie de l’équipe, etc.
Enfin, le tout peut évidemment s’intégrer dans un pipeline déjà en place et propose éditeur web 3D, conversion automatique.

On se rendra sur le site officiel pour plus de détails. Le prix relativement élevé du service le destine aux studios ; le tarif de base permet de gérer jusqu’à 10 000 modèles et 50 utilisateurs.

L’article Kraken Pro dévoilé : mettez de l’ordre dans vos assets est apparu en premier sur 3DVF.

Avatar Mythology – Technology as metaphorical “alter-beings”

Par Filip Visnjic
Avatar Mythology – Technology as metaphorical “alter-beings”
Created by LIMAGE, a collective comprised of media designers, 3d creators, artists and coders, 'Avatar·Mythology' is a performance drawing on the worldview of Shan Hai Jing (Classic of Mountains and Seas), a Chinese classic text of mythic geography and beasts.

Polar Graphics announces product support and technical sales appointments

Par Page Melia PR

LONDON UK, 24 March 2020 — Polar Graphics, a UK leading distributor for the broadcast, post and pro-AV industries, has announced the appointments of Alexandros Galanos and Christopher Stone to further enhance ongoing business growth. Galanos joins Polar Graphics as a product support specialist with responsibility for providing technical liaison with resellers and end users ...

The post Polar Graphics announces product support and technical sales appointments appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

Beats Updater et son intégration bizarre

Par Pierre Dandumont

J’ai depuis quelques mois un casque Apple Beats, et l’intégration des logiciels est… étonnante.

Pour mettre à jour le casque ou le renommer, il faut aller télécharger un logiciel : Beats Updater. Il mélange un vrai logiciel avec une page Web : une fois lancé et le casque branché en filaire, il est possible de mettre à jour le firmware ou gérer le nom, mais dans un navigateur. Mais ce logiciel m’étonne sur deux points. Premièrement, il n’est pas distribué dans le Mac App Store mais sur le site de Beats, et deuxièmement – plus étonnant – il se met à jour dans les Préférences Système de macOS. Pas dans le Mac App Store ni en lançant le logiciel, donc, mais dans la zone réservée aux mises à jour de l’OS. Jusqu’à maintenant, je n’avais vu qu’un logiciel « tiers » dans cette zone : la version de développement de Safari.

Pas sur le Mac App Store


Une interface qui passe par le navigateur


Une intégration poussée dans macOS

C’est assez bizarre de voir qu’Apple intègre l’outil dans son OS mais ne le distribue pas réellement avec les outils classiques.

GRAVITY MEDIA’S UK POST-PRODUCTION RENTAL DIVISION MOVES TO BIGGER FACILITY

Par rlyl

Business formerly known as HyperActive Broadcast switches operations to new base near Farnborough Airport  Watford, UK, 23 March 2020 – Gravity Media, the leading global provider of complex live broadcast facilities and production services to content owners, creators and distributors, has moved its UK post-production equipment rental business to a larger facility. Its new home is a 15,000 square foot (1,400 square metre) building including purpose ...

The post GRAVITY MEDIA’S UK POST-PRODUCTION RENTAL DIVISION MOVES TO BIGGER FACILITY appeared first on NAB Show News | 2020 NAB Show Media Partner and Producer of NAB Show LIVE. Broadcast Engineering News.

❌