News Day FR

« L’intégration de l’IA chez Adobe simplifiera encore davantage le processus de conception 3D »

Avec le lancement de Firefly Video en version bêta, Adobe franchit une nouvelle étape dans l’intégration de l’IA générative dans tous ses produits. Le JDN a rencontré Ely Greenfield, CTO d’Adobe Digital Media, pour discuter des projets de l’éditeur.

JDN. Adobe a récemment enrichi Creative Cloud d’une centaine de nouvelles fonctionnalités, et a présenté de nouvelles intégrations de son modèle Firefly. Comment l’IA va-t-elle changer les pratiques des créatifs ?

Ely Greenfield est le CTO de la division Digital Media d’Adobe. © Adobe

Ely Greenfield. Depuis le lancement de notre premier modèle Adobe Firefly pour la génération d’images il y a un an et demi, nous avons toujours cherché à intégrer l’IA directement dans les flux de travail créatifs. Au cours des six derniers mois, nous avons ajouté des fonctionnalités comme la possibilité de générer des images dans des styles spécifiques via des images de référence ou même des modèles personnalisés, permettant par exemple aux utilisateurs d’entraîner l’IA avec plusieurs images pour obtenir un modèle de style très spécifique. Notre objectif est de fournir un contrôle total afin que nos clients puissent utiliser l’IA en toute sécurité, avec des résultats esthétiques et professionnels. Notre famille Firefly de modèles d’IA générative a été conçue pour être utilisée dans un environnement commercial

Adobe vient d’étendre sa famille de modèles d’IA générative à la vidéo, avec Firefly Video actuellement disponible en version bêta. Combien de temps a été nécessaire et quels types de données ont été utilisés pour le développement de ce modèle ?

Nos équipes travaillent depuis plus d’un an sur différents modèles d’IA pour la vidéo, mais nous attendions que la technologie soit mature pour la lancer en bêta. Firefly Video, en développement depuis cet été, a également bénéficié des neuf mois d’expérience accumulés avec notre modèle dédié à l’image. Concernant les données, nous n’utilisons jamais les données de nos clients. Nos modèles sont formés uniquement sur du contenu sous licence, des données sur lesquelles nous possédons des droits ou des ressources du domaine public.

Quelles seront les conditions tarifaires d’utilisation de Firefly Video ? ?

Nous ne l’avons pas encore annoncé. Nous l’avons lancé en version bêta afin que nos utilisateurs puissent déjà l’essayer. Son prix sera probablement plus élevé que celui de notre modèle de génération d’images, mais nous partagerons bientôt les détails.

À quoi s’attendre des prochaines versions de Firefly pour l’image et la vidéo ? Anticipez-vous des progrès majeurs à court terme ? ?

Nous continuons d’investir dans l’amélioration de la qualité des résultats avec Firefly Video. En termes d’améliorations futures, attendez-vous donc à des clips plus longs, à des résolutions plus élevées et à une fidélité accrue aux instructions. Par exemple, nous avons introduit la fonction « image to video », permettant aux utilisateurs d’obtenir des vidéos avec un niveau de contrôle amélioré à partir d’une simple image. En ce qui concerne les mouvements et les actions dans les vidéos, nous allons travailler plus dur pour améliorer le contrôle des détails, comme les angles de caméra et les transitions. Côté image, Firefly Image 3 permet désormais de générer des images quatre fois plus rapidement. Au total, Firefly a déjà généré plus de 13 milliards d’images. Pour le futur, nous travaillons également à offrir plus de cohérence entre les éléments et les personnages pour permettre la création de séries d’images dans des décors variés.

Quelles sont les nouvelles fonctionnalités d’IA dédiées à l’audio ? Sera-t-il bientôt possible de générer des vidéos avec des sons ou des dialogues ?

Nous avons récemment intégré Generative Extend dans Premiere Pro, qui permet d’étendre un clip audio ou vidéo de quelques secondes grâce à l’IA. Au cours de notre session Sneaks chez Adobe MAX, nous avons présenté des technologies capables de générer des éléments audio synchronisés, tels que des bruits de pas ou des bruits de crash, pour accompagner les scènes vidéo. Nous nous rapprochons d’une IA capable de générer de l’audio et de la vidéo séparément, puis de combiner les pistes. Même si des progrès existent, il faudra encore attendre des solutions pleinement exploitables et contrôlables par nos utilisateurs.

Adobe a récemment introduit plusieurs fonctionnalités qui facilitent la conception 3D avec l’IA. Cette expertise deviendra-t-elle plus accessible grâce à Firefly ? ?

Oui. Nous avons récemment lancé la version bêta de Project Neo, une application Web permettant de créer et de modifier facilement des conceptions 3D, rendant ainsi la conception 3D plus accessible. L’intégration Firefly devrait simplifier encore davantage ce processus, permettant, par exemple, d’utiliser une image de référence 2D pour générer un rendu 3D avec des instructions simples. Nous travaillons sur des technologies que nous présenterons prochainement et qui devraient grandement faciliter la conception 3D grâce à l’IA. Nous avons également introduit une nouvelle version bêta de Substance 3D Viewer, qui vous permet de visualiser et de modifier des objets 3D tout en travaillant dans Photoshop, facilitant ainsi les transitions entre la 2D et la 3D.

Pensez-vous que Firefly, actuellement intégré aux solutions Adobe et disponible via une interface web, pourrait à terme devenir un produit autonome ? ?

Notre stratégie IA repose sur trois piliers. La première est de proposer une technologie pilotable et adaptée aux besoins des créatifs et des professionnels, pour garantir des résultats précis et commercialement exploitables. Le deuxième pilier consiste à intégrer l’IA de manière native dans tous nos produits, afin qu’elle s’intègre naturellement dans les workflows existants des créateurs. Enfin, nous développons également des outils autonomes basés sur l’IA pour initier de nouvelles approches créatives. Project Concept, par exemple, est un outil autonome conçu pour l’idéation et la conceptualisation, illustrant comment l’IA peut être placée au centre du processus créatif. Cette nouvelle plateforme de développement créatif et collaboratif permet de remixer les images en temps réel afin que les professionnels de la création puissent concevoir des concepts en direct sur une seule surface de travail.

Adobe a annoncé qu’il était ouvert à l’intégration de modèles d’IA tiers dans ses outils. Quand comptez-vous intégrer ces modèles, et comment imaginez-vous leur coexistence aux côtés de Firefly ?

Nous n’avons pas encore de date à annoncer, mais nous discutons bel et bien avec plusieurs acteurs. Notre priorité est de répondre aux besoins de nos clients, sans leur imposer nos modèles si des alternatives efficaces existent déjà. Nous sommes donc ouverts à l’idée de proposer d’autres modèles au sein de nos outils. Par exemple, des modèles tiers pour des flux de travail tels que « texte vers image » ou « texte vers vidéo » pourraient être intéressants. Cependant, certaines intégrations plus techniques, comme le remplissage génératif dans Photoshop, nécessitent du temps et des ajustements.

Adobe est à l’origine de Content Credentials, une technologie open Source permettant d’identifier l’origine du contenu. Pensez-vous que cela pourrait devenir un standard à l’ère de l’IA générative, tout comme le PDF l’est devenu ? ?

Je pense que Content Credentials est en passe de devenir une norme et nous travaillons à son adoption par l’ISO. Lancée en 2019 sous l’égide de la Content Authenticity Initiative (CAI), cette technologie open Source a été conçue pour garantir l’authenticité des contenus. Aujourd’hui, il rassemble plus de 3 700 partenaires, parmi lesquels des réseaux sociaux, des médias, des fabricants de matériel comme Canon et des créatifs. Les informations d’identification de contenu permettent de sécuriser l’origine et l’intégrité du contenu via des signatures cryptographiques. Cette technologie peut être utilisée pour identifier des contenus générés par l’IA, mais aussi et surtout pour authentifier des œuvres créées par des humains. Par exemple, un appareil Canon peut désormais signer cryptographiquement une photo pour certifier sa paternité et attester que l’image n’a pas été modifiée.

L’outil Adobe Express, concurrent direct de Canva, a-t-il une chance de devenir votre solution la plus populaire, alors que le design et le graphisme semblent devenir plus populaires ces dernières années ?

On parle souvent des créatifs comme s’il s’agissait d’un seul groupe, même si cette communauté englobe de nombreuses disciplines différentes. Adobe Express est conçu pour répondre à des besoins spécifiques et constitue donc un outil précieux pour certains cas d’utilisation. Même si Express est en passe de devenir l’un de nos produits phares, son objectif n’est pas de remplacer les solutions avancées comme Photoshop ou Illustrator pour les utilisateurs experts. En revanche, les designers professionnels, experts en Illustrator ou Photoshop, peuvent utiliser Express pour importer leur contenu et créer rapidement des animations simples. Express se veut accessible et efficace, ce qui en fait un outil apprécié par de nombreux clients professionnels, notamment pour une utilisation mobile quotidienne.

Ely Greenfield est le CTO de la division Digital Media d’Adobe. Il travaille en étroite collaboration avec les équipes Creative Cloud et Document Cloud pour intégrer des technologies innovantes et accompagner l’innovation du groupe. Plus récemment, il a supervisé le développement d’Adobe Firefly, le premier modèle d’IA générative de l’entreprise. Il supervise également Adobe Research, la division axée sur l’innovation en matière d’IA et les outils de création. Avant Adobe, il était CTO d’AppDynamics. Ely Greenfield est diplômée en informatique de l’Université Brown.

 
For Latest Updates Follow us on Google News
 

Related News :