High-tech

Adobe intègre l’IA : nouveautés majeures pour Express et Photoshop

Adobe a lancé des assistants IA pour Express et Photoshop, rejoignant ainsi la compétition aux assistants IA qui se développe depuis 18 mois. Dans Express, l’assistant se présente sous la forme d’un mode dédié complet, tandis que dans Photoshop, il s’intègre dans la barre latérale pour assister les utilisateurs dans des tâches comme la sélection automatique d’objets et la création de masques.

Adobe a récemment introduit des assistants d’intelligence artificielle pour Express et Photoshop. Officiellement, cela promet une création simplifiée, une édition automatisée et les merveilles de l’IA. En réalité, cette initiative marque le fait qu’Adobe rejoint enfin la frénésie des assistants IA à laquelle participe l’ensemble du secteur technologique depuis 18 mois.

Deux assistants, deux approches (complètement différentes)

Adobe a opté pour deux stratégies distinctes pour ses produits phares.

Dans Express, l’assistant se présente sous la forme d’un mode dédié complet. L’utilisateur passe à ce mode, saisit ses instructions textuelles pour générer des images et des designs, puis peut revenir aux outils traditionnels si nécessaire. Cela marque une rupture nette avec l’interface habituelle.

Dans Photoshop (en bêta fermée), l’assistant s’intègre dans la barre latérale. Plus conventionnel, il comprend les calques, sélectionne automatiquement des objets, crée des masques et supprime les arrière-plans. Ce sont des tâches répétitives que les utilisateurs effectuent déjà depuis des années, mais en mode conversationnel.

blank

Adobe permet également aux utilisateurs de Photoshop d’accéder aux fonctionnalités de remplissage génératif grâce aux modèles d’IA tiers de Google et de Black Forest Labs.

blank

Alexandru Costin, vice-président de l’IA générative chez Adobe, explique cette disparité par les publics ciblés. Express s’adresse aux étudiants et aux professionnels pressés qui recherchent une solution rapide. L’objectif est de naviguer entre deux mondes selon le besoin. Photoshop, quant à lui, conserve son approche professionnelle, avec l’assistant en tant que soutien, et non comme chef d’orchestre.

Adobe teste deux modèles pour déterminer lequel s’aligne le mieux avec les usages. Intelligent ou prudent.

Ce qui pourrait vraiment servir

Les assistants IA proposés depuis deux ans sont souvent perçus comme des gadgets. Gadget dans le sens où il n’est pas toujours simple d’incorporer ces outils sans perturber le flux de travail habituel. Néanmoins, certaines fonctionnalités semblent légitimement utiles.

La sélection automatique d’objets et la création de masques dans Photoshop en sont un exemple. Si l’intelligence artificielle parvient réellement à comprendre la structure des calques et à effectuer cette tâche proprement, cela pourrait faire gagner un temps considérable. Créer des masques complexes manuellement est pénible. Si l’assistant réussit cela en quelques secondes par le biais d’une simple instruction, c’est un vrai bonus.

L’automatisation des tâches répétées est également un atout. Supprimer 50 arrière-plans d’une série de produits ou harmoniser des couleurs sur un lot de photos… Cela peut effectivement aider. Ce n’est peut-être pas aussi séduisant que « créer une œuvre d’art avec un prompt magique », mais c’est essentiel au quotidien.

En revanche, le mode assistant complet d’Express suscite des interrogations. Combien de personnes vont réellement élaborer des designs complètes uniquement en utilisant des instructions textuelles, sans toucher aux outils traditionnels ? Bien que l’idée soit attrayante pour les non-designers, dès qu’un contrôle précis est requis (et il le sera), il faudra revenir aux outils standards. Quel est donc l’intérêt de ce mode dédié ?

« Ils agissent comme des coéquipiers compétents : ils s’occupent des tâches qui vous dispersent de votre métier, vous permettant ainsi d’accomplir davantage tout en maintenant votre créativité »

Un point intéressant à noter : Adobe permet de sélectionner des modèles tiers pour le remplissage génératif. Gemini de Google, FLUX.1 de Black Forest Labs… Les utilisateurs ne sont pas limités à l’écosystème Adobe. Il est rare qu’une entreprise offre cette liberté.

Après avoir choisi leur image et demandé à Generative Fill (par exemple, décrire un objet à insérer ou remplacer un objet ou une personne existante), les utilisateurs peuvent alterner entre Gemini 2.5 Flash de Google, Flux.1 Kontext de Black Forest et le modèle d’image Firefly d’Adobe.

Project Moonlight et ChatGPT : vaporware premium

Passons maintenant à la partie purement marketing.

blank

Adobe a annoncé le « Project Moonlight », un assistant qui coordonne divers outils Adobe et se connecte à vos réseaux sociaux pour « mieux comprendre votre style ». Actuellement, il est en phase de développement initial. Bêta privée.

Adobe « envisage également » une intégration d’Express dans ChatGPT via l’API d’OpenAI.

Ces annonces ont surtout pour objectif de rassurer les investisseurs et montrer qu’Adobe reste actif alors que l’IA prend de l’ampleur . En termes d’impact immédiat pour les utilisateurs, cela reste limité. Le Project Moonlight pourrait paraître prometteur dans 18 mois, ou se retrouver dans les limbes des prototypes oubliés.

Adobe suit simplement la tendance, ni plus ni moins. Les fonctionnalités concrètes pourraient apporter une aide appréciable. Les autres éléments relèvent d’un teasing marketing pour prouver que l’entreprise s’engage dans l’IA comme tous ses concurrents.