La nouvelle fonctionnalité Visual Intelligence d’iOS 18.2 offre un moyen rapide de trouver des informations simplement en pointant l’appareil photo de l’iPhone 16 vers un objet dans le monde réel. Ensuite, vous pouvez demander à ChatGPT d’expliquer ce que vous regardez, effectuer une recherche d’image inversée pour trouver des produits et rechercher les choses visuellement, obtenir des informations sur une entreprise en vous promenant dans la rue et ajouter rapidement des événements à votre calendrier.
Voici comment cela fonctionne.
Comment utiliser l’intelligence visuelle sur iPhone 16
Si l’Intelligence Visuelle s’appuie fortement sur des tiers comme ChatGPT et Google, son intégration dans l’iPhone 16 en fait un outil puissant pour un usage quotidien. Le nouvel outil d’IA d’Apple met ces sources d’informations incroyablement utiles directement à portée de main.
Cependant, vous aurez besoin de la bonne combinaison de matériel et de logiciels. Apple a développé l’intelligence visuelle exclusivement pour les propriétaires d’iPhone 16, car la fonctionnalité IA utilise le nouveau bouton de contrôle de la caméra uniquement disponible sur ces téléphones. Et, comme mentionné, vous devrez exécuter iOS 18.2 ou une version ultérieure.
Table des matières : Comment utiliser l’intelligence visuelle sur l’iPhone 16
- Installez iOS 18.2 et activez Apple Intelligence
- Cliquez et maintenez le contrôle de la caméra
- Recherchez les choses en prenant une photo
- Autres fonctionnalités intelligentes dépendant du contexte
- Comment fonctionne l’Intelligence Visuelle ?
- Plus de fonctionnalités Apple Intelligence
Installez iOS 18.2 et activez Apple Intelligence
Les premières fonctionnalités Apple Intelligence sont devenues disponibles dans iOS 18.1. L’intelligence visuelle fait partie du deuxième série de fonctionnalités d’IA d’Apple, actuellement en test bêta dans iOS 18.2. Vous pouvez (et devriez !) installer la version bêta publique d’iOS 18.2 en allant sur Paramètres > Général > Mise à jour logicielle > Mises à jour bêta. Après la mise à jour, rendez-vous sur Paramètres > Apple Intelligence et Siri pour activer Apple Intelligence.
Cliquez et maintenez le contrôle de la caméra
Vous lancez Visual Intelligence en cliquant et en maintenant le contrôle de la caméra, un geste qui imite un clic et en maintenant le bouton latéral pour activer Siri. Étant donné que le contrôle de la caméra n’est disponible que sur l’iPhone 16, la fonctionnalité n’est disponible que sur ces téléphones. Apple pourrait probablement activer un bouton du Centre de contrôle pour utiliser la fonctionnalité sur les modèles d’iPhone 15 Pro, mais n’a pas choisi de l’activer.
Après avoir cliqué et maintenu le contrôle de la caméra, vous verrez une brève animation et une interface qui ressemble à la caméra de l’iPhone, mais avec moins de commandes.
Recherchez les choses en prenant une photo
Cliquez à nouveau sur le contrôle de la caméra ou appuyez sur l’un des boutons à l’écran pour rechercher tout ce qui est visible. Les deux options suivantes sont toujours disponibles :
- Demander enverra la photo à ChatGPT. Le chatbot d’OpenAI pourra peut-être expliquer ce que vous regardez et vous pouvez lui poser des questions de suivi pour plus d’informations. En essayant cela avec un tas d’objets étranges dans mon bureau, je suis reparti assez impressionné par ce que ChatGPT a réussi, mais bien sûr, j’ai détecté quelques erreurs. Vous ne pouvez pas entièrement faire confiance à ChatGPT comme seule Source d’informations ; vous devriez toujours vérifier les faits pour quelque chose d’important.
- Recherche utilise une recherche d’image inversée Google pour identifier l’objet. Cela s’avère utile si vous souhaitez rechercher un produit ou un objet en ligne. Appuyez sur un résultat pour ouvrir le lien dans Safari (ou votre navigateur Web préféré).
Autres fonctionnalités intelligentes d’intelligence visuelle dépendant du contexte
Les autres fonctionnalités intelligentes de Visual Intelligence dépendent davantage du contexte :
- Événements: Vous pouvez pointer l’appareil photo de votre iPhone 16 vers quelque chose contenant des informations sur un événement, comme une affiche ou un document, et ajouter rapidement l’événement à votre calendrier. S’il s’agit d’un festival de musique ou d’un concert, l’outil peut l’associer à un événement et fournir des détails. Jusqu’à présent, mes tests ont donné des résultats inégaux, mais je n’ai pas vraiment pu le tester de manière approfondie. Cela pourrait devenir super pratique.
- Entreprises : Prenez une photo d’un restaurant et Visual Intelligence référencera votre emplacement avec les informations Apple Maps pour rechercher le restaurant ou l’entreprise que vous regardez. Vous pouvez voir un numéro de téléphone, un site Web, un menu et plus encore. Il semble que cela pourrait s’avérer incroyablement utile. Si vous marchez dans la rue pour décider où manger, vous pourrez peut-être obtenir rapidement des informations sans rechercher manuellement chaque nom que vous voyez.
Comment fonctionne l’Intelligence Visuelle ?
Techniquement parlant, aucune de ces fonctionnalités d’intelligence visuelle n’est ultra intelligente. ChatGPT et Google Reverse Image Search sont tous deux des services tiers. L’extraction d’informations de l’appareil photo de l’iPhone, telles que les événements et les numéros de téléphone, est basée sur Live Text, une fonctionnalité dont dispose l’iPhone depuis des années. Et l’intelligence visuelle n’utilise pas l’IA pour faire grand-chose lors de l’identification des entreprises ; il utilise principalement le GPS et la boussole de l’iPhone avec Apple Maps – n’importe quel iPhone peut le faire.
Cependant, dans la pratique, ce sont toujours des fonctionnalités utiles et pratiques. Je pense que si Apple Intelligence n’était pas une grande avancée en matière de marketing et de marque, Apple serait plus franc sur le fait qu’il s’agit d’un reconditionnement pratique de différents services tiers, plutôt que de le présenter comme une nouvelle technologie d’IA.