Apple présente un modèle beaucoup plus rapide que CLIP pour identifier le contenu des images

Apple présente un modèle beaucoup plus rapide que CLIP pour identifier le contenu des images
Descriptive text here

Apple continue de préparer le terrain pour une grande vague d’IA, avec la publication de nouvelles recherches dans ce domaine. Cette fois, les chercheurs du domaine ont développé un modèle de classification d’images neuronales qui concurrence le CLIP d’OpenAI, un outil capable d’identifier ce que contient réellement une photo. CatLIP est annoncé comme étant nettement plus rapide : 2,7 fois plus rapide que CLIP pour être précis, ce qui est intéressant car la vitesse d’exécution était justement un point faible du modèle OpenAI.

Image de pomme.

Grâce à ce gain, on pourrait envisager de disposer de la précision du CLIP à une vitesse suffisamment accrue pour proposer des résultats en temps réel ou à proximité. En comparaison, les outils basés sur le modèle OpenAI nécessitent un temps d’analyse assez long en amont et beaucoup de ressources pour y parvenir.

Queryable : le moteur de recherche intelligent qu’Apple devrait intégrer à Photos

Les résultats mis en avant par Apple suggèrent que la qualité de l’analyse est maintenue malgré l’augmentation de la vitesse de traitement. De là à penser que Photos pourrait intégrer CatLIP dans iOS 18 et macOS 15 ? Peut-être aurons-nous la réponse en juin…

 
For Latest Updates Follow us on Google News
 

PREV Mohamed Amra est-il plus facilement localisé en France ou à l’étranger ? – .
NEXT Le gestionnaire de déchets WM explore la possibilité de vendre son unité de gaz naturel renouvelable pour 3 milliards de dollars, selon des sources – 16/05/2024 à 20h22 – .