Navigation
Recherche
|
Apple présente un modèle bien plus rapide que CLIP pour identifier le contenu des images
vendredi 26 avril 2024, 09:55 , par Mac Generation
Apple continue de préparer le terrain pour une grosse vague d’IA, avec la publication de nouvelles recherches dans ce domaine. Cette fois, des chercheurs en la matière ont mis au point un modèle neuronal de classement d’images concurrent de CLIP d’OpenAI, un outil capable d’identifier ce que contient une photo en somme. CatLIP est annoncé comme étant nettement plus rapide : 2,7 fois plus que CLIP pour être précis, ce qui est intéressant car la vitesse d’exécution était justement un point faible du modèle d’OpenAI.
Image Apple. Grâce à ce gain, on pourrait envisager d’avoir la précision de CLIP à une vitesse suffisamment accrue pour offrir des résultats en temps réel ou pas loin. En comparaison, les outils qui reposent sur le modèle d’OpenAI ont besoin d’un temps d’analyse assez long en amont et de beaucoup de ressources pour y parvenir.
https://www.macg.co/aapl/2024/04/apple-presente-un-modele-nettement-plus-rapide-que-clip-pour-identi...
|
59 sources (15 en français)
Date Actuelle
ven. 8 nov. - 14:24 CET
|