Financement
Collov Labs lève 23 M$ de financement de série A pour miser sur l’IA visuelle comme prochaine interface

Collov Labs a levé 23 millions de dollars dans le cadre d’un financement de série A et a lancé un nouveau laboratoire de recherche visant à faire progresser les systèmes d’IA visuelle, signalant un changement plus large dans la façon dont l’intelligence artificielle peut évoluer au-delà de l’interaction basée sur le texte.
Le tour, soutenu par Brightway Future Capital, Taihill Venture et Mindworks Capital, servira à financer le développement de systèmes conçus pour interpréter les images et les entrées de caméra, dans le but de permettre à l’IA de comprendre et d’agir sur le monde physique.
Un déplacement loin de l’IA basée sur les discussions
Une grande partie de l’adoption de l’IA d’aujourd’hui a centré autour des interfaces de discussion. Collov Labs se construit autour d’un prétexte différent : que l’entrée visuelle deviendra le moyen principal par lequel les gens interagiront avec l’IA.
Au lieu de provoquer des systèmes avec du texte, l’entreprise se concentre sur la possibilité pour les utilisateurs de pointer une caméra sur une scène et de faire en sorte que l’IA interprète le contexte, raisonne sur ce qu’elle voit et aide à des actions dans le monde réel. Cela reflète une transition plus large de l’industrie vers l’IA multimodale, où les systèmes combinent la vision, le langage et la raison dans une expérience unifiée.
L’idée n’est pas entièrement nouvelle, mais les progrès récents en termes de calcul, de modèles et de traitement sur appareil rendent cela de plus en plus pratique.
Construire vers l’interaction avec l’IA dans le monde réel
Collov Labs développe des systèmes qui combinent des modèles de diffusion, une raison spatiale et des flux de travail agents. L’objectif est de dépasser la reconnaissance d’images statiques pour aller vers des systèmes qui peuvent comprendre les relations au sein d’une scène et exécuter des actions multétapes.
Ceci s’aligne sur une poussée croissante vers des systèmes d’IA qui interagissent avec les environnements physiques, en particulier à mesure que le matériel évolue pour prendre en charge le traitement en temps réel et le contexte persistant.
L’arrière-plan de l’entreprise reflète cet accent. Son équipe a une expérience dans l’IA multimodale, les systèmes de recommandation à grande échelle et l’apprentissage automatique appliqué à la fois dans l’académie et dans l’industrie.
Des outils de conception à une couche d’IA plus large
Les produits existants de Collov, notamment ses outils de conception alimentés par l’IA, offrent un aperçu de la façon dont ces systèmes fonctionnent dans la pratique. L’entreprise a initialement gagné en traction dans des domaines tels que la conception intérieure et la génération de contenu visuel, où l’IA peut interpréter les dispositions spatiales et générer des sorties réalistes.
Les premières itérations de l’entreprise se sont concentrées sur des plateformes de conception et des outils d’automatisation alimentés par l’IA, une approche qui a déjà vu une traction commerciale dans des cas d’utilisation tels que l’immobilier, la vente au détail et le commerce électronique.
Ces produits agissent maintenant comme une boucle de rétroaction, fournissant des données du monde réel qui aident à améliorer les modèles de l’entreprise et à affiner la façon dont ils comprennent les environnements visuels.
Pourquoi l’IA visuelle peut élargir l’adoption
L’une des hypothèses sous-jacentes à la stratégie de Collov Labs est que les interfaces basées sur le texte ont une portée limitée. Alors que les chatbots ont conduit à une prise de conscience, la plupart de la population mondiale n’a pas encore significativement interagi avec les outils d’IA.
Les interfaces visuelles, en revanche, sont inhérentement plus intuitives. Le déplacement reflète les transitions antérieures dans l’informatique, où les interfaces graphiques ont rendu les systèmes accessibles à un public plus large au-delà des utilisateurs techniques.
Si cette approche est couronnée de succès, elle pourrait réduire les barrières à l’entrée pour l’adoption de l’IA et étendre son utilisation dans des industries où le contexte visuel est essentiel, notamment la vente au détail, la conception, la logistique et les opérations sur le terrain.
L’importance du matériel et de l’IA sur appareil
Les progrès du matériel sont un facteur clé qui permet le développement de l’IA visuelle. À mesure que les capacités de traitement améliorent sur les smartphones, les accessoires et les puces spécialisées, plus de travail nécessaire pour interpréter les images et les vidéos peut se faire localement en temps réel. Cela réduit la latence et permet aux systèmes de répondre instantanément à ce que l’utilisateur voit, plutôt que de compter uniquement sur le traitement basé sur le cloud.
Ce déplacement change également la façon dont l’IA est livrée. Au lieu d’exister principalement comme des applications autonomes, l’intelligence visuelle peut devenir intégrée dans les appareils eux-mêmes, fonctionnant en continu en arrière-plan. Cela ouvre la porte à des interactions plus conscientes du contexte, mais soulève également des préoccupations pratiques concernant la précision, la fiabilité et le comportement de ces systèmes dans des environnements réels imprévisibles.
Implications plus larges pour l’interaction avec l’IA
Le mouvement vers l’IA visuelle suggère un déplacement progressif dans l’interaction homme-ordinateur. Les systèmes qui peuvent interpréter les scènes et les relations spatiales peuvent réduire le besoin d’entrées structurées, rendant l’IA plus accessible aux utilisateurs qui sont moins à l’aise avec les outils basés sur le texte.
En même temps, la complexité des environnements réels introduit de nouveaux défis. Interpréter mal une scène ou manquer un contexte clé peut conduire à des sorties incorrectes, et les conséquences de ces erreurs deviennent plus importantes à mesure que l’IA se rapproche de la prise de décision.
Plutôt que de remplacer les interfaces existantes, l’IA visuelle est plus susceptible d’évoluer aux côtés de celles-ci, ajoutant une autre couche d’interaction. Avec le temps, cela pourrait conduire à une expérience plus intégrée où l’IA répond au contexte autant qu’aux instructions explicites.










