Finansiering
Collov Labs indsamler 23 millioner dollars i serie A for at satse på visuel AI som det næste interface

Collov Labs har indsamlet 23 millioner dollars i serie A og lanceret et nyt forskningslaboratorium med det formål at fremme visuelle AI-systemer, hvilket signalerer en bredere skift i, hvordan kunstig intelligens måske udvikler sig ud over tekstbaseret interaktion.
Runden, som er støttet af Brightway Future Capital, Taihill Venture og Mindworks Capital, vil finansiere udviklingen af systemer, der er designede til at fortolke billeder og kamera-indgang, med det formål at aktivere AI til at forstå og handle på den fysiske verden.
En skift væk fra chat-baseret AI
Meget af den nuværende AI-adopterings har centreret sig omkring chat-grænseflader. Collov Labs bygger på en anden præmis: at visuel input vil blive den primære måde, hvorpå mennesker interagerer med AI.
I stedet for at udløse systemer med tekst, fokuserer virksomheden på at aktivere brugere til at pege en kamera på en scene og lade AI fortolke konteksten, resonere om, hvad den ser, og assistere med virkelige handlinger. Dette afspejler en bredere industriel overgang mod multimodal AI, hvor systemer kombinerer vision, sprog og resonnering i en samlet oplevelse.
Idéen er ikke helt ny, men nyere fremskridt i beregning, modeller og på-enhed-behandling gør det mere og mere praktisk.
Bygning mod virkelige AI-interaktioner
Collov Labs udvikler systemer, der kombinerer diffusionsmodeller, rumlig resonnering og agente arbejdsprocesser. Målet er at gå ud over statisk billedgenkendelse mod systemer, der kan forstå relationer inden for en scene og udføre flertrins-handlinger.
Dette afsnit er i overensstemmelse med en voksende tendens mod AI-systemer, der interagerer med fysiske miljøer, især efterhånden som hardware udvikler sig til at understøtte realtidsbehandling og varig kontekst.
Virksomhedens baggrund afspejler denne fokus. Dets team har erfaring i multimodal AI, store anbefalingssystemer og anvendt maskinlæring på tværs af både akademiske og industrielle områder.
Fra designværktøjer til en bredere AI-lag
Collovs eksisterende produkter, herunder dets AI-drevne designværktøjer, giver et glimt af, hvordan disse systemer fungerer i praksis. Virksomheden opnåede oprindeligt trækkraft i områder som indretningsdesign og visuel indholdsgenerering, hvor AI kan fortolke rumlige layout og generere realistiske output.
Tidligere iterationer af forretningen fokuserede på AI-drevne designplatforme og automatiseringsværktøjer, en tilgang, der allerede har set kommerciel trækkraft på tværs af ejendoms-, detail- og e-handelsbrugstilfælde.
Disse produkter fungerer nu som en feedback-løkke, der forsyner virkelige data, der hjælper med at forbedre virksomhedens modeller og finjustere, hvordan de forstår visuelle miljøer.
Hvorfor visuel AI måske udvider adoption
En af de underliggende antagelser bag Collov Labs’ strategi er, at tekstbaserede grænseflader har begrænset rækkevidde. Selvom chatbots har drevet opmærksomhed, har størstedelen af den globale befolkning endnu ikke meningsfuldt interageret med AI-værktøjer.
Visuelle grænseflader er derimod mere intuitive. Skiftet spejler tidligere overgange i computing, hvor grafiske grænseflader gjorde systemer tilgængelige for en bredere publikum ud over tekniske brugere.
Hvis denne tilgang er succesfuld, kan den potentielt sænke barrieren for AI-adopterings og udvide dens brug på tværs af brancher, hvor visuel kontekst er afgørende, herunder detail, design, logistik og feltoperationer.
Udviklingen af hardware og på-enhed-AI
Fremgang i hardware er en nøgleaktiverende faktor bag opkomsten af visuel AI. Da behandlingskapaciteterne forbedres på smartphones, wearables og specialiserede chips, kan mere af det arbejde, der kræves for at fortolke billeder og video, ske lokalt i realtid. Dette reducerer forsinkelsen og giver systemerne mulighed for at reagere øjeblikkeligt på, hvad en bruger ser, i stedet for at afhænge fuldstændigt af cloud-baseret behandling.
Dette skift ændrer også, hvordan AI leveres. I stedet for at eksistere primært som selvstændige programmer, kan visuel intelligens blive integreret i selv enhederne, og fungere kontinuerligt i baggrunden. Dette åbner døren for mere kontekstbevidste interaktioner, men rejser også praktiske bekymringer omkring nøjagtighed, pålidelighed og hvordan disse systemer opfører sig i uforudsigelige virkelige miljøer.
Broader implikationer for AI-interaktion
Bevægelsen mod visuel AI antyder en gradvis skift i menneske-computer-interaktion. Systemer, der kan fortolke scener og rumlige relationer, kan reducere behovet for strukturerede input, og gøre AI mere tilgængelig for brugere, der er mindre komfortable med tekstbaserede værktøjer.
På samme tid introducerer kompleksiteten af virkelige miljøer nye udfordringer. Misfortolkning af en scene eller manglende nøglekontekst kan føre til forkerte output, og konsekvenserne af disse fejl bliver mere betydningsfulde, efterhånden som AI nærmer sig beslutningstagning.
I stedet for at erstatte eksisterende grænseflader er visuel AI mere sandsynligt at udvikle sig sideløbende med dem, og tilføje endnu et lag af interaktion. Over tid kan dette føre til en mere integreret oplevelse, hvor AI reagerer på kontekst lige så meget som på eksplisitte instruktioner.












