Intervjuer
Eric Landau, medgrunnlegger og CEO av Encord – Intervju-serie

Eric Landau er CEO og medgrunnlegger av Encord, en aktiv læringsplattform for datavisjon. Eric var den ledende kvantitative forskeren på en global aksje delta-en skrivebord, og plasserte tusenvis av modeller i produksjon. Før Encord, tilbrakte han nesten et tiår i høyfrekvenshandel hos DRW. Han har en S.M. i anvendt fysikk fra Harvard University, M.S. i elektroteknikk og B.S. i fysikk fra Stanford University.
På fritiden liker Eric å leke med ChatGPT og store språkmodeller og håndverkskocktailmaking.
Hva inspirerte deg til å medgrunnlegge Encord, og hvordan har din erfaring fra partikkelfysikk og kvantitativ finans formet din tilnærming til å løse “data-problemet” i AI?
Jeg begynte først å tenke på maskinlæring mens jeg arbeidet i partikkelfysikk og håndterte svært store datamengder under min tid ved Stanford Linear Accelerator Center (SLAC). Jeg brukte programvare designet for fysikere av fysikere, som vil si at det var mye å ønske i terms of en behagelig brukeropplevelse. Med enklere verktøy, ville jeg ha kunnet kjøre analyser mye raskere.
Senere, mens jeg arbeidet i kvantitativ finans hos DRW, var jeg ansvarlig for å lage tusenvis av modeller som ble deployert i produksjon. Liksom min erfaring i fysikk, fant jeg at høykvalitetsdata var kritisk for å lage nøyaktige modeller og at håndtering av komplekse, store datamengder er vanskelig. Ulrik hadde en lignende erfaring med å visualisere store bilde-datasett for datavisjon.
Når jeg hørte om hans opprinnelige ide for Encord, var jeg umiddelbart med på og forstod viktigheten. Sammen, Ulrik og jeg så en enorm mulighet til å bygge en plattform for å automatisere og strømlinje AI-datautviklingsprosessen, og gjøre det enklere for team å få den beste dataen inn i modellene og bygge pålitelige AI-systemer.
Kan du utdype på visjonen bak Encord og hvordan den sammenlignes med de tidlige dagene av datamaskiner eller internett i terms of potensiale og utfordringer?
Encords visjon er å være den grunnleggende plattformen som bedrifter avhenger av for å transformere deres data til funksjonelle AI-modeller. Vi er laget mellom et selskaps data og deres AI.
På mange måter speiler AI tidligere paradigmeskifter som personlig datamaskiner og internett, i og med at det vil bli en integrert del av arbeidsflyter for hver enkelt, bedrift, nasjon og industri. I motsetning til tidligere teknologiske revolusjoner, som har vært i stor grad begrenset av Moores lov om sammensatt komputasjonsvekst på 30 ganger hver 10 år, har AI-utviklingen blitt beriket av samtidige innovasjoner. Det beveger seg derfor i en mye raskere takt. I ordene til NVIDIA’s Jensen Huang: “For første gang ser vi sammensatte eksponentialer… Vi kompenserer med en million ganger hver tiår. Ikke en hundred ganger, ikke en tusen ganger, en million ganger.” Uten overdrivelse, er vi vitne til den raskeste teknologien i menneskehetens historie.
Potensialet her er enormt: ved å automatisere og skalerer håndtering av høykvalitetsdata for AI, adresserer vi en flaskehals som forhindrer videre AI-adoptsjon. Utfordringene er lignende tidlige dagens hindringer i tidligere teknologiske epoker: siloer, mangelen på beste praksis, begrensninger for ikke-tekniske brukere og en mangel på godt definerte abstraksjoner.
Encord Index er posisjonert som et nøkkelverktøy for å håndtere og kuratere AI-data. Hvordan skiller det seg fra andre datahåndteringsplattformer som er tilgjengelige i dag?
Det finnes noen måter som Encord Index skiller seg ut:
Index er skalerbar: Tillater brukerne å håndtere milliarder, ikke millioner, av datapunkter. Andre verktøy møter skaleringsproblemer for ustrukturert data og er begrenset i å konsolidere all relevant data i en organisasjon.
Index er fleksibel: Integrierer direkte med private data-lagring og skytjener-tilbydere som AWS, GCP og Azure. I motsetning til andre verktøy som er begrenset til en enkelt skytjener eller intern lagringssystem, er Index uavhengig av hvor dataene er plassert. Det lar deg håndtere data fra mange kilder med passende styring og tilgangskontroll som lar deg utvikle sikre og kompatible AI-applikasjoner.
Index er multimodal: Støtter multimodal AI, håndtering av data i form av bilder, videoer, lyd, tekst, dokumenter og mer. Index er ikke begrenset til en enkelt form for data som mange LLM-verktøy i dag. Menneskelig kognisjon er multimodal, og vi tror at multimodal AI vil være i hjertet av den neste bølgen av AI-fremgang, som vil erstatte chatbots og LLM.
På hvilke måter forbedrer Encord Index prosessen med å velge riktig data for AI-modeller, og hva er effekten på modellens ytelse?
Encord Index forbedrer datautvalget ved å automatisere kuratering av store datamengder, og hjelper team å identifisere og beholde bare de mest relevante dataene, mens de fjerner upålitelige eller forvrengte data. Denne prosessen reduserer ikke bare størrelsen på datamengdene, men forbedrer også kvaliteten på dataene som brukes til å trene AI-modeller. Våre kunder har sett opp til 20% forbedring i deres modeller, samtidig som de oppnår en 35% reduksjon i datamengdens størrelse og sparer hundredtusener av dollar i beregnings- og menneske-annoteringskostnader.
Med den raske integreringen av banebrytende teknologier som Meta’s Segment Anything Model, hvordan holder Encord seg foran i den raskt utviklende AI-landskapet?
Vi bygde bevisst plattformen for å kunne tilpasse seg nye teknologier raskt. Vi fokuserer på å levere en skalerbar, programvare-først-tilnærming som enkelt inkorporerer fremgang som SAM, og sikrer at våre brukere alltid er utstyrt med de siste verktøyene for å forbli konkurransedyktige.
Vi planlegger å holde oss foran ved å fokusere på multimodal AI. Encord-plattformen kan allerede håndtere komplekse datatyper som bilder, videoer og tekst, så når flere fremgang i multimodal AI kommer vår vei, er vi klare.
Hva er de vanligste utfordringene bedrifter møter når de håndterer AI-data, og hvordan hjelper Encord å adressere disse?
Det finnes tre hovedutfordringer bedrifter møter:
- Dårlig dataorganisering og kontroll: Når bedrifter skal implementere AI-løsninger, møter de ofte virkeligheten av siloede og uorganiserte data som ikke er AI-klare. Disse dataene mangler ofte sterke styringsmekanismer, og begrenser dermed mye av det fra å bli brukt i AI-systemer.
- Mangel på menneskelige eksperter: Ettersom AI-modeller takler stadig mer komplekse problemer, vil det snart være en mangel på menneskelige domene-eksperter til å forberede og validere data. Når et selskaps AI-krav øker, er det vanskelig og kostbart å skalerer opp den menneskelige arbeidsstyrken.
- Uskalerbart verktøy: Effektive AI-modeller er svært data-hungry i terms of data behov for finjustering, validering, RAG og andre arbeidsflyter. Den tidligere generasjonen av verktøy er ikke utstyrt til å håndtere mengden av data og typene av data som kreves for i dagens produksjonsklare modeller.
Encord løser disse problemene ved å automatisere prosessen med å kuratere data i skala, og gjør det enkelt å identifisere effektive data fra problempreget data og sikrer opprettelsen av effektive trening- og valideringsdatasett. Det bruker en programvare-først-tilnærming som er enkel å skalerer opp eller ned etter som datahåndteringsbehovene endrer seg. Våre AI-assisterte annoteringsverktøy gir menneske-i-løkken domene-eksperter mulighet til å maksimere arbeidsflyt-effektiviteten. Denne prosessen er spesielt kritisk i industrier som finansielle tjenester og helsevesen, hvor AI-trenerne er dyre. Vi gjør det enkelt å håndtere og forstå all en organisasjons ustrukturerte data, og reduserer dermed behovet for manuelt arbeid.
Hvordan tackler Encord problemet med dataforvrengning og underrepresenterte områder innen datasett for å sikre rettferdige og balanserte AI-modeller?
Å tacklere dataforvrengning er et kritisk fokusområde for oss i Encord. Vår plattform automatisk identifiserer og overflater områder hvor data kan være forvrent, og lar AI-teamene adresse disse problemene før de påvirker modellens ytelse. Vi sikrer også at underrepresenterte områder innen datasett er inkludert på en korrekt måte, hvilket hjelper med å utvikle rettferdigere og mer balanserte AI-modeller. Ved å bruke våre kurateringsverktøy, kan teamene være trygge på at deres modeller er trent på diverse og representative data.
Encord har nylig sikret 30 millioner dollar i Series B-finansiering. Hvordan vil denne finansieringen akselerere produktutviklingsplanene og utvidelsesplanene?
De 30 millionene dollar i Series B-finansiering vil bli brukt til å øke størrelsen på vårt produkt-, ingeniør- og AI-forskningslag over de neste seks månedene, og akselerere utviklingen av Encord Index og andre nye funksjoner. Vi utvider også vår tilstedeværelse i San Francisco med et nytt kontor, og denne finansieringen vil hjelpe oss å skalerer opp operasjonene våre for å støtte vår voksende kundebase.
Som den yngste AI-selskapet fra Y Combinator til å reise en Series B, hva tilskriver du Encords raske vekst og suksess?
En av årsakene til at vi har kunnet vokse raskt er at vi har adoptert en ekstremt kundesentrert fokus i alle områder av selskapet. Vi kommuniserer konstant med kundene, lytter nøye til deres problemer, og “bear hugger” dem for å komme til løsninger. Ved å hyperfokusere på kundens behov i stedet for hype, har vi skapt en plattform som resonerer med topp AI-team over hele industrien. Våre kunder har vært instrumental i å få oss til hvor vi er i dag. Vår evne til å skalerer raskt og effektivt håndtere kompleksiteten av AI-data har gjort oss til en attraktiv løsning for bedrifter.
Vi skylder også mye av vår suksess til våre teammedlemmer, partnere og investorer, som alle har arbeidet utrettelig for å fremme Encord. Å arbeide med verdensklasse produkt-, ingeniør- og markedsføringslag har hatt en enorm innvirkning på vår vekst.
Hvordan ser du på rollen til AI-dataplattformer som Encord i de neste fem årene?
Ettersom AI-applikasjoner vokser i kompleksitet, vil behovet for effektive og skalerbare datahåndteringsløsninger bare øke. Jeg tror at hver enkelt bedrift til slutt vil ha en AI-avdeling, på samme måte som IT-avdelinger eksisterer i dag. Encord vil være den eneste plattformen de trenger for å håndtere de enorme mengdene data som kreves for AI og få modellene i produksjon raskt.












