Interviews
Lior Hakim, Co-founder & CTO van Hour One – Interview Series

Lior Hakim, Co-founder en Chief Technical Officer van Hour One, een industrieleider in het creëren van virtuele mensen voor professionele videocommunicatie. De levensechte virtuele personages, die exclusief zijn gemodelleerd naar echte mensen, dragen menselijke expressiviteit over via tekst, waardoor bedrijven hun boodschap kunnen verheffen met ongeëvenaarde gemakkelijkheid en schaalbaarheid.
Kunt u het verhaal achter Hour One delen?
De oorsprong van Hour One kan worden herleid tot mijn betrokkenheid bij de crypto-domein. Na dat avontuur begon ik na te denken over wat de volgende grote stap zou zijn die massale cloud-computing kan benutten en toen machine learning populair werd in aanbevelingen en voorspellende analyse, werkte ik aan een aantal ML-infrastructuurprojecten. Door dit werk raakte ik vertrouwd met vroege generatieve werken en was ik vooral geïnteresseerd in GANs op dat moment. Ik gebruikte alle compute die ik kon krijgen om die toen-nieuwe technologieën te testen. Toen ik mijn resultaten liet zien aan een vriend die een bedrijf had in het veld, zei hij dat ik Oren moest ontmoeten. Toen ik vroeg waarom, zei hij dat we misschien allebei zouden stoppen met het verspillen van zijn tijd en elkaars tijd zouden verspillen. Oren, mijn co-founder en CEO van Hour One, was een vroege investeerder in AI op dat moment en terwijl we op verschillende plaatsen stonden, bewogen we allebei in dezelfde richting, en de oprichting van Hour One als het Huis van de Virtuele Mens was een onvermijdelijke reis.
Wat zijn enkele van de machine learning-algoritmen die worden gebruikt, en wat is het deel van het proces dat Generative AI is?
In het domein van video-creatie zijn machine learning-algoritmen instrumenteel in elke fase. In de scriptfase bieden Large Language Models (LLM’s) onmisbare ondersteuning bij het creëren of verfijnen van inhoud om verleidelijke verhalen te garanderen. Als we overgaan naar audio, veranderen Text-to-Speech (TTS)-algoritmen tekst in organische, emotionele stemmen. Overgaand naar de visuele weergave, neemt ons eigendomsrechtelijke Multimodal fundamentemodel van de virtuele mens centraal. Dit model, versterkt met Generative Adversarial Networks (GANs) en Variational Autoencoders (VAEs), is bedreven in het overbrengen van contextuele emoties, articulatie en een gearticuleerde, boeiende en authentieke levering. Dergelijke generatieve technieken veranderen tekst en audio-cues in levensechte visuele weergaven van virtuele mensen, waardoor hyperrealistische video-uitvoer ontstaat. De orkestratie van LLM’s, TTS, GANs, VAEs en ons Multimodal model maakt Generative AI niet alleen een deel, maar de ruggengraat van de moderne video-productie.
Hoe onderscheidt Hour One zich van concurrerende video-generatoren?
Bij Hour One onderscheidt ons onderscheid van andere video-generatoren zich niet van een obsessie met concurrentie, maar van een diepgewortelde filosofie die onze aanpak van kwaliteit, productontwerp en marktstrategie beheerst. Ons leidende principe is om altijd de menselijke factor te prioriteren, waardoor onze creaties authentiek en emotioneel resonerend zijn. We zijn trots op het leveren van de beste kwaliteit in de industrie zonder compromissen. Door geavanceerde 3D-video-rendering te gebruiken, bieden we onze gebruikers een echte cinematische ervaring. Bovendien is onze strategie uniek van mening; we beginnen met een gepolijst product en itereren dan snel naar perfectie. Deze aanpak zorgt ervoor dat onze aanbiedingen altijd een stap vooruit zijn, waardoor nieuwe benchmarks in video-generatie worden gesteld.
Met uw uitgebreide achtergrond in GPUs, kunt u ons enkele inzichten delen over uw mening over NVIDIA Next-Generation GH200 Grace Hopper Superchip Platform?
De Grace Hopper-architectuur is echt een game-changer. Als een GPU effectief kan werken vanuit het RAM van de host zonder de berekening volledig te beperken, ontgrendelt dit momenteel onmogelijke model/versneller-verhoudingen in training, en als gevolg daarvan veel gewenste flexibiliteit in trainingsklusgroottes. Onder de voorwaarde dat het hele aandeel van GH200 niet wordt opgeslokt door LLM-training, hopen we het te gebruiken om de prototyping-kosten voor onze multi-modale architectuur aanzienlijk te verlagen.
Zijn er andere chips die momenteel op uw radar staan?
Ons hoofddoel is om de gebruiker video-inhoud te bieden die prijsconcurrerend is. Gezien de vraag naar grote geheugengroottes van GPUs op dit moment, zijn we constant aan het optimaliseren en proberen we elke GPU-cloudaanbieding op de top-cloudserviceproviders uit. Bovendien streven we ernaar om ten minste gedeeltelijk platformonafhankelijk te zijn voor sommige van onze werklasten. Daarom zijn we TPUs en andere ASICs aan het bekijken en letten we ook goed op AMD. Uiteindelijk zal elke hardware-geleide optimalisatieroute die kan resulteren in een betere FLOPs/$-verhouding worden onderzocht.
Wat is uw visie op toekomstige vooruitgang in video-generatie?
In 24 maanden zullen we geen onderscheid meer kunnen maken tussen een gegenereerde mens en een opgenomen mens. Dat zal veel dingen veranderen, en we staan aan de vooravond van die vooruitgang.
Op dit moment zijn de meeste gegenereerde video’s voor computers en mobiele apparaten, wat moet er veranderen voordat we foto-realistische gegenereerde avatars en werelden hebben voor zowel augmented reality als virtual reality?
Op dit moment beschikken we over de mogelijkheid om foto-realistische avatars en werelden te genereren voor zowel augmented reality (AR) als virtual reality (VR). Het belangrijkste obstakel is latentie. Terwijl de levering van hoge kwaliteit, real-time graphics aan edge-apparaten zoals AR- en VR-headsets essentieel is, hangt het bereiken hiervan af van verschillende factoren. Allereerst zijn we afhankelijk van vooruitgang in chipfabricage om snellere en efficiëntere verwerking te garanderen. Naast deze optimalisatie van stroomverbruik is cruciaal om een langere gebruiksduur zonder compromissen te garanderen. Ten slotte verwachten we software-doorbraken die de kloof tussen generatie en real-time rendering kunnen overbruggen. Als deze elementen samen komen, zullen we een toename zien in het gebruik van foto-realistische avatars en omgevingen op zowel AR- als VR-platforms.
Wat verwacht u dat de volgende grote doorbraak in AI zal zijn?
Wanneer het gaat om de volgende significante doorbraak in AI, is er altijd een sfeer van opwinding en verwachting. Terwijl ik enkele vooruitgang hebt genoemd, kan ik delen dat we op dit moment actief werken aan verschillende baanbrekende innovaties. Ik zou graag specifieke details willen geven, maar voor nu moedig ik iedereen aan om onze aanstaande releases in de gaten te houden. De toekomst van AI houdt enorme beloften in, en we zijn enthousiast om aan de vooravond van deze pioniersinspanningen te staan. Blijf op de hoogte!
Is er nog iets anders dat u zou willen delen over Hour One?
U moet zeker ons discord-kanaal en API bekijken, nieuwe toevoegingen aan ons platformaanbod op Hour One.












