Interviews
James Kaplan, CEO & Co-Founder of MeetKai Metaverse – Interview Serie

James Kaplan, er CEO & Co-Founder of MeetKai en kunstig intelligens-, VR- og konversations søgefirma baseret i Los Angeles, Californien, som i øjeblikket leder AI-talsækkerracen med funktioner, der aldrig er set før. Dens konversations AI kan forstå mere komplekst sprog og give personlige resultater i en naturlig samtale om mange emner i forskellige virkeligheder. MeetKais teknologi er globalt udplaceret gennem iOS, Google Play og AppGallery.
Du havde en passion for AI i en tidlig alder af 6, hvordan fik du først introduceret til denne teknologi?
Min introduktion til AI kom fra videospil. Først var det fra at forsøge at forstå, hvordan AI fungerede i spillet Oregon Trail – ikke særlig intelligent, men alligevel en form for AI. Derefter voksede min interesse for AI yderligere, da jeg kom ind i MMORPG’er. Jeg kunne virkelig lide at spille online-spil, men jeg hadede at “grinde” efter genstande. Derfor kom jeg til at skrive bots.
Hvad var nogle af de første AI-programmer, du kodede?
At skrive bots til MMO’er var virkelig min første forsøg på at udvikle en bestemt form for AI. I begyndelsen var mine bots ret simple og tættere på makroer end kunstig intelligens. Men da jeg blev ældre, og bot-detection blev bedre i mange spil, begyndte dette at kræve, at bot’erne så ud som en spiller. Jeg har altid nydt at skrive bots – jeg endte med at skrive en bot til at vinde en Taylor Swift-konkurrence, mens jeg var i skole (og hun kom faktisk til at optræde!). Ligeledes skrev jeg også den første Pokémon Go-bot og fik desværre mange mennesker bandlyst, da jeg mistede interessen for at undgå opdagelse.
Du lancerede MeetKai i 2018 efter at have været frustreret over nuværende AI-lydassistenter. Hvorfor tilbyder de fleste AI-assistenter en mangelfuld oplevelse?
Kernen af problemet er, at de fleste AI-assistenter afhænger for meget af eksterne API’er til opfyldelse. Selv når de kontrollerer opfyldelsen, såsom Alexa for e-commerce-søgning, lider de under de samme problemer. Hvordan kan man forvente, at en lydassistent er intelligent, når alt, den gør, er at omdanne tale til tekst og indsætte denne tekst i en tekstbaseret søgemaskine? Vi startede MeetKai med idéen om, at vi kunne levere en “leapfrog”-AI-assistent ved at kontrollere hele den end-to-end-behandlingspipeline, der udgør en lydassistent. Vi udviklede en konversationsbaseret søgemaskine i stedet for en nøgleordsbaseret til at understøtte mere komplicerede forespørgsler og samtaler. Andre assistenter er fastlåst med mangelfulde oplevelser, fordi de ikke kan bygge multi-turn-samtale-understøttelse oven på sådanne begrænsende faktorer. Mens vores mål er at nå dertil, er vi stadig meget tidligt i udviklingen af vores teknologi til at opfylde samme antal domæner som eksisterende spillere.
Hvad er nogle af de naturlige sprogforståelses- og naturlige sprogbehandlingsudfordringer bag opbygningen af en state-of-the-art-lydassistent-oplevelse?
En af de primære udfordringer med næste generations NLU er at gå ud over intentioner og enheder. De fleste NLU’er er fokuseret på at have en meget traditionel tilgang til sprogforståelse. Hver input-yttring klassificeres som en intention, og derefter mærkes tokenene i enheder ved hjælp af en sekvensmærkningsmodel. Jeg kunne opremse dusinvis af problemer med denne standardtilgang. Men de mest kritiske er:
- En intentionsklassificering, der er kontekstfri, kan ikke håndtere en multi-turn-samtale. De fleste tilgange bekymrer sig kun om den rå tekst, der blev transkriberet. De bekymrer sig ikke om kontekst – ikke hvem brugeren er, ikke hvad brugeren kan lide, kun hvad de lige spurgte om. Dette er særligt vigtigt, når brugeren siger noget meget kort. For eksempel, hvis nogen siger “cosmopolitan”, kan det betyde enten drikken eller magasinet og er stærkt afhængigt af personen.
- Enhedsigenkendelsesmodeller gør en dårlig indsats, når det kommer til noget, der ikke er en kategoriværdi. Store sprogmodeller kan ikke tilpasse sig hurtigt nok til nye enheder, der er i det vilde, fordi de ikke er i datasættet. AI skal have en langt mere sofistikeret måde at genkende enheder på ved at overveje en langt dybere kontekst. For eksempel burde en brugers placering have en stor indvirkning på, om noget er et restaurantnavn eller noget andet.
- Enhedsrelationer er ikke godt overvejet. Mit yndlings eksempel er, hvor ofte de fleste søgemaskiner fejler, når det kommer til negation. Prøv at søge efter en film uden romance på andre lydassistenter, og du vil se, hvad jeg mener.
I øjeblikket oversætter de fleste lydassistenter blot tale til tekst og udfører en Google-søgning. Hvordan fungerer MeetKai AI anderledes end dette?
Den primære forskel mellem MeetKai og Google, når det kommer til søgning, er, at vi anvender en langt rigere sprogforståelsesmodel til at søge efter selv genstande i stedet for kun websteder. Når du søger “Tom Cruise-film uden action”, søger Google efter sider, der har denne sæt af token, der vises på siden (Tom Cruise, film, action). Hos MeetKai forstår vi korrekt, at Tom Cruise er en skuespiller, film er den klasse af medier, de søger efter, og at action er den uønskede genre. Med dette kan vi udføre langt mere intelligente søgninger.
Meetkai lancerede for nylig sin første livsstils-VR-verden: MeetKai Metaverse. Kan du diskutere, hvad denne ansøgning er specifikt?
De fleste virksomheder i metaverse-rummet arbejder på person-til-person-interaktion. Ud over dette er indholdet også overvejende enten tegneserieagtigt eller er bare en 360°-video. Vores mål med MeetKai Metaverse er at fokusere på en helt anden vinkel – person-til-AI. Vi udvikler en metaverse, hvor karaktererne, du interagerer med, alle er drevet af vores skærende konversations-AI. Derudover arbejder vi på at udføre procedurally generering af miljøet for at gøre det langt mere realistisk og immersivt i forhold til andre virksomheder i rummet. De to første verdener, der er tilgængelige at udforske i vores metaverse, er for to første brugs Tilfælde: meditation og museer. I den første har vi digitaliseret en Wing Chun-ekspert, og for første gang skabte vi en AI-karakter, der kan instruere brugere om, hvordan de kan bruge revolutionerende meditationsteknikker til at indtræde i en tilstand af afslapning. I den sidste har vi skabt et evigt voksende kunstmuseum og leverer en AI-drevet kurator, der kan besvare spørgsmål om kunsten i rummet og give ture.
Hvad er nogle eksempler på, hvordan AI anvendes i denne Metaverse?
Vi anvender AI på tre måder:
- Til at aktivere de konversationsmuligheder for hver karakter i vores metaverse.
- Til dynamisk at skabe indhold, der er tilgængeligt for brugeren gennem talevejledning. Eksempler på dette inkluderer meditationsessioner og kunstgalleri-ture i vores to første oplevelser.
- Til at skabe 3D-rummet procedurally i stedet for at kræve en manuel layout.
Hvad er din vision for fremtiden for lydassistenter?
Til at lydassistenter kan have en fremtid, skal de udvikle sig til noget langt mere end et kommando-baseret system. Dette betyder at opnå dyb ekspertise og evner i mange specifikke domæner. Jeg tror, at opbygning af forskellige domænespecifikke lydassistenter vil være nøglen til at bygge en all-intelligent meta-assistent. Dette er i skarp kontrast til forsøgene på “at gøre det hele på én gang”, som vi har set, siden lydassistenter først kom ind i rummet.
Er der noget andet, du gerne vil dele om MeetKai eller MeetKai Metaverse?
Vi er stadig meget tidligt i vores metaverse-vejledning. Vores endelige mål er, at vi vil kunne replikere enhver oplevelse, du har i den virkelige verden, med metaverset, og derefter gå ud over det. Dette betyder, at vi vil eliminere de omkostnings- og tidskrævende faktorer, der begrænser samme oplevelser i virkeligheden. Metaverset kan tillade os at leve langt rigere liv, ikke erstatte dem. Vi har flere tekniske udfordringer, der stadig skal løses, men vi har en klar samling af milepæle, der er opnåelige, under forudsætning af, at hardwaren fortsætter med at forbedre sig. Vi arbejder tæt sammen med hardware-partnere for at sikre, at VR-rummet bevæger sig hurtigt fremad. Ud over bare VR ønsker vi at gøre vores metaverse-oplevelse mulig uden for VR. Vi vil annoncere mere information om dette i de kommende måneder.
Tak for det gode interview, jeg ser frem til at følge jeres fremgang på jeres version af metaverset. Læsere, der ønsker at lære mere, skal besøge MeetKai.












