csonk Dr. Ram Sriharsha, a Pinecone mérnöki alelnöke – Interjúsorozat – Unite.AI
Kapcsolatba velünk

interjúk

Dr. Ram Sriharsha, a Pinecone mérnöki alelnöke – Interjúsorozat

mm

Közzététel:

 on

Dr. Ram Sriharsha, a Pinecone mérnöki és kutatás-fejlesztési alelnöke.

Mielőtt csatlakozott volna a Pinecone-hoz, Ram alelnöki szerepet töltött be a Yahoo-nál, a Databricks-nél és a Splunknál. A Yahoo-nál egyszerre volt szoftvermérnök, majd kutató tudós; a Databricksnél ő volt a genomikai egységes analitikai platform termék- és mérnöki vezetője; és a Splunknál eltöltött három év alatt számos szerepet játszott, köztük Sr vezető tudóst, mérnöki alelnököt és kiváló mérnököt.

Fenyőtoboz egy teljesen felügyelt vektoradatbázis, amely megkönnyíti a vektorkeresés hozzáadását az éles alkalmazásokhoz. Egyesíti a vektoros keresési könyvtárakat, az olyan képességeket, mint a szűrés és az elosztott infrastruktúra, hogy bármilyen léptékben nagy teljesítményt és megbízhatóságot biztosítson.

Mi vonzotta kezdetben a gépi tanuláshoz?

A nagy dimenziós statisztikák, a tanuláselmélet és az ehhez hasonló témák vonzottak a gépi tanuláshoz. Matematikailag jól definiáltak, indokolhatók, és alapvető betekintést nyújtanak arra vonatkozóan, hogy mit jelent a tanulás, és hogyan tervezzünk olyan algoritmusokat, amelyek képesek hatékonyan tanulni.

Korábban Ön a Splunk mérnöki részlegének alelnöke volt, egy olyan adatplatformnál, amely segít az adatokból a megfigyelhetőség, az IT, a biztonság és egyebek megvalósításában. Melyek voltak a legfontosabb gondolataid ebből az élményből?

Amíg nem jutottam el a Splunkhoz, fel sem fogtam, hogy a vállalati keresésben milyen sokrétűek a felhasználási esetek: az emberek a Splunkot naplóelemzésre, megfigyelhetőségi és biztonsági elemzésekre használják számtalan egyéb felhasználási eset mellett. És ami sok ilyen használati esetre jellemző, az az az ötlet, hogy hasonló eseményeket vagy nagyon eltérő (vagy rendellenes) eseményeket észlelnek a strukturálatlan adatokban. Ez nehéz problémának bizonyul, és az ilyen adatok közötti keresés hagyományos módjai nem nagyon méretezhetők. A Splunknál töltött idő alatt kutatást kezdeményeztem ezeken a területeken, hogy hogyan használhatjuk fel a gépi tanulást (és a mély tanulást) naplóbányászathoz, biztonsági elemzésekhez stb. A munka során rájöttem, hogy a vektoros beágyazás és a vektorkeresés végül alapvető primitív e területek új megközelítéseihez.

Leírnád nekünk, mi az a vektoros keresés?

A hagyományos keresésben (más néven kulcsszavas keresés) kulcsszóegyezéseket keres a lekérdezés és a dokumentumok között (ezek lehetnek tweetek, webes dokumentumok, jogi dokumentumok, mi van). Ehhez felosztja a lekérdezést tokenjeire, lekéri az adott tokent tartalmazó dokumentumokat, majd összevonja és rangsorolja az adott lekérdezéshez leginkább releváns dokumentumokat.

A fő probléma természetesen az, hogy a releváns eredmények eléréséhez a lekérdezésnek kulcsszóegyezéseket kell tartalmaznia a dokumentumban. Klasszikus probléma a hagyományos kereséssel: ha a „pop” kifejezésre keres, akkor a „pop zene” kifejezést fogja megtalálni, de nem a „szóda” stb. kifejezést, mivel nincs kulcsszavas átfedés a „pop” és a „szóda”-t tartalmazó dokumentumok között. annak ellenére, hogy tudjuk, hogy az Egyesült Államokban sok területen a „pop” ugyanazt jelenti, mint a „szóda”.

A vektoros keresésnél először a lekérdezéseket és a dokumentumokat vektorokká konvertálja valamilyen nagy dimenziós térben. Ez általában úgy történik, hogy a szöveget átadják egy mély tanulási modellen, például az OpenAI LLM-eken vagy más nyelvi modelleken. Ennek eredményeként lebegőpontos számokból álló tömböt kapunk, amely vektorként fogható fel valamilyen nagy dimenziójú térben.

Az alapötlet az, hogy a közeli vektorok ebben a nagy dimenziós térben szemantikailag is hasonlóak. Visszatérve a „szóda” és a „pop” példájára, ha a modellt a megfelelő korpuszra tanítjuk, akkor valószínűleg szemantikailag hasonlónak tekinti a „pop”-ot és a „szódát”, és ezáltal a megfelelő beágyazások közel lesznek egymáshoz. a beágyazási tér. Ha ez a helyzet, akkor egy adott lekérdezéshez a közeli dokumentumok lekérése a megfelelő lekérdezési vektor legközelebbi szomszédjainak keresésének problémája lesz ebben a nagy dimenziós térben.

Le tudná írni, mi az a vektoradatbázis, és hogyan teszi lehetővé nagy teljesítményű vektorkereső alkalmazások építését?

Egy vektoros adatbázis tárolja, indexeli és kezeli ezeket a beágyazásokat (vagy vektorokat). A vektoros adatbázis által megoldott fő kihívások a következők:

  • Hatékony keresési index felépítése vektorokon keresztül a legközelebbi szomszéd lekérdezések megválaszolásához
  • Hatékony segédindexek és adatstruktúrák felépítése a lekérdezésszűrés támogatására. Tegyük fel például, hogy a korpusznak csak egy részhalmazában szeretne keresni, akkor képesnek kell lennie a meglévő keresési index kihasználására anélkül, hogy újra kellene építenie.

Támogatja a hatékony frissítéseket, és tartsa mind az adatokat, mind a keresési indexet frissen, következetesen, tartósan stb.

Melyek a különböző típusú gépi tanulási algoritmusok, amelyeket a Pinecone használ?

Általában hozzávetőlegesen dolgozunk a legközelebbi szomszéd keresési algoritmusokon, és új algoritmusokat fejlesztünk a nagy mennyiségű adat hatékony frissítésére, lekérdezésére és egyéb módon történő kezelésére, a lehető legköltséghatékonyabb módon.

Dolgozunk olyan algoritmusokon is, amelyek kombinálják a sűrű és ritka lekérdezést a jobb keresési relevancia érdekében.

 Melyek a kihívások a méretezhető keresés felépítése mögött?

Míg a hozzávetőleges legközelebbi szomszéd keresését évtizedek óta kutatják, úgy gondoljuk, hogy még sok a feltáratlan.

Különösen, amikor a költséghatékony nagyszabású legközelebbi szomszéd keresés megtervezéséről van szó, a hatékony méretarányos szűrésről vagy a nagy mennyiségű frissítést és általában friss indexeket támogató algoritmusok tervezéséről, mind kihívást jelentenek manapság.

Melyek azok a különféle használati esetek, amelyekre ez a technológia használható?

A vektoros adatbázisok használati eseteinek spektruma napról napra növekszik. A szemantikus keresésben való felhasználása mellett azt is látjuk, hogy használják képkeresésben, képlekérdezésben, generatív AI-ban, biztonsági elemzésben stb.

Mi az elképzelése a keresés jövőjéről?

Úgy gondolom, hogy a keresés jövője a mesterséges intelligencia vezérelte lesz, és nem hiszem, hogy ez nagyon messze van. A jövőben azt várom, hogy a vektoros adatbázisok alapvető primitívek lesznek. Szeretjük a vektoros adatbázisokra úgy gondolni, mint az AI hosszú távú memóriájára (vagy külső tudásbázisára).

Köszönjük a remek interjút, azoknak az olvasóknak, akik többet szeretnének megtudni, látogassanak el Fenyőtoboz.

Az unite.AI alapító partnere és tagja Forbes Technológiai Tanács, Antoine a futurista aki szenvedélyesen rajong az AI és a robotika jövőjéért.

Ő az alapítója is Értékpapír.io, egy webhely, amely a bomlasztó technológiába való befektetésre összpontosít.