Connect with us

Haastattelut

Rony Ohayon, DeepKeepin CEO ja perustaja – Haastattelusarja

mm

Rony Ohayon, DeepKeepin CEO ja perustaja, on kokenut yrittäjä ja teknologiavaikuttaja, jolla on ura, joka kattaa tekoälyyn, kyberTurvallisuuteen, autonomiset järjestelmät ja suurten videoteknologioiden. Hän on perustanut ja johtanut useita yrityksiä näillä aloilla, mukaan lukien merkittäviä rooleja autonomisten ajoneuvojen yhteydessä, live-videonsiirtotekniikassa ja edistyneessä insinööritieteessä, sekä aiemman akateemisen työn tietokoneiden insinööritieteessä.

DeepKeep on tekoälyturva-alusta, joka on suunniteltu auttamaan yrityksiä suojelemaan tekoälyä, generatiivista tekoälyä, LLM: ää, tietokoneen näköjärjestelmiä ja monimuotoisia järjestelmiä koko elinkaarensa ajan. Yritys keskittyy haavoittuvuuksien tunnistamiseen, vihamielisten uhkien estämiseen, ongelmien estämiseen, kuten tietovuodon ja ohjelmointimanipulaation, tukeakseen sääntelyn mukaista noudattamista ja tarjoamalla jatkuvaan valvontaa varmistamaan luotettavat, kestävät ja suojatut tekoälykäyttöönotot.

Olet johtanut merkittäviä innovaatioita videonsiirtotekniikassa, autonomisten ajoneuvojen yhteydessä ja tekoälyjärjestelmissä. Mitä omasta urastasi sai sinut vakuuttuneeksi siitä, että seuraava suuri haaste, jonka sinun täytyy ratkaista, oli yritysten tekoälyn turvallisuus?

Olen aina ollut motivoitunut ratkaisemaan suurvaikutteisia haasteita, jotka muokkaavat teollisuutta. Vuosien varrella olen huomannut toistuvan kuvion, jossa uusi teknologia, erityisesti tekoäly, usein ohittaa turvallisuustoimenpiteet, jättäen jälkeensä kriittisiä haavoittuvuuksia.

Yritysten tekoälyn omaksuminen, erityisesti suurten kielimallien (LLM) ja agenteiden tekoälyn myötä, avasi uuden riskien rintaman, ja yritykset usein tuntevat itsensä hämmästyneiksi ja valmistamattomiksi hyödyntämään näitä järjestelmiä turvallisesti ja luottavaisesti. Kokemukseni tekoälyjärjestelmistä korosti, kuinka tärkeää on integroida turvallisuus näiden teknologioiden ydintä, jotta ne eivät ole vain innovatiivisia, vaan myös turvallisia ja luotettavia, tuottaen luotettavia tuloksia yritysten proaktiiviseen tueksi. Tämä johti DeepKeepin perustamiseen, jossa painopistettä on tekoälyjärjestelmien turvallisuudessa, jotta yritykset voivat luottavaisesti omaksua tekoälyä tuottavuuden ja liiketoiminnan kasvun edistämiseksi ilman turvallisuuden tai yksityisyyden vaarantamista.

Kun sinä ja yrityksesi perustaja lanseerasitte DeepKeepin vuonna 2021, mikä tarkka tekoälyturvaan liittyvä sokea piste vakuutti sinut siitä, että oli kiireellinen tarve omistettuun alustaan, ja miten tuo oivallus muovasi yrityksen varhaisimman suunnan?

Vuoden 2021 lopussa, ennen LLM-pommituksen alkamista, lanseerasimme DeepKeepin vastaamaan näihin riskeihin tietokoneen näkömallien parissa.

Vuodesta toiseen työskennellessäni tekoälyssä, erityisesti tietokoneen näön parissa, joka vaati merkittäviä ponnisteluja sen varmistamiseksi, että se on luotettava ja kestävä, tajusimme, että oli aika suunnitella omistettu ratkaisu varmistamaan luottamus ja turvallisuus tietokoneen näössä.

Voihsin meidät takaisin varhaisimpaan prototyyppiin – mitä se teki, kuinka pieni tiimi oli, ja miten vahvistitte, että olitte oikealla polulla?

Kun perustimme DeepKeepin, painopiste oli edelleen perinteisessä tekoälyssä – tietokoneen näössä, taulukkomalleissa ja varhaisessa NLP:ssä – kauan ennen suurten kielimallien nousua. Ensimmäinen prototyyppimme oli järjestelmä tietokoneen näön luokittelijoiden red team -testaamiseen heidän kestävyytensä testaamiseksi vihamielisten hyökkäysten vastaan. Samalla kehitimme aikaisen version tekoälypalomuurista, joka voisi havaita ja merkitä nämä hyökkäykset reaaliajassa.

Alkuperäiset käyttötapaamiset tulivat autoteollisuudesta, vakuutus- ja rahoituspalveluista, joissa mallien väärinkäyttö aiheuttaa todellista operatiivista riskiä. Tiimimme oli silloin noin kahdeksan henkilön suuruinen, mikä mahdollisti nopean iteroinnin ja toimivan prototyypin tuottamisen aikaisin.

Vahvistimme, että olimme oikealla polulla, puhumalla suoraan potentiaalisten asiakkaiden kanssa, jotka korostivat jatkuvasti vihamielisen kestävyyden kasvavaa huolta. Samoihin aikoihin ilmestyivät myös kehykset, kuten MITREn ATLAS – ensimmäinen julkaisu vuonna 2021 -, mikä oli tärkeä ulkoinen signaali siitä, että tekoälyturvallisuuden ja vihamielisen uhkamallinnuksen ala oli kasvamassa. Asiakkaiden palautteen ja alan suunnan yhteenlaskettu signaali antoi meille luottamusta, että olimme menossa oikeaan suuntaan.

DeepKeep suunniteltiin alusta alkaen turvallisuutta varten tekoälyjärjestelmiä, eikä perinteistä ohjelmistoa. Mitä mallityyppejä ja hyökkäyspintoja priorisoititte ensin?

Alusta alkaen tiesimme, että yritysten tekoälyn turvallisuus vaati paradigman muutoksen. Vaikka monet organisaatiot ovat tarpeeksi taitavia tietämään, että heidän on suoritettava penetraatiotestaus ja arviointi malleille, joita he käyttävät, ymmärsimme, että nämä toimet ovat vain alkua.

Todelliset riskit syntyvät koko sovellusympäristössä, eikä ainoastaan malleissa itsessään. Siksi, kun tekoälychatbotit olivat teollisuuden aloituspiste perinteisellä red team -testauksella, siirryimme nopeasti kehittämään ratkaisuja, jotka turvaavat mukautettuja tekoälysovelluksia ja tekoälyagentteja, ja kehittymme turvallisuuden seuraavaan vaiheeseen, jossa agentit vuorovaikuttavat toistensa kanssa ja on merkittävää alueellista älykkyyttä.

Mahdollistamme malliskannauksen kaikenlaisille mallityypeille, mutta myös suojelemme kaikkein kiireellisimpiä uhkia, kuten vihamielisiä hyökkäyksiä, tietovuotoa, järjestelmien väärinkäyttöä ja luottamuksen heikentymistä red team -testaamalla malleja ja soveltamalla turvallisuuden varusteita, jotka suojaavat tekoälyohjeita ja -vastauksia.

Olennaisesti turvaamme myös tekoälyn “semanttisen kerroksen” ymmärtämällä kontekstin, jossa mallit toimivat. Tämä varmistaa, ettei malleja voida helposti manipuloida.

Mitkä olivat suurimmat tekniset tai strategiset käännökset, jotka teit DeepKeepin perustamisvaiheen ja sen nykyisen tuotesuunnan välillä?

Yksi suurimmista päätöksistämme oli laajentaa perinteisestä malliturvallisuudesta tekoälysovellusten turvallisuuden pariin. Aluksi keskityimme yksittäisten mallien turvallisuuteen, mutta kun tekoälymaisema kehittyi, tajusimme, että koko tekoälyekosysteemin turvallisuus, jossa useat mallit, agentit ja käyttötapaamiset leikkaavat toisiaan, oli paljon kriittisempää. Tämä johti meidät laajentamaan lähestymistapaamme sisällyttämällä red team -testaamisen, kattavan tekoälypalomuurin, joka suojaa jokaisen tekoälyyn liittyvän vuorovaikutuksen, ja suoritusaikaisen valvonnan.

Toinen avainpäätös oli tarjota täydellinen käyttöönoton joustavuus, mukaan lukien pilvi-agnostinen, paikallinen ja ilmatiivis ratkaisu, joka mahdollistaa yritysten turvallisen DeepKeepin käyttöönoton missä tahansa ympäristössä. Olemme myös viime aikoina integroineet tehostetun, alan johtavan henkilökohtaisten tunnistetietojen vartijan alustaan, mikä on tarjonnut asiakkaillemme entistä syvemmmän tason tietosuojaa ja varmistaa, että yritykset voivat täyttää kansainväliset säätelyvaatimukset tekoälyn käytön laajentuessa.

DeepKeep asettaa yhtäläisen painopisteen turvallisuudelle ja luotettavuudelle. Mihin vaiheeseen tämä kaksinkertainen painopiste muodostui yrityksen identiteetin ydinosaaksi?

Turvallisuuden ja luotettavuuden painopiste selkeni varhain, erityisesti kun aloimme muodostamaan syvemmän ymmärryksen asiakkaistamme ja heidän tarpeistaan.

Kun on kyse tekoälymallien kanssa, turvallisuus ja luottamus käydä käsi kädessä ja pelaavat yhtäläisiä rooleja, koska lopulta molemmat voivat johtaa vahingollisiin ja tuhoisiin tuloksiin. Sovellus ei voi olla kestävä ja epäluotettava, ja toisinpäin.

Perinteiset kyberturvallisuustyökalut eivät ole suunniteltu ohjelmointiputkien, hallusinaatioiden, tietovuodon tai mallimanipulaation torjumiseen. Mikä näistä uusista uhkaeveistä näit yritysten kamppailevan eniten, ja miten nämä todelliset ongelmat vaikuttivat DeepKeepin arkkitehtuuriin?

Näistä uusista uhkaeveistä ohjelmointiputki ja tietovuoto ovat painopeitteisimmat huolenaiheet, joita näemme yritysten kamppailevan. Kun tekoälysovellukset ja tekoälyagentit integroidaan liiketoimintaprosesseihin, ohjelmointimanipulaation ja tahattoman herkkien tietojen paljastumisen riskit ovat selkeämmät. Nämä ongelmat johtivat meidät suunnittelemaan DeepKeepiä kontekstuaalisen turvallisuuden näkökulmasta, joka suojaa ei ainoastaan malleja vaan koko tekoälyekosysteemin tietovirtaa ja vuorovaikutuksia. Infrastruktuurimme on suunniteltu testaamaan näitä kerroksia kehitysvaiheessa ja suojelemaan suoritusaikana turvallisena tekoälyvuorovaikutuksena.

Teidän alustanne yhdistää vartijat, red team -testaamisen ja tietosuojauskerrokset. Teknisesti katsottuna, mikä näistä on osoittautunut haasteellisimmaksi insinööritieteellisesti suunnitella yritysten mittakaavassa, ja mitä opit tekoälymallien nopean kehityksen aikana?

Jokainen kerros – vartijat, red team -testaaminen ja tietosuojaus – tulee omilla haasteillaan, mutta havaitsemme, että näiden kaikkien kerrosten yhteiset haasteet olivat itse asiassa haasteellisimmat.

Ensimmäinen haaste on muutoksen vauhti: uudet riskit, vankilapako ja hyökkäystekniikat syntyvät jatkuvasti, joten mikä tahansa staattinen tulee nopeasti vanhentuneeksi. Toinen haaste on kontekstin omaksuminen: yrityksissä yksi kokoinen lähestymistapa ei toimi, koska jokaisella sovelluksella on erilaiset käytäntö, tietojen herkkyydet ja käyttäjän käyttäytymisen.

Ratkaistaksemme ensimmäisen haasteen, rakensimme täysin modulaarisen arkkitehtuurin, jossa on liitettävät komponentit, mikä mahdollistaa uusien hyökkäysten nopean lisäämisen red team -moottoriin tai uusien vartijoiden lisäämisen palomuuriin ilman järjestelmän häirintää.

Ja toisen haasteen ratkaisemiseksi suunnittelimme agenteisen, kontekstiaavainjärjestelmän. Se analysoi sovelluksen ympäristöä ja sovittaa automaattisesti asiaankuuluvat turvallisuustoimenpiteet – mikä on olennaista, kun perustavanlaatuiset tekoälymallit ja käyttötapaamiset kehittyvät nopeasti.

Nämä kaksi ominaisuutta, modulaarisuus ja kontekstiaavain, ovat olleet avainasemassa toimimisessa yritysten mittakaavassa ja pysymisessä mukana nopeasti kehittyvien tekoälyjärjestelmien kanssa.

Tekoälyturvallisuus on kehittyvä tieteenala. Mitä aukkoja näet yrityksissä tänään – joko politiikassa, työkaluissa tai riskien ymmärtämisessä – jotka muokkasivat suoraan, miten suunnittelit DeepKeepin turvallisuuspinoa ja asiakasohjattua käyttöönottoa?

Aukot vaihtelevat merkittävästi riippuen toimialasta, yrityksen koosta ja tekoälyn omaksumisen asteesta.

Yksi suurimmista aukoista, jonka näen suurissa yrityksissä tänään, on puute yhdestä ratkaisusta, joka kattaa kaikki tekoälyturvallisuuden tarpeet. Monet näistä yrityksistä tietävät tekoälyturvallisuusratkaisujen tarpeen, mutta mitä enemmän tekoälyä otetaan käyttöön, sitä enemmän tarvitaan lisää turvallisuuden kattavuutta. Olemme oppineet varhain, että on arvoa vahvassa, kokonaisvaltaisessa ratkaisussa, joka sisältää erilaisia kykyjä, jotka toimivat yhdessä ja sulautuneesti. Asiakkaat hyötyvät ratkaisusta, jossa kokonaisuus on suurempi kuin osien summa.

Kun markkinat kypsyivät, tunnistimme toisen aukon, joka on, että organisaatiot etsivät enemmän mukautettuja ja vähemmän geneerisiä turvallisuustyökaluja suojelemaan agentejaan ja sovelluksiaan. Yksi syy kontekstiaavainlähestymistapaamme oli ottaa tämä aukko haltuun, ymmärtäen, että jokainen sovellus ja agentti on erilainen ja vaatii oman turvallisuuden.

Viiden vuoden kuluttua, miten odotat yritysten tekoälyriskejen kehittyvän – ja mihin DeepKeepin on sijoituttava pysyäkseen edellä tulevaisuuden haasteita?

Odotan, että suurimmat tekoälyriskit seuraavien viiden vuoden aikana kehittyvät tekoälyautonomian rinnalla. Kun agentit tulevat autonomisimmiksi, integroiduiksi jokaiseen liiketoimintaprosessiin ja pystyviksi suorittamaan monimutkaisia tehtäviä, turvallisuusloukkauksien ja väärinkäytön riski kasvaa. Ennustamme agenteiden internetin (IoA) kehittymisen, jossa agentit vuorovaikuttavat toistensa kanssa, muodostaen entistä monimutkaisemman tekoälyvuorovaikutuksen verkon.

Pysyäksemme edellä, DeepKeep jatkaa alustansa kehittämistä turvallisuuden varmistamiseksi näille yhä monimutkaisemmille tekoälyjärjestelmille, varmistamalla, että tarjoamme suoritusaikaisen suojan useille tekoälymalleille ja tukemalla kasvavaa trendiä tekoälypohjaisen päätöksenteon kasvua. Tavoitteemme on olla luotettava kumppani, johon yritykset voivat luottaa turvallisen koko tekoälyekosysteemin turvallisuuden varmistamiseksi, riippumatta siitä, kuinka monimutkainen se tulee olemaan.

Kiitos haastattelusta, lukijat, jotka haluavat oppia lisää, voivat vierailla DeepKeep: ssä.

Antoine on visionäärinen johtaja ja Unite.AI:n perustajakumppani, jota ohjaa horjumaton intohimo muokata ja edistää tulevaisuuden tekoälyä ja robottiikkaa. Sarjayrittäjänä hän uskoo, että tekoäly tulee olemaan yhtä mullistava yhteiskunnalle kuin sähkö, ja hänestä usein kuuluu ylistyksiä mullistavien teknologioiden ja AGI:n mahdollisuuksista.
Hänen ollessaan futuristi, hän on omistautunut tutkimiseen, miten nämä innovaatiot muokkaavat maailmaamme. Lisäksi hän on Securities.io:n perustaja, joka on alusta, joka keskittyy sijoittamiseen uraauurtaviin teknologioihin, jotka määrittelevät uudelleen tulevaisuuden ja muokkaavat koko sektoreita.