Connect with us

Bobby Samuels, Co-Fondator și CEO al Protege – Seria de Interviuri

Interviuri

Bobby Samuels, Co-Fondator și CEO al Protege – Seria de Interviuri

mm

Bobby Samuels conduce strategia și execuția Protege în ceea ce privește produsul, go-to-market și formarea de capital. El a co-fondat Protege în 2024 și a ocupat funcția de CEO de la înființare. Sub conducerea sa, Protege a strâns 35 de milioane de dolari în fonduri și a ajuns la 30 de milioane de dolari în GMV în primul an complet de funcționare. Anterior, Bobby a fost director general al Privacy Hub la Datavant, unde a contribuit la creșterea companiei înainte de fuziunea de 7,0 miliarde de dolari cu Ciox Health pentru a crea cel mai mare ecosistem neutrăl de date de sănătate din Statele Unite. Mai devreme, el a condus parteneriatele la LiveRamp, unde a dezvoltat expertiză în construirea de rețele neutre de date. Bobby deține un MBA de la Stanford Graduate School of Business și un AB de la Harvard College, unde a fost președintele The Harvard Crimson. El aduce o expertiză profundă în schimbul de date reglementate și în traducerea infrastructurii complexe în posibilități de împuternicire a inteligenței artificiale pentru partenerii de întreprindere.

Protege este o companie de infrastructură de date care conectează deținătorii de seturi de date de înaltă valoare și cu caracter propriu cu dezvoltatorii de modele de inteligență artificială, oferind o modalitate guvernată și prioritară a confidențialității pentru a licenția și a accesa datele de antrenament la scară. Fondată în 2024, platforma se axează pe deblocarea datelor multimodale – cum ar fi înregistrări medicale, imagini, video și audio – care sunt, în mod tradițional, dificil de accesat de către echipele de inteligență artificială, în timp ce oferă furnizorilor de date control deplin asupra confidențialității, conformității și monetizării. Pentru constructorii de inteligență artificială, Protege simplifică descoperirea și achiziționarea prin intermediul unui catalog curatoriat și al unor instrumente pentru filtrarea și combinarea seturilor de date, ajutând la accelerarea dezvoltării în domenii precum sănătatea, mass-media și altele. În esență, compania își propune să devină stratul de date de încredere pentru inteligența artificială, reducând una dintre cele mai mari blocaje în dezvoltarea modernă a modelului.

Ce v-a inspirat să înființați Protege, și cum au influențat experiențele dvs. în conducerea inițiativelor de date, confidențialitate și transformare organizațională la Datavant, precum și rolurile anterioare de la LiveRamp, viziunea dvs. asupra construirii acesteia?

Experiența mea la Datavant mi-a arătat atât puterea, cât și complexitatea conectării responsabile a datelor la scară. Datavant a construit o platformă care a ajutat la legarea informațiilor de sănătate sensibile, menținând în același timp confidențialitatea pacientului, și a devenit clar pentru mine că datele bine guvernate pot conduce la progres social masiv. Dar atunci când nu este, poate face rău real.

Pe măsură ce inteligența artificială s-a accelerat, am văzut același model repetându-se: o focalizare pe calcul și arhitecturi de inteligență artificială, dar nu neapărat pe datele care alimentează modelele însele. Ipoteza noastră este că următorul blocaj masiv este accesul la datele potrivite. Am vrut să construiesc un strat de infrastructură de date care face schimbul de date sigur, transparent și mutual benefic pentru deținătorii de date și constructorii de inteligență artificială, oferind în același timp expertiză specifică datelor de inteligență artificială pentru a sprijini progresele cercetării bazate pe inteligență artificială. Acesta este ceea ce a condus la Protege.

Protege se descrie ca fiind în construcția “coloanei vertebrale a economiei de date de inteligență artificială.” Cum definiți acest strat, și ce reprezintă, în practică, o infrastructură de date reală pentru inteligența artificială?

Protege este țesutul conjunctiv care permite colaborarea în siguranță și eficientă între deținătorii de date și dezvoltatorii de inteligență artificială. O infrastructură de date reală pentru inteligența artificială face mai mult decât să stocheze sau să mute date; verifică proveniența, gestionează permisiunile și asigură că fiecare set de date este utilizat în mod etic și cu consimțământ. În practică, este o platformă unică în care deținătorii de conținut pot licenția date cu încredere și pot fi compensați corespunzător, și constructorii de inteligență artificială pot accesa seturile de date esențiale din industrii, domenii, modalități și formate pe care le necesită pentru a antrena și evalua modelele în mod responsabil.

Una dintre misiunile dvs. principale este asigurarea faptului că modelele sunt antrenate pe seturi de date licențiate, reprezentative și bazate pe consimțământ. Cum operationalizează Protege sursa etică la scară?

Operationalizăm etica prin sisteme, nu prin slogane. Cu fiecare sursă de date și conținut pe care o agregăm și o livrăm, ne asigurăm că deținătorii de drepturi mențin proprietatea cu termeni de licențiere și protecții clare ale confidențialității.

Platforma noastră combină expertiza noastră umană, orientată spre cercetare, cu fluxuri de date și sisteme care se extind pentru a livra datele protejate de drepturi. De asemenea, lucrăm cu clienții noștri cumpărători de date pentru a ne asigura că datele sunt reprezentative pentru populațiile din lumea reală și reflectă cazuri de utilizare din lumea reală. Prin abordarea atât a furnizorilor de date, cât și a cumpărătorilor de date cu claritate și consecvență, suntem capabili să menținem conformitatea, echitatea și încrederea.

Industria inteligenței artificiale a fost condusă mult timp de o mentalitate “extrage mai întâi, întreabă mai târziu”. Cum vedeți schimbarea licențierii transparente a datelor remodelând relațiile dintre furnizorii de date și dezvoltatorii de inteligență artificială?

Transparența transformă extragerea în colaborare. În loc de a extrage, companiile de inteligență artificială au opțiunea de a licenția etic date de la furnizori de date verificați, ceea ce creează stimuli mai buni pentru ambele părți. Furnizorii de date câștigă venituri și control, iar dezvoltatorii de inteligență artificială primesc seturi de date mai curate și de înaltă calitate, fără probleme legale și de proprietate intelectuală.

Această schimbare construiește încredere, ceea ce duce la accelerarea dezvoltării inteligenței artificiale. Când organizațiile văd că inteligența artificială poate fi construită în mod responsabil, cu consimțământ clar și compensație pentru deținătorii de drepturi, aceasta deblochează mai multe cazuri de utilizare și nevoi de date. Acest lucru creează o cerere mai mare pentru seturi de date de înaltă calitate, inițiind un efect de auto-întreținere natural: cele mai bune surse de date atrag cumpărători, și cumpărătorii atrag mai multe surse de date de înaltă fidelitate. Toată lumea beneficiază.

Datele sintetice sunt adesea văzute ca o soluție pentru provocările legate de confidențialitate și polarizare. Unde credeți că se află echilibrul corect între seturile de date sintetice și cele din lumea reală, în special în sectoarele puternic reglementate, cum ar fi sănătatea?

Datele sintetice sunt utile pentru testare și completare, dar nu pot înlocui în totalitate complexitatea și nuanța activităților din lumea reală care generează datele de antrenament și evaluare. Acest lucru este valabil mai ales în sănătate, unde istoricul îngrijirii pe termen lung a pacientului și rezultatele în contextul abordării îngrijirii contează.

Noi credem fundamental că inteligența artificială care nu a fost antrenată pe complexitatea deplină a lumii reale nu poate, brusc, să producă date sintetice reprezentative pentru lumea reală. Probabil, echilibrul corect va fi o abordare hibridă, în care vom avea nevoie de multe surse de date de înaltă calitate care sunt în prezent izolate și au nevoie de a fi deblocate, și apoi le vom combina cu date sintetice generate de inteligență artificială pentru cazuri de utilizare specifice.

Cum permite Protege organizațiilor să partajeze date reale valoroase în mod sigur, fără a expune informații proprietare, date ale pacienților sau proprietate intelectuală?

Securitatea și confidențialitatea sunt integrate în fiecare etapă a parcursului. Indiferent dacă este vorba de sistemele noastre interne sau de partenerii noștri de de-identificare și confidențialitate care verifică transferurile noastre de date, ne asigurăm că datele noastre rămân în limitele intenționate.

În sănătate, acest lucru înseamnă respectarea cadrului de confidențialitate și conformitate pentru toate transferurile noastre de date. În mass-media, înseamnă a asigura că conținutul este licențiat numai pentru utilizări intenționate, pe termeni de licențiere și perioade de timp pre-agreate.

Pe măsură ce modelele de bază continuă să evolueze, ce va defini următoarea generație de conducte de date de antrenament de înaltă calitate?

Trei principii vor conduce: proveniența, precizia și scopul.

Proveniența înseamnă trasabilitate completă la sursă și termeni. Precizia înseamnă curățarea pentru modalități sau cazuri de utilizare specifice, și nu pentru corpuri generice de date – sau date care nu sunt pe deplin reflective pentru situații din lumea reală. Scopul înseamnă alinierea selecției de date cu rezultate concrete, și nu doar cu benchmark-uri de vanitate.

Împreună, acestea creează un drum către utilizarea datelor de înaltă calitate pentru a conduce la modele mai bune.

Cum influențează reglementările emergente, cum ar fi Actul UE privind Inteligența Artificială și cadrele viitoare din Statele Unite, abordarea Protege în ceea ce privește conformitatea și colaborarea transfrontalieră a datelor?

Aceste reglementări validează abordarea noastră pe care am bazat compania. Ele subliniază transparența, proveniența și gestionarea riscurilor, care sunt încorporate în produsele și platforma noastră din start.

Noi credem că oportunitățile viitoare de inteligență artificială trebuie să protejeze deținătorii de drepturi și să mențină controale stricte ale confidențialității. Prin tratarea acestor aspecte ca fiind inegociabile, ajutăm partenerii noștri de date și clienții să progreseze cu încredere și încredere în peisajul în schimbare al inteligenței artificiale. Scopul nostru este de a face dezvoltarea responsabilă a inteligenței artificiale nu doar corectă, ci și mai ușoară.

Care este rolul pe care îl vedeți transparența și proveniența datelor jucând în reconstruirea încrederii publice în sistemele de inteligență artificială?

Încrederea începe cu trasabilitatea. Când oamenii înțeleg de unde provin datele și cum sunt utilizate, sunt mai predispuși să aibă încredere în rezultatele inteligenței artificiale.

Transparența și proveniența creează responsabilitate de la deținătorul de date la dezvoltatorul de model și până la utilizatorul final. Acestea transformă inteligența artificială dintr-o cutie neagră în ceva mai inteligibil și explicabil.

După o creștere de 20 de ori și un serie A de 25 de milioane de dolari, cum echilibrați creșterea rapidă cu menținerea angajamentelor etice și de securitate ale Protege – și ce urmează, pe măsură ce continuați să modelați modul în care organizațiile antrenează modele de inteligență artificială în mod responsabil?

Etica și securitatea sunt fundația care ne permite să ne extindem. Fiecare nou proces, parteneriat și produs este măsurat împotriva funcționării ca și cum alții ne-ar urmări. Dacă toată lumea ar vedea cum operăm și deciziile pe care le luăm, aș vrea ca ei să fie mândri.

Pe măsură ce ne uităm spre 2026, ne extindem în noi domenii de aplicare, dincolo de sănătate și mass-media, și creăm noi produse de date, cum ar fi datele de evaluare pentru benchmarking, pe măsură ce organizațiile de inteligență artificială se străduiesc să măsoare mai bine performanța inteligenței artificiale pentru cazuri de utilizare din lumea reală. Scopul nostru este de a fi singura platformă de încredere pentru date reale de inteligență artificială și expertiză, construită pentru a alimenta progresul inteligenței artificiale pe termen lung.

 Mulțumim pentru interviul excelent; cititorii care doresc să afle mai multe trebuie să viziteze Protege.

Antoine este un lider vizionar și partener fondator al Unite.AI, condus de o pasiune neclintita pentru a da forma și a promova viitorul inteligenței artificiale și al roboticii. Un antreprenor serial, el crede că inteligența artificială va fi la fel de disruptivă pentru societate ca și electricitatea, și este adesea prins vorbind cu entuziasm despre potențialul tehnologiilor disruptive și al inteligenței artificiale generale.

Ca futurist, el este dedicat explorării modului în care aceste inovații vor modela lumea noastră. În plus, el este fondatorul Securities.io, o platformă axată pe investiții în tehnologii de ultimă generație care redefinesc viitorul și reshapă întregi sectoare.