stub Ittai Dayan, lekarz medycyny, współzałożyciel i dyrektor generalny Rhino Health – seria wywiadów – Unite.AI
Kontakt z nami

Wywiady

Ittai Dayan, lekarz medycyny, współzałożyciel i dyrektor generalny Rhino Health – seria wywiadów

mm
Zaktualizowano on

Ittai Dayan, MD jest współzałożycielem i dyrektorem generalnym Zdrowie nosorożców. Jego doświadczenie obejmuje rozwój sztucznej inteligencji i diagnostykę, a także medycynę kliniczną i badania. Jest byłym głównym członkiem praktyki lekarskiej BCG i dyrektorem szpitala. Obecnie koncentruje się na przyczynianiu się do rozwoju bezpiecznej, sprawiedliwej i wpływowej sztucznej inteligencji w branży opieki zdrowotnej i nauk przyrodniczych. W Rhino Health wykorzystują rozproszone obliczenia i stowarzyszone uczenie się jako sposób na zachowanie prywatności pacjentów i wspieranie współpracy w rozproszonym środowisku opieki zdrowotnej.

Służył w siłach specjalnych IDF, kierował największym na świecie ośrodkiem translacyjnej sztucznej inteligencji opartym na ośrodkach akademickich, medycznych i medycznych. Ekspert w dziedzinie rozwoju i komercjalizacji sztucznej inteligencji oraz biegacz długodystansowy.

Czy mógłbyś podzielić się historią powstania Rhino Health?

Moja przygoda ze sztuczną inteligencją rozpoczęła się, gdy byłem klinicystą i badaczem, wykorzystując wczesną postać „cyfrowego biomarkera” do pomiaru odpowiedzi na leczenie w przypadku zaburzeń psychicznych. Później kierowałem Centrum Nauki o Danych Klinicznych (CCDS) w Mass General Brigham. Tam nadzorowałem rozwój dziesiątek klinicznych zastosowań sztucznej inteligencji i na własne oczy byłem świadkiem podstawowych wyzwań związanych z dostępem do danych niezbędnych do opracowywania i szkolenia produktów AI o klasie regulacyjnej i „aktywowania ich”.

Pomimo wielu postępów w sztucznej inteligencji w służbie zdrowia droga od opracowania do wprowadzenia produktu na rynek jest długa i często wyboista. Rozwiązania ulegają awarii (lub po prostu rozczarowują) po wdrożeniu klinicznym, a obsługa pełnego cyklu życia sztucznej inteligencji jest prawie niemożliwa bez ciągłego dostępu do dużej ilości danych klinicznych. Wyzwanie zostało przeniesione z tworzenia modele, do utrzymanie ich. Aby stawić czoła temu wyzwaniu, przekonałem system Mass General Brigham o wartości posiadania własnego „wyspecjalizowanego CRO ds. sztucznej inteligencji” (CRO = Clinical Research Org) w celu testowania algorytmów od wielu komercyjnych twórców.

Problem jednak pozostał – dane dotyczące zdrowia są w dalszym ciągu bardzo rozproszone i nawet duża ilość danych z jednej sieci nie wystarczy, aby walczyć z coraz bardziej wąskimi celami medycznej sztucznej inteligencji. Latem 2020 roku zainicjowałem i prowadziłem (wraz z dr Moną Flores z firmy NVIDIA) największe wówczas na świecie badanie Federated Learning (FL) w dziedzinie opieki zdrowotnej, EXAM. Wykorzystaliśmy FL do stworzenia modelu predykcyjnego wyników COVID, wykorzystując dane z całego świata, bez udostępniania jakichkolwiek danych. Następnie opublikowano w Nature Medicinebadanie to wykazało pozytywny wpływ wykorzystania różnorodnych i odmiennych zbiorów danych oraz podkreśliło potencjał szerszego wykorzystania zintegrowanego uczenia się w opiece zdrowotnej.

To doświadczenie wyjaśniło jednak szereg wyzwań. Obejmowały one orkiestrację danych we współpracujących lokalizacjach, zapewnienie identyfikowalności i właściwej charakterystyki danych, a także obciążenie działów IT każdej instytucji, które musiały uczyć się najnowocześniejszych technologii, do których nie były przyzwyczajone. Wymagało to stworzenia nowej platformy, która wspierałaby tę nowatorską współpracę w zakresie „danych rozproszonych”. Postanowiłem połączyć siły z moim współzałożycielem, Yuvalem Barorem, aby stworzyć kompleksową platformę do wspierania współpracy chroniącej prywatność. Platformą tą jest „Rhino Health Platform”, wykorzystująca technologię FL i obliczenia brzegowe.

Dlaczego uważasz, że modele sztucznej inteligencji często nie zapewniają oczekiwanych rezultatów w placówkach opieki zdrowotnej?

Medyczną sztuczną inteligencję często szkoli się na małych, wąskich zbiorach danych, takich jak zbiory danych z pojedynczej instytucji lub regionu geograficznego, co prowadzi do tego, że powstały model działa dobrze tylko w przypadku typów danych, które widział. Po zastosowaniu algorytmu do pacjentów lub scenariuszy różniących się od wąskiego zbioru danych szkoleniowych poważnie wpływa to na wydajność.

Andrew Ng dobrze ujął tę koncepcję, stwierdzając: „Okazuje się, że kiedy zbieramy dane ze szpitala Stanford… możemy publikować artykuły wykazujące, że [algorytmy] są porównywalne z radiologami ludzkimi w wykrywaniu pewnych schorzeń. … [Kiedy] zabierasz ten sam model, ten sam system AI do starszego szpitala na końcu ulicy, ze starszą maszyną, a technik używa nieco innego protokołu obrazowania, dane dryfują, powodując pogorszenie wydajności systemu AI znacznie."3

Mówiąc najprościej, większość modeli sztucznej inteligencji nie jest szkolona na danych, które są wystarczająco zróżnicowane i wysokiej jakości, co skutkuje słabą wydajnością w „rzeczywistym świecie”. Zagadnienie to zostało dobrze udokumentowane zarówno w kręgach naukowych, jak i mainstreamowych, m.in nauka i Polityczny.

Jak ważne są badania na różnych grupach pacjentów?

Testowanie na różnych grupach pacjentów ma kluczowe znaczenie, aby mieć pewność, że powstały produkt AI będzie nie tylko skuteczny i wydajny, ale także bezpieczny. Algorytmy, które nie zostały przeszkolone ani przetestowane na wystarczająco zróżnicowanych grupach pacjentów, mogą powodować błąd algorytmiczny, będący poważnym problemem w opiece zdrowotnej i technologii opieki zdrowotnej. Algorytmy takie nie tylko odzwierciedlą stronniczość obecną w danych szkoleniowych, ale zaostrzą tę stronniczość i pogłębią istniejące nierówności rasowe, etniczne, religijne, płciowe itp. w opiece zdrowotnej. Nieprzeprowadzenie testów na różnych grupach pacjentów może skutkować powstaniem niebezpiecznych produktów.

Niedawno opublikowane badanie5w ramach platformy Rhino Health Platform zbadali działanie algorytmu sztucznej inteligencji wykrywającego tętniaki mózgu opracowanego w jednym ośrodku w czterech różnych ośrodkach przy użyciu różnych typów skanerów. Wyniki wykazały znaczną zmienność wydajności w witrynach wyposażonych w różne typy skanerów, podkreślając znaczenie szkolenia i testowania na różnych zbiorach danych.

Jak rozpoznać, czy subpopulacja nie jest reprezentowana?

Powszechnym podejściem jest analiza rozkładów zmiennych w różnych zbiorach danych, indywidualnie i łącznie. Może to informować programistów zarówno podczas przygotowywania zestawów danych „treningowych”, jak i zestawów danych walidacyjnych. Platforma Rhino Health umożliwia to, a ponadto użytkownicy mogą zobaczyć, jak model radzi sobie w różnych kohortach, aby zapewnić możliwość uogólnienia i zrównoważone działanie w subpopulacjach.

Czy mógłbyś opisać, czym jest uczenie się federacyjne i jak rozwiązuje niektóre z tych problemów?

Federacyjne uczenie się (FL) można ogólnie zdefiniować jako proces, w trakcie którego modele sztucznej inteligencji są szkolone, a następnie z biegiem czasu są ulepszane przy użyciu odmiennych danych, bez konieczności udostępniania lub centralizowania danych. To ogromny krok naprzód w rozwoju sztucznej inteligencji. Historycznie rzecz biorąc, każdy użytkownik chcący współpracować z wieloma lokalizacjami musiał połączyć te dane, co pociągnęło za sobą niezliczoną ilość uciążliwych, kosztownych i czasochłonnych problemów prawnych, związanych z ryzykiem i zgodnością.

Dziś dzięki oprogramowaniu takiemu jak Rhino Health Platform, Floryda staje się codzienną rzeczywistością w opiece zdrowotnej i naukach przyrodniczych. Uczenie stowarzyszone umożliwia użytkownikom eksplorowanie, przeglądanie i sprawdzanie danych, gdy pozostają one na lokalnych serwerach współpracowników. Kontenerowy kod, taki jak algorytm AI/ML lub aplikacja analityczna, jest wysyłany na serwer lokalny, gdzie wykonanie tego kodu, na przykład uczenie lub sprawdzanie poprawności algorytmu AI/ML, odbywa się „lokalnie”. Dane pozostają zatem przez cały czas u „opiekuna danych”.

Szczególnie szpitale są zaniepokojone ryzykiem związanym z gromadzeniem wrażliwych danych pacjentów. Doprowadziło to już do kłopotliwych sytuacji, w których stało się jasne, że organizacje opieki zdrowotnej współpracowały z przemysłem, nie rozumiejąc dokładnie, w jaki sposób wykorzystywane są ich dane. Z kolei ograniczają zakres współpracy, jaką mogą nawiązać zarówno badacze przemysłowi, jak i akademiccy, spowalniając prace badawczo-rozwojowe i wpływając na jakość produktów w całej branży opieki zdrowotnej. FL może temu zaradzić i umożliwić współpracę w zakresie danych jak nigdy dotąd, kontrolując jednocześnie ryzyko związane z tą współpracą.

Czy mógłbyś podzielić wizję Rhino Health dotyczącą umożliwienia szybkiego tworzenia modeli przy użyciu bardziej zróżnicowanych danych?

Wyobrażamy sobie ekosystem twórców i użytkowników sztucznej inteligencji współpracujących bez strachu i ograniczeń, przy jednoczesnym poszanowaniu granic przepisów. Współpracownicy mogą szybko identyfikować niezbędne dane szkoleniowe i testowe z różnych lokalizacji geograficznych, uzyskiwać dostęp do tych danych i wchodzić z nimi w interakcję, a także iterować na modelu rozwoju w celu zapewnienia wystarczającej możliwości uogólnienia, wydajności i bezpieczeństwa.

U podstaw tego leży platforma Rhino Health Platform, zapewniająca programistom sztucznej inteligencji „punkt kompleksowej obsługi” umożliwiający tworzenie ogromnych i różnorodnych zbiorów danych, szkolenie i weryfikację algorytmów sztucznej inteligencji oraz ciągłe monitorowanie i konserwację wdrożonych produktów sztucznej inteligencji.

W jaki sposób platforma Rhino Health zapobiega stronniczości sztucznej inteligencji i zapewnia możliwość wyjaśnienia sztucznej inteligencji?

Odblokowując i usprawniając współpracę w zakresie danych, twórcy sztucznej inteligencji mogą wykorzystywać większe, bardziej zróżnicowane zbiory danych do szkolenia i testowania swoich aplikacji. Wynikiem solidniejszych zbiorów danych jest produkt, który można bardziej uogólnić i który nie jest obciążony uprzedzeniami pojedynczej instytucji lub wąskim zbiorem danych. Wspierając wyjaśnialność sztucznej inteligencji, nasza platforma zapewnia jasny wgląd w dane wykorzystywane w całym procesie opracowywania, z możliwością analizowania pochodzenia danych, rozkładów wartości i innych kluczowych wskaźników w celu zapewnienia odpowiedniej różnorodności i jakości danych. Ponadto nasza platforma zapewnia funkcjonalność, która nie jest możliwa w przypadku prostego łączenia danych, w tym umożliwia użytkownikom dalsze wzbogacanie zbiorów danych o dodatkowe zmienne, takie jak te obliczone na podstawie istniejących punktów danych, w celu zbadania wnioskowania przyczynowego i ograniczenia czynników zakłócających.

Jak reagujesz na lekarzy, którzy obawiają się, że nadmierne poleganie na sztucznej inteligencji może prowadzić do stronniczych wyników, które nie są niezależnie weryfikowane?

Wczuwamy się w tę obawę i zdajemy sobie sprawę, że wiele aplikacji dostępnych obecnie na rynku może w rzeczywistości być stronniczych. Naszą odpowiedzią jest to, że musimy zjednoczyć się jako branża, jako społeczność opieki zdrowotnej, której przede wszystkim zależy na bezpieczeństwie pacjentów, aby określić zasady i procedury zapobiegające takim stronniczości oraz zapewnić bezpieczne i skuteczne zastosowania sztucznej inteligencji. Twórcy sztucznej inteligencji mają obowiązek zapewnić niezależną walidację wprowadzanych na rynek produktów AI, aby zyskać zaufanie zarówno pracowników służby zdrowia, jak i pacjentów. Rhino Health specjalizuje się we wspieraniu bezpiecznych, godnych zaufania produktów AI i współpracuje z partnerami, aby umożliwić i usprawnić niezależną walidację aplikacji AI przed wdrożeniem w warunkach klinicznych poprzez odblokowanie barier w zakresie niezbędnych danych walidacyjnych.

Jaka jest Twoja wizja przyszłości sztucznej inteligencji w opiece zdrowotnej?

Wizją Rhino Health jest świat, w którym sztuczna inteligencja osiągnęła swój pełny potencjał w opiece zdrowotnej. Pilnie pracujemy nad zapewnieniem przejrzystości i wspieraniem współpracy poprzez zapewnienie prywatności, aby umożliwić ten świat. Wyobrażamy sobie sztuczną inteligencję w służbie zdrowia, która nie jest ograniczona zaporami ogniowymi, położeniem geograficznym ani ograniczeniami regulacyjnymi. Twórcy sztucznej inteligencji będą mieli kontrolowany dostęp do wszystkich danych potrzebnych do tworzenia wydajnych, możliwych do uogólnienia modeli oraz do ciągłego ich monitorowania i ulepszania dzięki przepływowi danych w czasie rzeczywistym. Dostawcy i pacjenci będą mieli pewność, że nie stracą kontroli nad swoimi danymi i będą mogli mieć pewność, że będą one wykorzystywane na dobre. Organy regulacyjne będą mogły monitorować w czasie rzeczywistym skuteczność modeli stosowanych w opracowywaniu produktów farmaceutycznych i urządzeń. Organizacje zajmujące się zdrowiem publicznym skorzystają z postępów w sztucznej inteligencji, a pacjenci i dostawcy usług będą mogli spać spokojnie, wiedząc, że prywatność jest chroniona.

Dziękuję za wspaniały wywiad. Czytelnicy chcący dowiedzieć się więcej powinni odwiedzić nas Zdrowie nosorożców.

Partner-założyciel unite.AI i członek Rada Technologiczna Forbesa, Antoine jest futurysta który jest pasjonatem przyszłości sztucznej inteligencji i robotyki.

Jest także Założycielem Securities.io, witryna internetowa skupiająca się na inwestowaniu w przełomowe technologie.