stub Jeffrey Eyestone, doradca ds. sztucznej inteligencji w opiece zdrowotnej w CognitiveScale — seria wywiadów — Unite.AI
Kontakt z nami

Wywiady

Jeffrey Eyestone, doradca ds. sztucznej inteligencji w opiece zdrowotnej w CognitiveScale – seria wywiadów

mm

Opublikowany

 on

Jeffrey Eyestone jest Skala poznawczaDoradca ds. sztucznej inteligencji w opiece zdrowotnej. Na tym stanowisku Jeff współpracuje z organizacjami z branży opieki zdrowotnej (głównie dostawcami/systemami opieki zdrowotnej, płatnikami i dostawcami technologii) na ich drodze do sztucznej inteligencji — od strategicznego wglądu w sposoby rozwijania kompetencji w zakresie sztucznej inteligencji i centrów doskonałości po bardziej taktyczne opracowywanie planów działania w zakresie sztucznej inteligencji i dostarczanie sztucznej inteligencji rozwiązania

Czy możesz omówić, dlaczego uważasz, że sztuczna inteligencja jest tak ważna dla branży opieki zdrowotnej? 

Ogromne ilości złożonych, różnorodnych i rozproszonych danych stanowią podstawę podstawowych procesów klinicznych, administracyjnych i finansowych napędzających opiekę zdrowotną. Dlatego sztuczna inteligencja jest obecnie podstawową funkcją w całym łańcuchu wartości technologii informatycznych w służbie zdrowia. Pracownicy wiedzy, tacy jak klinicyści i badacze, zauważają znaczące ulepszenia sztucznej inteligencji – zwłaszcza podzbioru sztucznej inteligencji „rozszerzonej inteligencji”.

Sztuczna inteligencja w opiece zdrowotnej to ogromny temat i istnieje wiele cennych przypadków jej użycia – od pozyskiwania danych po wyciąganie wniosków, od ulepszania lub automatyzacji procesów po lepsze zaangażowanie pacjentów i świadczenie spersonalizowanej opieki. Wyniki kliniczne poprawiają się, wydajność przekłada się na oszczędności, a w pracach znajduje się znacznie więcej przypadków użycia, które obiecują zwiększyć wartość. Obecna globalna pandemia skupiła uwagę na znacznie większej liczbie przypadków zastosowania sztucznej inteligencji w opiece zdrowotnej, łącząc na przykład oceny i spostrzeżenia dotyczące ryzyka społeczności i poszczególnych osób z inteligentnymi interwencjami – a wszystko to ulepszy systemy opieki zdrowotnej na całym świecie długo po pokonaniu Covid-19 .

 

Jak zdefiniowałbyś inteligencję rozszerzoną w środowisku opieki zdrowotnej?

CognitiveScale koncentruje się przede wszystkim na inteligencji rozszerzonej. Niektóre technologie sztucznej inteligencji, takie jak zrobotyzowana automatyzacja procesów (RPA) lub chatboty, starają się zastąpić ludzi maszynami (przynajmniej w większości przypadków). Koncentrujemy się przede wszystkim na rozwiązaniach AI, które pomagają organizacjom i pracownikom służby zdrowia pracować mądrzej i wydajniej. Koncentrujemy się również na rozwiązaniach kognitywnych – bardziej zaawansowanym podzbiorze sztucznej inteligencji, który ma pętlę uczenia się lub sprzężenia zwrotnego – i często to „ludzie w pętli” mogą dostarczać informacji zwrotnych modelom, z których można się uczyć. Istnieje wiele przykładów rozszerzonej inteligencji w opiece zdrowotnej, które zaczynają zapewniać imponujące wyniki. Na przykład w radiologii i patologii klinicyści zwiększają swoją zdolność odczytywania obrazów i stawiania diagnoz za pomocą modeli uczenia maszynowego, umożliwiając wcześniejsze wykrywanie lub dokładniejsze diagnozy i wyniki laboratoryjne.

 

Pracowałeś zarówno ze start-upami, jak i dużymi organizacjami, które wdrożyły różne strategie AI. Jakie typowe błędy widziałeś?

Tak jak kognitywne rozwiązania AI uczą się z biegiem czasu i dojrzewają, tak samo rozwija się nasza wiedza na temat mocy sztucznej inteligencji i jej pułapek. Uzyskanie dostępu do danych – przygotowanie danych – a następnie wyszkolenie modeli na podstawie spisu danych zajmuje zwykle więcej czasu, niż początkowo sądzono. Inne błędy dotyczą operacjonalizacji i skali rozwiązań AI — zakładając, że dobry model można łatwo wdrożyć i zarządzać nim w ekosystemie IT opieki zdrowotnej, podczas gdy w rzeczywistości wiele modeli sztucznej inteligencji pozostaje niewykorzystanych. Jednak jedno z najważniejszych wyzwań związanych ze sztuczną inteligencją w opiece zdrowotnej wiąże się z zaufaniem: czy można ufać modelom, czy są one stronnicze, sprawiedliwe, zrozumiałe i dokładne? Liczne nagłówki gazet pokazały, że rozwiązania AI mogą być stronnicze w sposób, który przyciągnie uwagę organów regulacyjnych – lub mogą być rozwiązaniami typu „czarna skrzynka”, które budzą sceptycyzm ze strony dostawców, których inteligencję mają zwiększać. To największe wyzwanie — i błąd — w przypadku sztucznej inteligencji w służbie zdrowia, jakie ostatnio widzę.

 

Jakie jest Twoje zdanie na temat profilowania genomowego?

Profilowanie genomowe to podzbiór obiecujących technologii zaprojektowanych w celu zapewnienia spersonalizowanego wglądu w osobę, zwykle na potrzeby opieki zdrowotnej (w przeciwieństwie do genealogii, ale czasami widzimy historie dotyczące sporów o ojcostwo lub nawet dochodzeń w sprawie przestępstw wykorzystujących tę technologię). Personalizacja to główny temat przypadków użycia sztucznej inteligencji w opiece zdrowotnej – jak lepiej angażować pacjentów lub zwiększać inteligencję dostawców za pomocą bardziej spersonalizowanych i ukierunkowanych spostrzeżeń. O ile profilowanie genomowe może pomóc w zapewnieniu większej personalizacji. I dopóki dane i ich wykorzystanie będą godne zaufania (bezstronne, uczciwe, możliwe do wyjaśnienia, dokładne itp.), będą ważnym elementem medycyny spersonalizowanej i podstawowym elementem hiperspersonalizowanych rozwiązań AI, które wykorzystują geny Informacja.

 

Personalizacja opieki zdrowotnej wydaje się być falą przyszłości. W jaki sposób ma to według Ciebie najbardziej pozytywny wpływ?

W CognitiveScale dostarczamy spersonalizowane, predykcyjne i normatywne rozwiązania w zakresie opieki zdrowotnej. Kilka przykładów obejmuje inteligentne interwencje dla kierowników opieki (przypadek zastosowania klinicznego) i przewidywanie zapytań o usługi (przypadek użycia administracyjnego/operacyjnego). Inteligentne rozwiązania interwencyjne dostarczają spersonalizowanych wniosków, prognoz i ocen ryzyka (wśród innych wyników modelu), które usprawniają pracę osób opiekujących się pacjentami w ramach programu zarządzania opieką. Wykorzystujemy te możliwości również na rzecz organów odpowiedzialnych za zdrowie publiczne, dostawców i planów zdrowotnych, próbując zarządzać obywatelami/pacjentami/członkami podczas kryzysu związanego z Covid-19. Przewidując zapytania o usługi, pomagamy organizacjom opieki zdrowotnej poznać moment, w którym członek lub świadczeniodawca zadzwoni w sprawie roszczeń, świadczeń itp., konkretny powód rozmowy oraz sposób znacznie skuteczniejszego rozwiązania problemu, zwiększając w ten sposób oszczędności kosztów i wpływając na satysfakcję i retencję . Istnieje znacznie więcej przypadków użycia sztucznej inteligencji w służbie zdrowia skupiających się na spersonalizowanych rozwiązaniach. Moglibyśmy napisać książkę tylko na ten temat.

 

Czy możesz porozmawiać o wyzwaniach związanych z agregacją danych z różnych źródeł, takich jak EMR, ERP, dane pacjentów, zewnętrzne źródła danych itp., w jeden spójny system danych?

Technologia informacyjna w opiece zdrowotnej (HCIT) to prawie zawsze ekosystem: rozproszona sieć odrębnych systemów. Typowym przykładem jest osobista dokumentacja zdrowia (PHR) — kompletny zestaw danych zawartych w dokumentacji medycznej pacjenta. Nawet jeśli duży system opieki zdrowotnej działa w ramach jednego, jednorodnego szpitalnego systemu informacyjnego, pacjenci prawdopodobnie będą mieli innych opiekunów, mogą mieć ubezpieczenie będące kolejnym źródłem danych, a dane z ich laboratoriów i aptek mogą równie dobrze być rozproszone w kilku klinikach i firmach. Chociaż istnieją standardowe zestawy transakcji do wymiany danych dotyczących opieki zdrowotnej, wspólne modele danych do przechowywania danych klinicznych (oraz schematy danych członków, pacjentów, klientów i dostawców), dostawcy rozwiązań AI w służbie zdrowia często muszą być w stanie wykazać, w jaki sposób rozwiązania mogą wykorzystać wiele z nich na jednorazowo — dane wewnętrzne i zewnętrzne, łączność danych i schematy danych. Oczywiście podstawą rozwiązań AI w służbie zdrowia są dane. Zatem możliwości agregowania danych muszą być podstawową kompetencją każdego dostawcy sztucznej inteligencji w służbie zdrowia.

 

Jakie kwestie należy wziąć pod uwagę w przypadku identyfikowalności danych?

Śledzenie danych jest składnikiem niektórych większych, pilnych problemów związanych ze sztuczną inteligencją w służbie zdrowia. Po pierwsze, identyfikowalność danych to jedna z kilku kwestii związanych z prywatnością, wykorzystaniem i wymianą danych. Na przykład, dokąd trafiają dane kliniczne lub informacje dotyczące zdrowia osobistego (PHI) i w jaki sposób są wykorzystywane? Kwestie te dotyczą regulacyjnych i prawnych aspektów bezpieczeństwa i prywatności danych w opiece zdrowotnej. Kwestie te stanowią zatem podzbiór etycznej i godnej zaufania sztucznej inteligencji. Etyczna sztuczna inteligencja musiałaby uwzględniać wykorzystanie danych, prywatność, regulacje i aspekty prawne itp., ze szczególnym uwzględnieniem etycznego wykorzystania danych. Zaufana sztuczna inteligencja obejmuje również aspekty wyjaśnialności i wykorzystania danych.

 

Jesteś doradcą w CognitiveScale. Czy możesz wyjaśnić, czym zajmuje się CognitiveScale i jak im doradzasz?

CognitiveScale to dostawca oprogramowania AI, które pomaga organizacjom budować, operacjonalizować i skalować kognitywne rozwiązania AI; zdają sobie sprawę z wartości sztucznej inteligencji w swoich organizacjach; i zarządzaj zaufaniem. W Healthcare pracujemy dla niektórych z największych organizacji płatników i dostawców w kraju, nad szeroką gamą przypadków użycia sztucznej inteligencji, w tym nowszymi pracami w takich obszarach, jak inteligentne interwencje związane z pandemią COVID-19 oraz nad tym, jak te rozwiązania ulegną następnie poprawie zarządzanie opieką, doświadczenie w świadczeniu usług i nie tylko, gdy kryzys już minie. Jako nasz główny ekspert w dziedzinie opieki zdrowotnej pomagam klientom i partnerom w bardziej strategiczny sposób w obszarach takich jak tworzenie solidnych planów działania w zakresie sztucznej inteligencji oraz bardziej taktycznie w obszarach takich jak realizacja wartości i optymalizacja. Pracuję również, aby pomóc w takich obszarach, jak rozwój produktów (na przykład funkcje i możliwości naszej platformy specyficzne dla opieki zdrowotnej) oraz przemyślane przywództwo, koncentrując się na rozwiązaniach AI w służbie zdrowia o najwyższej wartości (biorąc pod uwagę wielkość możliwości).

 

Czy mógłbyś nam zdefiniować, jakie są największe problemy związane z tym, że sztuczna inteligencja czasami działa jak czarna skrzynka, oraz potencjalne rozwiązania dla branży opieki zdrowotnej?

Jak wspomniałem, zaufana, etyczna sztuczna inteligencja to duże wyzwanie, a zaufanie wynika w dużej mierze z problemu „czarnej skrzynki”: braku możliwości wyjaśnienia lub widoczności oraz sceptycyzmu w kwestiach takich jak stronniczość, uczciwość, dokładność i solidność. W CognitiveScale nasze rozwiązanie Certiai specjalnie odpowiada na to wyzwanie i pomaga klientom w zakresie indeksu zaufania AI i jego części składowych (każda z własnym wynikiem i spostrzeżeniami): stronniczości, uczciwości, wyjaśnialności, solidności i dokładności. W służbie zdrowia zdarzają się przykłady stronniczych modeli lub sceptycyzmu klinicystów w stosunku do wyników modeli ze względu na brak przejrzystości lub możliwości wyjaśnienia. Istnieją również wymogi regulacyjne dotyczące prywatności i wykorzystania danych oraz stosowania modeli zapewniających uczciwe i bezstronne wyniki – i te informacje trafiły do ​​wiadomości. Współpracujemy z wieloma organizacjami zajmującymi się technologią i zarządzaniem ryzykiem, aby opracować niezawodne sposoby zapewniania widoczności i zwiększania zaufania do rozwiązań sztucznej inteligencji „czarnej skrzynki”.

 

Jakie są sposoby na zmniejszenie ER w przypadku nadmiernego nasycenia poprzez predykcyjną sztuczną inteligencję?

Unikanie oddziałów ratunkowych jest w rzeczywistości podzbiorem optymalizacji opieki i spersonalizowanej opieki zdrowotnej — właściwej opieki we właściwym czasie. Może to wymagać opieki w nagłych wypadkach, ale w wielu przypadkach tak nie jest. Niedawny kryzys związany z Covid-19 stanowi użyteczny przykład optymalizacji opieki. Na przykład właściwa opieka nad pacjentem wysokiego ryzyka w społeczności wysokiego ryzyka może obejmować kontakt z lekarzem, dostęp do ośrodka badawczego lub, w niektórych przypadkach, opiekę w nagłych przypadkach. Pacjenci, członkowie, świadczeniodawcy i płatnicy – ​​wszyscy chcą w czasie kryzysu odpowiedniego poziomu opieki we właściwym czasie, dlatego połączenie rozwiązań AI pomaga w dostarczaniu takich informacji, jak ocena ryzyka dla społeczności i pacjentów, analiza rozprzestrzeniania się, prognozy wykorzystania szpitala oraz spersonalizowane wskazówki dla pacjentów. konkretnych osób, między innymi rozwiązaniami. Oceniamy skuteczność naszych rozwiązań do zarządzania opieką na podstawie szeregu wskaźników wydajności, takich jak lepsze wyniki, w tym unikanie ER, w stosownych przypadkach.

Dziękuję za wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, mogą odwiedzić Skala poznawcza.

Partner-założyciel unite.AI i członek Rada Technologiczna Forbesa, Antoine jest futurysta który jest pasjonatem przyszłości sztucznej inteligencji i robotyki.

Jest także Założycielem Securities.io, witryna internetowa skupiająca się na inwestowaniu w przełomowe technologie.