Wywiady
Dr Alberto-Giovanni Busetto, dyrektor ds. sztucznej inteligencji w HealthAI – seria wywiadów

Dr Alberto-Giovanni Busetto jest szwajcarsko-włoskim dyrektorem i innowatorem w dziedzinie sztucznej inteligencji oraz dyrektorem ds. sztucznej inteligencji ZdrowieAIJest członkiem Globalne Rady Przyszłości Światowego Forum Ekonomicznego i wcześniej piastował pionierskie stanowiska jako pierwszy globalny dyrektor ds. nauki o danych i sztucznej inteligencji w Merck Healthcare oraz pierwszy starszy wiceprezes ds. danych i sztucznej inteligencji w Adecco Group.
Przez całą swoją karierę Alberto-Giovanni był uznawany za mentora UN Global Compact, Merck Digital Champion i IBM Distinguished Speaker. Przyczynił się do globalnego zarządzania AI jako członek Task-Force w World Employment Confederation i został uhonorowany przez US National Academy of Engineering FoE jako jeden z wybitnych młodych inżynierów w kraju. Ponadto pełnił funkcję amerykańskiego przewodniczącego Big Data w Japan-America Frontiers of Engineering.
Co zainspirowało Cię do przejścia ze stanowisk kierowniczych w obszarze AI w dużych firmach, takich jak Merck, na stanowisko kierownicze w obszarze HealthAI?
Witam, nazywam się dr Alberto-Giovanni Busetto, dyrektor ds. sztucznej inteligencji w firmie HealthAI – Globalna Agencja Odpowiedzialnej Sztucznej Inteligencji w Ochronie Zdrowia. Posiadam ponad 20-letnie doświadczenie w projektowaniu, rozwijaniu, wdrażaniu i zarządzaniu rozwiązaniami AI. Moja kariera była naznaczona zaangażowaniem w wykorzystywanie AI w celu uzyskania znaczącego wpływu. W Merck Healthcare pełniłem funkcję inauguracyjnego Global Head of Data Science & AI, gdzie kierowałem rozwojem rozwiązań opartych na AI w opiece zdrowotnej i biotechnologii. Ta rola podkreśliła transformacyjny potencjał AI w sektorach opieki zdrowotnej.
Przejście na HealthAI pozwoliło mi bardziej intensywnie skupić się na odpowiedzialnym wdrażaniu AI w ochronie zdrowia, mając na celu zniwelowanie luki między innowacjami technologicznymi a opieką skoncentrowaną na człowieku. W tym kontekście zarządzanie danymi jest również jednym z moich głównych punktów zainteresowania. Coś, co naprawdę mnie ekscytuje w HealthAI, to praca, którą wykonujemy w kontekście piaskownic regulacyjnych i innowacyjnych, budujemy plany, aby przyspieszyć rozwój i przyjęcie odpowiedzialnej AI na dużą skalę, aby umożliwić innowatorom.
Kieruje mną pytanie: W jaki sposób możemy sprawić, by sztuczna inteligencja była nie tylko mądrzejsza, ale także naprawdę użyteczna tam, gdzie jest to najbardziej potrzebne — w poprawianiu jakości życia ludzi? W HealthAI mam okazję kształtować sposób, w jaki myślimy o AI w ochronie zdrowia, oferując rządom i instytucjom ochrony zdrowia wskazówki dotyczące wdrażania rozwiązań AI, które są nie tylko najnowocześniejsze, ale także etyczne, przejrzyste i głęboko osadzone w rzeczywistych potrzebach zdrowotnych. Dla mnie nie chodzi tylko o algorytmy — chodzi o wpływ.
Co najbardziej Cię ekscytuje w połączeniu sztucznej inteligencji i zdrowia?
Połączenie sztucznej inteligencji i opieki zdrowotnej stwarza możliwości poprawy wyników leczenia poprzez ulepszoną diagnostykę, spersonalizowane metody leczenia i zoptymalizowane rozwiązania zdrowotne. Zdolność sztucznej inteligencji do analizy złożonych zestawów danych może na przykład prowadzić do wcześniejszego wykrywania chorób i dokładniejszych prognoz.
Najbardziej ekscytuje mnie to, że te postępy nie są zarezerwowane tylko dla krajów o wysokich dochodach — mają one również potencjał, aby przekształcić sektory opieki zdrowotnej w krajach o niskich i średnich dochodach. Diagnostyka oparta na sztucznej inteligencji może zapewnić specjalistyczne informacje regionom o ograniczonej wiedzy medycznej, analityka predykcyjna może pomóc w alokacji zasobów tam, gdzie są najbardziej potrzebne, a narzędzia cyfrowej opieki zdrowotnej mogą przezwyciężyć luki w dostępie do opieki. Dzięki odpowiedzialnemu wdrażaniu sztucznej inteligencji możemy tworzyć bardziej sprawiedliwe rozwiązania zdrowotne, które służą ludziom wszędzie, niezależnie od geografii lub poziomu dochodów.
W jaki sposób AI może pomóc zamknąć lukę zdrowotną między krajami o wysokich dochodach a krajami o niskich i średnich dochodach? Jakie wyzwania istnieją w zapewnieniu równego dostępu?
Sztuczna inteligencja ma potencjał demokratyzacji zdrowia poprzez udostępnianie zaawansowanych spostrzeżeń medycznych na całym świecie. W regionach o ograniczonej wiedzy medycznej narzędzia diagnostyczne oparte na sztucznej inteligencji mogą pomóc w dokładnym identyfikowaniu chorób. Na przykład platformy telemedyczne, ulepszone przez sztuczną inteligencję, mogą łączyć pacjentów w odległych obszarach ze specjalistami na całym świecie, ułatwiając transfer wiedzy i poprawiając jakość opieki.
Zapewnienie równego dostępu do rozwiązań zdrowotnych opartych na sztucznej inteligencji wiąże się z koniecznością rozwiązania kilku problemów, z których niektóre są najbardziej widoczne w ograniczeniach infrastruktury. Może to utrudniać wdrażanie technologii sztucznej inteligencji, ponieważ wiele regionów może nie mieć niezbędnych ram cyfrowych do obsługi zaawansowanych rozwiązań.
Obawy dotyczące prywatności danych również pozostają krytyczne — ochrona danych osobowych wymaga solidnych struktur zarządzania, aby zapewnić poufność i bezpieczeństwo. Ponadto systemy AI muszą być dostosowane do lokalnych języków i kontekstów kulturowych, aby były naprawdę skuteczne, pokonując bariery, które w przeciwnym razie mogłyby ograniczyć dostępność.
Przeszkody regulacyjne jeszcze bardziej komplikują sytuację, ponieważ znalezienie właściwej równowagi między wspieraniem innowacji a zapewnieniem prywatności i bezpieczeństwa wymaga przemyślanego rozwoju polityki. Poprzez proaktywne podejście do tych wyzwań, sztuczna inteligencja może stać się potężnym narzędziem poprawy globalnej równości w zakresie zdrowia.
Jak istotna jest współpraca między rządami, firmami technologicznymi i placówkami służby zdrowia dla zapewnienia odpowiedzialnego rozwoju i wdrażania sztucznej inteligencji?
Współpraca między rządami, firmami technologicznymi i dostawcami opieki zdrowotnej nie jest tylko korzystna — jest niezbędna do odpowiedzialnego rozwoju i wdrażania AI w ochronie zdrowia. Te partnerstwa umożliwiają tworzenie kompleksowych ram, które uwzględniają kwestie etyczne, chronią prywatność danych i ustanawiają standardy operacyjne, które zapewniają, że AI jest zarówno skuteczna, jak i godna zaufania.
Dzięki współpracy interesariusze mogą wyjść poza rozdrobnione, uniwersalne rozwiązania i zamiast tego opracować podejścia oparte na sztucznej inteligencji, które są dostosowane do rzeczywistych potrzeb zdrowotnych. Oznacza to wykorzystanie sztucznej inteligencji do ulepszania diagnostyki, usprawniania klinicznych przepływów pracy i rozszerzania dostępu do opieki wysokiej jakości — szczególnie w regionach niedostatecznie obsługiwanych. Ponadto współpraca sprzyja przejrzystości i rozliczalności, zapewniając, że sztuczna inteligencja pozostaje narzędziem do wzmacniania pozycji, a nie wykluczania.
Gdy innowacja jest napędzana wspólną odpowiedzialnością i dostosowana do priorytetów zdrowia publicznego, sztuczna inteligencja ma potencjał, aby zmienić nasze podejście do zdrowia w sposób zarówno transformacyjny, jak i sprawiedliwy.
Jakie względy etyczne powinny być brane pod uwagę przy opracowywaniu rozwiązań medycznych opartych na sztucznej inteligencji?
Kiedy myślimy o kwestiach etycznych w rozwiązaniach zdrowotnych opartych na sztucznej inteligencji, jest kilka kluczowych obszarów, na których musimy się skupić. Po pierwsze, musimy zająć się łagodzeniem uprzedzeń, aby upewnić się, że modele AI nie będą nieumyślnie wzmacniać istniejących dysproporcji zdrowotnych. Przejrzystość jest również kluczowa, ponieważ proces podejmowania decyzji w ramach AI musi być jasny i zrozumiały dla wszystkich zaangażowanych stron. Następnie pojawia się odpowiedzialność, z jasnymi liniami odpowiedzialności za wszelkie decyzje podejmowane przez systemy AI, tak aby ktoś mógł zostać pociągnięty do odpowiedzialności, jeśli coś pójdzie nie tak.
Autonomia jest sednem etycznej sztucznej inteligencji w ochronie zdrowia, co oznacza, że musimy nie tylko szanować, ale i aktywnie wspierać prawa ludzi do podejmowania świadomych decyzji dotyczących ich opieki. To wykracza poza samo dostarczanie informacji — chodzi o zapewnienie, że ludzie w pełni rozumieją swoje opcje, potencjalne ryzyko i korzyści oraz rolę, jaką odgrywa sztuczna inteligencja w miejscach, w których jest wykorzystywana.
Musimy zagwarantować, że użytkownicy i osoby korzystające ze sztucznej inteligencji będą czuć się pewnie i będą świadomi swoich wyborów, wiedząc, że mają wpływ na technologie, które wpływają na ich zdrowie i samopoczucie.
Modele AI w ochronie zdrowia czasami wykazują stronniczość. W jaki sposób regulatorzy i twórcy AI mogą złagodzić to ryzyko?
Aby złagodzić błędy w modelach AI, konieczne jest, aby regulatorzy i deweloperzy skupili się na budowaniu systemów, które są reprezentatywne dla różnych populacji. Zaczyna się to od zbierania danych z szerokiego zakresu grup demograficznych, dzięki czemu AI jest szkolona na informacjach, które odzwierciedlają rzeczywistą różnorodność pacjentów. Jednak same dane nie wystarczą — kluczowe jest również ciągłe monitorowanie, ponieważ systemy AI powinny być regularnie oceniane w celu identyfikowania i korygowania wszelkich stronniczych wzorców, które mogą pojawić się z czasem.
Włączenie w proces rozwoju różnych interesariuszy, w tym etyków, przedstawicieli pacjentów, lekarzy, ekspertów medycznych itp., może zapewnić cenne perspektywy, które pomogą zapewnić, że modele sztucznej inteligencji będą służyć każdemu w sposób sprawiedliwy i uczciwy.
W jaki sposób rządy i organizacje mogą zagwarantować, że rozwiązania medyczne oparte na sztucznej inteligencji będą odpowiedzialnie wykorzystywać dane pacjentów?
Aby mieć pewność, że rozwiązania medyczne oparte na sztucznej inteligencji wykorzystują dane pacjentów w sposób odpowiedzialny, rządy i organizacje muszą wdrożyć solidne zasady zarządzania danymi, które jasno określą sposób gromadzenia, przechowywania i udostępniania informacji o pacjentach.
Techniki anonimizacji odgrywają również zasadniczą rolę w ochronie tożsamości ludzi, zapewniając, że dane mogą być wykorzystywane bez naruszania prywatności. Ponadto przestrzeganie zarówno międzynarodowych, jak i lokalnych przepisów o ochronie danych jest niezbędne nie tylko do utrzymania zaufania, ale także do zapewnienia, że systemy AI działają w granicach prawnych. Takie podejście pomaga stworzyć fundament bezpieczeństwa i przejrzystości, który przynosi korzyści zarówno ludziom, jak i całemu sektorowi zdrowia.
Jakie są największe przeszkody w regulowaniu kwestii sztucznej inteligencji w ochronie zdrowia i w jaki sposób państwa mogą je pokonać?
Pierwsze, co przychodzi na myśl, to szybkie tempo, w jakim rozwija się technologia. Przepisy często mają problem z nadążaniem za tym, jak szybko pojawiają się innowacje AI, co powoduje luki w nadzorze. Ponadto decydenci polityczni potrzebują głębszego zrozumienia zarówno technologii AI, jak i wyjątkowej złożoności zdrowia, aby tworzyć skuteczne, świadome przepisy.
Kolejną przeszkodą jest brak globalnej standaryzacji — bez spójnych przepisów obowiązujących w różnych krajach trudno jest wspierać międzynarodową współpracę i zagwarantować, że rozwiązania z zakresu sztucznej inteligencji będą mogły być bezpiecznie i etycznie wdrażane na całym świecie.
Aby pokonać te przeszkody, kraje będą musiały inwestować w ciągłe kształcenie decydentów, dążyć do ujednolicenia przepisów na szczeblu międzynarodowym i zachować elastyczność w dostosowywaniu się do nowych osiągnięć technologicznych.
Kraje mogą stawić czoła tym przeszkodom, wspierając ciągły dialog między technologami, pracownikami służby zdrowia i regulatorami oraz inwestując w programy edukacyjne i szkoleniowe, które wypełniają luki w wiedzy. HealthAI na przykład zajmuje się tym za pośrednictwem swojej Global Regulatory Network (GRN), która wzmacnia lokalne możliwości i zdolności w zakresie regulacji AI w ochronie zdrowia, zapewniając, że regulatorzy na całym świecie są dobrze przygotowani do zarządzania ewoluującym krajobrazem AI w ochronie zdrowia.
W jaki sposób HealthAI pomaga krajom budować i certyfikować odpowiedzialne mechanizmy walidacji sztucznej inteligencji?
Jako partner wdrożeniowy, HealthAI współpracuje z rządami, ministerstwami zdrowia i innymi organizacjami ochrony zdrowia, aby nie tylko zapewnić bezpieczeństwo i skuteczność narzędzi medycznych opartych na sztucznej inteligencji, ale także zapewnić ich zgodność z normami etycznymi, zapewniając tym samym, że technologia ta jest zgodna zarówno z wymogami regulacyjnymi, jak i wartościami społecznymi.
HealthAI wspiera rozwój rygorystycznych procesów certyfikacji, które pomagają budować zaufanie i rozliczalność w rozwiązaniach AI w zakresie zdrowia. Dzięki temu zapewniamy, że systemy AI spełniają najwyższe standardy przed wdrożeniem, co jest niezbędne do ochrony dobrostanu, poprawy korzystnych wyników i wspierania globalnego zaufania do odpowiedzialnego korzystania z AI w ochronie zdrowia.
W jaki sposób można wykorzystać sztuczną inteligencję do przewidywania, śledzenia i zarządzania przyszłymi kryzysami zdrowotnymi?
AI może odegrać kluczową rolę w zarządzaniu kryzysami zdrowotnymi, dostarczając narzędzia do przewidywania, śledzenia i zarządzania ogniskami epidemii w sposób bardziej efektywny. Dzięki analityce predykcyjnej AI może analizować ogromne ilości danych epidemiologicznych, identyfikując wzorce i trendy, które mogą sygnalizować możliwość wystąpienia ogniska choroby, zanim ono nastąpi, dając władzom czas na przygotowanie się. Ponadto nadzór w czasie rzeczywistym obsługiwany przez AI może stale monitorować dane dotyczące zdrowia ze szpitali, klinik i innych źródeł, umożliwiając szybkie wykrywanie pojawiających się zagrożeń i możliwość szybkiego reagowania w celu ich powstrzymania.
AI może również pomóc w optymalizacji zasobów w czasie kryzysu, pomagając władzom wydajniej przydzielać środki medyczne, personel i inne krytyczne zasoby, zapewniając, że są one wykorzystywane tam, gdzie są najbardziej potrzebne. Poprzez integrację AI ze strategiami zdrowia publicznego kraje mogą poprawić swoją zdolność do przewidywania i reagowania na przyszłe sytuacje kryzysowe w zakresie zdrowia, zwiększając zarówno gotowość, jak i odporność w obliczu ewoluujących zagrożeń. To proaktywne podejście ratuje życie i pomaga zminimalizować ogólny wpływ kryzysów zdrowotnych na społeczeństwo i gospodarkę.
Dziękuję za wspaniały wywiad. Czytelnicy chcący dowiedzieć się więcej powinni odwiedzić nas ZdrowieAI.