Connect with us

Etyka

Międzynarodowi naukowcy apelują o większą przejrzystość w badaniach nad sztuczną inteligencją

mm

Grupa międzynarodowych naukowców z różnych instytucji, w tym Princess Margaret Cancer Centre, University of Toronto, Stanford University, Johns Hopkins, Harvard School of Public Health oraz Massachusetts Institute of Technology, apeluje o większą przejrzystość w badaniach nad sztuczną inteligencją (AI). Główną siłą napędową tego apelu jest uwolnienie ważnych odkryć, które mogą przyspieszyć leczenie raka na podstawie badań. 

Artykuł, w którym naukowcy wezwali czasopisma naukowe do podniesienia standardów w zakresie przejrzystości wśród badaczy komputeryjnych, został opublikowany w Nature 14 października 2020 r. Grupa ta również opowiadała się za tym, aby ich koledzy udostępniali kod, model i środowiska komputeryjne w publikacjach. 

Artykuł nosił tytuł „Przejrzystość i powtarzalność w sztucznej inteligencji.” 

Udostępnianie szczegółów badań nad AI

Dr Benjamin Haibe-Kains jest starszym naukowcem w Princess Margaret Cancer Centre i pierwszym autorem publikacji. 

„Postęp naukowy zależy od możliwości badaczy skrupulatnego sprawdzania wyników badania i powtarzania głównych ustaleń, aby się z nich uczyć”, mówi dr Haibe-Kains. „Ale w badaniach komputeryjnych nie jest to jeszcze powszechny kryterium, aby szczegóły badania nad AI były w pełni dostępne. To szkodzi naszemu postępowi.” 

Obawy pojawiły się po opublikowaniu badania Google Health przez McKinney et al. w ważnym czasopiśmie naukowym w 2020 r., w którym twierdzono, że system AI może przewyższać ludzkich radiologów pod względem wytrzymałości i szybkości w przypadku badań mammograficznych. Badanie to otrzymało wiele uwagi medialnej w różnych głównych publikacjach. 

Niezdolność do odtworzenia modeli

Jednym z głównych problemów, które pojawiły się po badaniu, było to, że nie opisano w nim szczegółowo zastosowanych metod, a także kodu i modeli. Brak przejrzystości oznaczał, że badacze nie mogli się dowiedzieć, jak działa model, w wyniku czego model nie mógł być wykorzystywany przez inne instytucje. 

„Na papierze i w teorii badanie McKinney et al. jest piękne”, mówi dr Haibe-Kains. „Ale jeśli nie możemy się z niego uczyć, to ma ono niewielką lub żadną wartość naukową.”

Dr Haibe-Kains został wspólnie powołany na stanowisko profesora nadzwyczajnego w dziedzinie biofizyki medycznej na University of Toronto. Jest on również afiliowany w Vector Institute for Artificial Intelligence. 

„Badacze są bardziej zmotywowani do opublikowania swoich wyników niż do poświęcenia czasu i zasobów, aby upewnić się, że ich badanie może być powtórzone”, kontynuuje dr Haibe-Kains. „Czasopisma są podatne na „hype” AI i mogą obniżać standardy przyjmowania artykułów, które nie zawierają wszystkich materiałów wymaganych do tego, aby badanie było powtarzalne — często w sprzeczności z własnymi wytycznymi.”

To środowisko oznacza, że modele AI mogą dłużej trwać, zanim trafią do środowisk klinicznych, a modele nie mogą być powtarzane ani poznawane przez badaczy. 

Grupa badaczy zaproponowała różne ramy i platformy, aby zaradzić temu problemowi i umożliwić udostępnianie metod. 

„Mamy duże nadzieje na to, że AI będzie przydatne dla naszych pacjentów z rakiem”, mówi dr Haibe-Kains. „Udostępnianie i rozwijanie naszych odkryć — to prawdziwy wpływ naukowy.”

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją, który bada najnowsze rozwoje w dziedzinie sztucznej inteligencji. Współpracował z licznymi startupami i wydawnictwami związanymi z sztuczną inteligencją na całym świecie.