stub Johns Hopkins-ingeniører bruger kunstig intelligens til at se dybere ind i hjerner hos mus - Unite.AI
Følg os

Kunstig intelligens

Johns Hopkins-ingeniører bruger kunstig intelligens til at se dybere ind i hjerner hos mus

Opdateret on

En gruppe biomedicinske ingeniører hos Johns Hopkins har udviklet en kunstig intelligens (AI) træningsstrategi for at få en dybere forståelse af hjernen hos mus. Den nye strategi fanger billeder af musehjerneceller, når de er aktive. 

Ifølge holdet kan AI-systemet bruges sammen med specialiserede ultrasmå mikroskoper til at detektere præcis, hvor og hvornår celler aktiveres under bevægelse, indlæring og hukommelse. Ved at indsamle indsigtsfulde data med denne nye strategi kunne forskerne i sidste ende forstå, hvordan hjernen fungerer og påvirkes af sygdom. 

Den nye forskning blev offentliggjort i tidsskriftet Nature Communications

Xingde Li, Ph.D., er professor i biomedicinsk ingeniørvidenskab ved Johns Hopkins University School of Medicine. 

"Når en musehoved holdes tilbage til billeddannelse, repræsenterer dens hjerneaktivitet muligvis ikke rigtig dens neurologiske funktion," siger Li. "For at kortlægge hjernekredsløb, der styrer daglige funktioner hos pattedyr, er vi nødt til at se præcist, hvad der sker mellem individuelle hjerneceller og deres forbindelser, mens dyret frit bevæger sig rundt, spiser og socialiserer."

Indsamling af data med ultra-små mikroskoper

Holdet satte sig for at indsamle de detaljerede data ved at skabe ultrasmå mikroskoper, der kan placeres på toppen af ​​musenes hoveder. Med det sagt er mikroskoperne kun et par millimeter i diameter, så de begrænser mængden af ​​billedteknologi, der kan bæres. Musens vejrtrækning eller hjertefrekvens kan også påvirke nøjagtigheden af ​​de data, der fanges af mikroskopet, så forskere vurderer, at de ville være nødt til at overstige 20 billeder i sekundet for at eliminere sådanne forstyrrelser.

"Der er to måder at øge billedhastigheden på," siger Li. "Du kan øge scanningshastigheden, og du kan reducere antallet af scannede punkter." 

Ingeniørteamet udførte tidligere forskning, hvor de nåede de fysiske grænser for scanneren med seks billeder i sekundet. I den anden strategi øgede de billedhastigheden ved at reducere antallet af scannede punkter. Denne strategi fik mikroskopet til at fange data med lavere opløsning. 

Fra sløret til lyst: AI Tech hjælper forskere med at kigge ind i musenes hjerner

Træning af et AI-program

Ifølge Lis hypotese kunne et AI-program trænes til at genkende og gendanne de manglende punkter, hvilket ville resultere i højere opløsning. En af de store udfordringer ved en sådan tilgang er dog, at der mangler lignende billeder af musehjerner at træne AI imod. 

Holdet satte sig for at overvinde dette ved at udvikle en to-trins træningsstrategi. Den første trænede AI til at identificere hjernens byggesten fra billeder af faste prøver af musehjernevæv. De trænede derefter AI'en til at genkende byggestenene i en hovedspændt levende mus, der var under det ultralille mikroskop. Denne nye teknik gjorde det muligt for AI at genkende hjerneceller med naturlig strukturel variation og bevægelse forårsaget af bevægelsen af ​​musens vejrtrækning og hjerteslag. 

"Håbet var, at når vi indsamler data fra en mus i bevægelse, vil de stadig være ens nok til, at AI-netværket kan genkende," siger Li

Forskerne testede AI-programmet for at afgøre, om det nøjagtigt kunne forbedre musens hjernebilleder ved gradvist at øge billedhastigheden. De fandt ud af, at AI kunne genoprette billedkvaliteten op til 26 billeder i sekundet. 

For at fortælle, hvordan AI-værktøjet ville fungere med et minimikroskop fastgjort til en mus, var forskerne i stand til at se på aktivitetsspidserne af individuelle hjerneceller, der blev aktiveret af musen, der bevægede sig rundt i sit miljø. 

"Vi kunne aldrig have set denne information med så høj opløsning og billedhastighed før," siger Li. "Denne udvikling kunne gøre det muligt at indsamle mere information om, hvordan hjernen er dynamisk forbundet med handling på cellulært niveau."

Ifølge holdet kunne AI-programmet gennemgå mere træning for at fortolke billeder nøjagtigt op til 104 billeder i sekundet. 

 

Alex McFarland er en AI-journalist og forfatter, der udforsker den seneste udvikling inden for kunstig intelligens. Han har samarbejdet med adskillige AI-startups og publikationer verden over.