Inteligencia artificial
Investigadores desarrollan la herramienta “DeepTrust” para ayudar a aumentar la confiabilidad de la IA

La seguridad y la confiabilidad de la inteligencia artificial (IA) es uno de los aspectos más grandes de la tecnología. Está siendo mejorada y trabajada constantemente por expertos de primer nivel en los diferentes campos, y será crucial para la implementación total de la IA en la sociedad.
Alguno de ese nuevo trabajo proviene de la Universidad del Sur de California, donde los investigadores de la USC Viterbi Engineering han desarrollado una nueva herramienta capaz de generar indicadores automáticos para determinar si los algoritmos de IA son confiables en sus datos y predicciones.
La investigación se publicó en Frontiers in Artificial Intelligence, titulada “Hay esperanza después de todo: Cuantificando la opinión y la confiabilidad en las redes neuronales”. Los autores del artículo incluyen a Mingxi Cheng, Shahin Nazarian y Paul Bogdan del Grupo de Sistemas Físicos y Cibernéticos de la USC.
Confiabilidad de las redes neuronales
Una de las tareas más grandes en este área es hacer que las redes neuronales generen predicciones que puedan ser confiables. En muchos casos, esto es lo que detiene la adopción total de la tecnología que depende de la IA.
Por ejemplo, los vehículos autónomos requieren actuar de forma independiente y tomar decisiones precisas en piloto automático. Necesitan ser capaces de tomar estas decisiones extremadamente rápido, mientras descifran y reconocen objetos en la carretera. Esto es crucial, especialmente en escenarios en los que la tecnología tendría que descifrar la diferencia entre un bache, otro objeto o un ser vivo.
Otros escenarios incluyen el vehículo autónomo decidiendo qué hacer cuando otro vehículo se enfrenta a él de frente, y la decisión más compleja de todas es si ese vehículo autónomo necesita decidir entre golpear lo que percibe como otro vehículo, algún objeto o un ser vivo.
Todo esto significa que estamos poniendo una cantidad extrema de confianza en la capacidad del software del vehículo autónomo para tomar la decisión correcta en solo fracciones de un segundo. Se vuelve aún más difícil cuando hay información contradictoria de diferentes sensores, como la visión por computadora de las cámaras y el Lidar.
El autor principal Minxi Cheng decidió tomar este proyecto después de pensar: “Incluso los humanos pueden ser indecisos en ciertos escenarios de toma de decisiones. En casos que involucran información contradictoria, ¿por qué las máquinas no pueden decirnos cuando no saben?”
DeepTrust
La herramienta que fue creada por los investigadores se llama DeepTrust, y es capaz de cuantificar la cantidad de incertidumbre, según Paul Bogdan, profesor asociado en el Departamento de Ingeniería Eléctrica y de Computadoras Ming Hsieh.
El equipo pasó casi dos años desarrollando DeepTrust, principalmente utilizando lógica subjetiva para evaluar las redes neuronales. En un ejemplo de la herramienta en funcionamiento, fue capaz de analizar las encuestas de las elecciones presidenciales de 2016 y predecir que había un mayor margen de error para que Hillary Clinton ganara.
La herramienta DeepTrust también hace que sea más fácil probar la confiabilidad de los algoritmos de IA que normalmente se entrenan con hasta millones de puntos de datos. La otra forma de hacer esto es comprobando de forma independiente cada uno de los puntos de datos para probar la precisión, lo que es una tarea extremadamente tediosa.
Según los investigadores, la arquitectura de estos sistemas de redes neuronales es más precisa, y la precisión y la confiabilidad pueden maximizarse simultáneamente.
“Hasta donde sabemos, no hay un modelo o herramienta de cuantificación de confiabilidad para el aprendizaje profundo, la inteligencia artificial y el aprendizaje automático. Este es el primer enfoque y abre nuevas direcciones de investigación”, dice Bogdan.
Bogdan también cree que DeepTrust podría ayudar a impulsar la IA hacia el punto en que sea “consciente y adaptable”.










