Connect with us

Inteligencia artificial

¿Es todavía relevante el aprendizaje automático tradicional?

mm
Is Traditional Machine Learning Still Relevant?

En los últimos años, la Inteligencia Artificial Generativa ha mostrado resultados prometedores en la resolución de tareas complejas de IA. Los modelos de IA modernos como ChatGPT, Bard, LLaMA, DALL-E.3, y SAM han demostrado capacidades notables en la resolución de problemas multidisciplinarios como la respuesta a preguntas visuales, segmentación, razonamiento y generación de contenido.

Además, las técnicas de Inteligencia Artificial Multimodal han surgido, capaces de procesar múltiples modalidades de datos, es decir, texto, imágenes, audio y videos simultáneamente. Con estos avances, es natural preguntarse: ¿Estamos acercándonos al final del aprendizaje automático tradicional (ML)?

En este artículo, examinaremos el estado del paisaje del aprendizaje automático tradicional en relación con las innovaciones de la IA generativa moderna.

¿Qué es el aprendizaje automático tradicional? – ¿Cuáles son sus limitaciones?

El aprendizaje automático tradicional es un término amplio que cubre una gran variedad de algoritmos impulsados principalmente por estadísticas. Los dos principales tipos de algoritmos de ML tradicionales son supervisados y no supervisados. Estos algoritmos están diseñados para desarrollar modelos a partir de conjuntos de datos estructurados.

Los algoritmos de aprendizaje automático tradicional estándar incluyen:

  • Algoritmos de regresión como lineal, lasso y ridge.
  • K-means Clustering.
  • Análisis de componentes principales (PCA).
  • Máquinas de soporte vectorial (SVM).
  • Algoritmos basados en árboles como árboles de decisión y bosque aleatorio.
  • Modelos de impulso como gradient boosting y XGBoost.

Limitaciones del aprendizaje automático tradicional

El aprendizaje automático tradicional tiene las siguientes limitaciones:

  1. Escalabilidad limitada: Estos modelos a menudo necesitan ayuda para escalar con grandes y diversos conjuntos de datos.
  2. Preprocesamiento de datos y ingeniería de características: El aprendizaje automático tradicional requiere un preprocesamiento extensivo para transformar los conjuntos de datos según los requisitos del modelo. Además, la ingeniería de características puede ser tediosa y requiere múltiples iteraciones para capturar relaciones complejas entre las características de los datos.
  3. Datos de alta dimensionalidad y no estructurados: El aprendizaje automático tradicional lucha con tipos de datos complejos como imágenes, audio, videos y documentos.
  4. Adaptabilidad a datos no vistos: Estos modelos pueden no adaptarse bien a datos del mundo real que no formaban parte de su conjunto de datos de entrenamiento.

Redes Neuronales: Pasando del aprendizaje automático al aprendizaje profundo y más allá

Neural Network: Moving from Machine Learning to Deep Learning & Beyond

Los modelos de redes neuronales (NN) son mucho más complejos que los modelos de aprendizaje automático tradicionales. La red neuronal más simple, Multilayer Perceptron (MLP), consiste en varias neuronas conectadas para comprender la información y realizar tareas, similar a cómo funciona el cerebro humano.

Los avances en las técnicas de redes neuronales han formado la base para la transición del aprendizaje automático al aprendizaje profundo. Por ejemplo, las NN utilizadas para tareas de visión por computadora (detección de objetos y segmentación de imágenes) se llaman redes neuronales convolucionales (CNNs), como AlexNet, ResNet y YOLO.

Hoy en día, la tecnología de IA generativa está llevando las técnicas de redes neuronales un paso más allá, permitiéndole destacar en varios dominios de IA. Por ejemplo, las redes neuronales utilizadas para tareas de procesamiento de lenguaje natural (como resumen de texto, respuesta a preguntas y traducción) se conocen como transformadores. Los modelos de transformadores prominentes incluyen BERT, GPT-4 y T5. Estos modelos están teniendo un impacto en industrias que van desde la salud, el comercio minorista, el marketing, finanzas, etc.

¿Todavía necesitamos algoritmos de aprendizaje automático tradicionales?

Do We Still Need Traditional Machine Learning Algorithms?

Aunque las redes neuronales y sus variantes modernas como los transformadores han recibido mucha atención, los métodos de aprendizaje automático tradicionales siguen siendo cruciales. Veamos por qué siguen siendo relevantes.

1. Requisitos de datos más simples

Las redes neuronales demandan grandes conjuntos de datos para el entrenamiento, mientras que los modelos de ML pueden lograr resultados significativos con conjuntos de datos más pequeños y simples. Por lo tanto, el ML es preferido sobre el aprendizaje profundo para conjuntos de datos estructurados más pequeños y viceversa.

2. Simplicidad e interpretación

Los modelos de aprendizaje automático tradicionales se basan en modelos estadísticos y de probabilidad más simples. Por ejemplo, una línea de mejor ajuste en regresión lineal establece la relación entre la entrada y la salida utilizando el método de los mínimos cuadrados, una operación estadística.

De manera similar, los árboles de decisión utilizan principios probabilísticos para clasificar los datos. El uso de dichos principios ofrece interpretación y facilita a los practicantes de IA comprender el funcionamiento de los algoritmos de ML.

Las arquitecturas modernas de NN como los transformadores y los modelos de difusión (utilizados comúnmente para la generación de imágenes como Stable Diffusion o Midjourney) tienen una estructura de red compleja y multicapa. Comprender dichas redes requiere una comprensión de conceptos matemáticos avanzados. Es por eso que también se les conoce como ‘Cajas Negras’.

3. Eficiencia de recursos

Las redes neuronales modernas como los Grandes Modelos de Lenguaje (LLM) se entrenan en clústeres de GPUs costosas según sus requisitos computacionales. Por ejemplo, se informó que GPT4 se entrenó en 25000 GPUs de Nvidia durante 90 a 100 días.

Sin embargo, el hardware costoso y el tiempo de entrenamiento prolongado no son factibles para todos los practicantes o equipos de IA. Por otro lado, la eficiencia computacional de los algoritmos de aprendizaje automático tradicionales permite a los practicantes lograr resultados significativos incluso con recursos limitados.

4. No todos los problemas necesitan aprendizaje profundo

El aprendizaje profundo no es la solución absoluta para todos los problemas. Existen escenarios en los que el ML supera al aprendizaje profundo.

Por ejemplo, en diagnóstico y pronóstico médico con datos limitados, un algoritmo de ML para detección de anomalías como REMED entrega mejores resultados que el aprendizaje profundo. De manera similar, el aprendizaje automático tradicional es significativo en escenarios con baja capacidad computacional como una solución flexible y eficiente.

Primordialmente, la selección del mejor modelo para cualquier problema depende de las necesidades de la organización o practicante y la naturaleza del problema en cuestión.

Aprendizaje automático en 2023

Machine Learning in 2023

Imagen generada utilizando Leonardo AI

En 2023, el aprendizaje automático tradicional sigue evolucionando y compitiendo con el aprendizaje profundo y la IA generativa. Tiene varios usos en la industria, particularmente cuando se trata de conjuntos de datos estructurados.

Por ejemplo, muchas empresas de bienes de consumo lidian con grandes cantidades de datos tabulares y confían en algoritmos de ML para tareas críticas como recomendaciones de productos personalizados, optimización de precios, gestión de inventario y optimización de la cadena de suministro.

Además, muchos modelos de visión y lenguaje todavía se basan en técnicas tradicionales, ofreciendo soluciones en enfoques híbridos y aplicaciones emergentes. Por ejemplo, un estudio reciente titulado “¿Realmente necesitamos modelos de aprendizaje profundo para la predicción de series temporales?” ha discutido cómo los árboles de regresión de impulso (GBRTs) son más eficientes para la predicción de series temporales que las redes neuronales profundas.

La interpretación del ML sigue siendo muy valiosa con técnicas como SHAP (Explicaciones Aditivas de Shapley) y LIME (Explicaciones Locales e Interpretación de Modelos Agnósticos). Estas técnicas explican modelos de ML complejos y proporcionan información sobre sus predicciones, lo que ayuda a los practicantes de ML a comprender mejor sus modelos.

Finalmente, el aprendizaje automático tradicional sigue siendo una solución robusta para diversas industrias que abordan la escalabilidad, la complejidad de los datos y las limitaciones de recursos. Estos algoritmos son insustituibles para el análisis de datos y la modelización predictiva y seguirán siendo parte del arsenal de un científico de datos.

Si temas como este te intrigan, explora Unite AI para obtener más información.

Haziqa es una científica de datos con amplia experiencia en la escritura de contenido técnico para empresas de inteligencia artificial y SaaS.