talón ¿Sigue siendo relevante el aprendizaje automático tradicional? - Unir.AI
Contáctanos

Inteligencia artificial

¿Sigue siendo relevante el aprendizaje automático tradicional?

mm

Publicado

 on

¿Sigue siendo relevante el aprendizaje automático tradicional?

En los últimos años, la IA generativa ha mostrado resultados prometedores en la resolución de tareas complejas de IA. Modelos modernos de IA como ChatGPT, Bardo, Llama, DALL-E.3y SAM han demostrado capacidades notables para resolver problemas multidisciplinarios como respuesta visual a preguntas, segmentación, razonamiento y generación de contenido.

Por otro lado, IA multimodal Han surgido técnicas capaces de procesar múltiples modalidades de datos, es decir, texto, imágenes, audio y vídeos simultáneamente. Con estos avances, es natural preguntarse: ¿Nos acercamos al final de aprendizaje automático tradicional (ML)?

En este artículo, analizaremos el estado del panorama tradicional del aprendizaje automático en relación con las innovaciones modernas de IA generativa.

¿Qué es el aprendizaje automático tradicional? – ¿Cuáles son sus limitaciones?

El aprendizaje automático tradicional es un término amplio que cubre una amplia variedad de algoritmos impulsados ​​principalmente por estadísticas. Los dos tipos principales de algoritmos de ML tradicionales son supervisado y no supervisado. Estos algoritmos están diseñados para desarrollar modelos a partir de conjuntos de datos estructurados.

Los algoritmos de aprendizaje automático tradicionales estándar incluyen:

  • Algoritmos de regresión como lineal, lazo y cresta.
  • K-significa agrupación.
  • Análisis de Componentes Principales (PCA).
  • Máquinas de vectores de soporte (SVM).
  • Algoritmos basados ​​en árboles como árboles de decisión y bosques aleatorios.
  • Impulsar modelos como el aumento de gradiente y XGBoost.

Limitaciones del aprendizaje automático tradicional

El ML tradicional tiene las siguientes limitaciones:

  1. Escalabilidad limitada: Estos modelos a menudo necesitan ayuda para escalar con conjuntos de datos grandes y diversos.
  2. Preprocesamiento de datos e ingeniería de funciones: El aprendizaje automático tradicional requiere un preprocesamiento extenso para transformar los conjuntos de datos según los requisitos del modelo. Además, la ingeniería de funciones puede llevar mucho tiempo y requerir múltiples iteraciones para capturar relaciones complejas entre las funciones de los datos.
  3. Datos de alta dimensión y no estructurados: El aprendizaje automático tradicional lucha con tipos de datos complejos como imágenes, audio, vídeos y documentos.
  4. Adaptabilidad a datos invisibles: Es posible que estos modelos no se adapten bien a datos del mundo real que no formaban parte de su datos de entrenamiento.

Red neuronal: pasar del aprendizaje automático al aprendizaje profundo y más allá

Red neuronal: pasar del aprendizaje automático al aprendizaje profundo y más allá

Los modelos de redes neuronales (NN) son mucho más complicados que los modelos tradicionales de aprendizaje automático. El NN más simple – Perceptrón multicapa (MLP) consta de varias neuronas conectadas entre sí para comprender información y realizar tareas, de forma similar a cómo funciona el cerebro humano.

Los avances en las técnicas de redes neuronales han formado la base para la transición de aprendizaje automático al aprendizaje profundo. Por ejemplo, los NN utilizados para tareas de visión por computadora (detección de objetos y segmentación de imágenes) se denominan redes neuronales convolucionales (CNN), Tales como AlexNet, Resnety YOLO.

Hoy en día, la tecnología de IA generativa está llevando las técnicas de redes neuronales un paso más allá, permitiéndole sobresalir en varios dominios de IA. Por ejemplo, las redes neuronales utilizadas para tareas de procesamiento del lenguaje natural (como resúmenes de texto, respuesta a preguntas y traducción) se conocen como transformers. Los modelos de transformadores destacados incluyen BERTI, GPT-4y T5. Estos modelos están creando un impacto en industrias que van desde la atención médica, el comercio minorista, el marketing, financiar, etc.

¿Seguimos necesitando algoritmos tradicionales de aprendizaje automático?

¿Seguimos necesitando algoritmos tradicionales de aprendizaje automático?

Si bien las redes neuronales y sus variantes modernas, como los transformadores, han recibido mucha atención, los métodos tradicionales de aprendizaje automático siguen siendo cruciales. Veamos por qué siguen siendo relevantes.

1. Requisitos de datos más simples

Las redes neuronales exigen grandes conjuntos de datos para su entrenamiento, mientras que los modelos de aprendizaje automático pueden lograr resultados significativos con conjuntos de datos más pequeños y simples. Por lo tanto, se prefiere el aprendizaje automático al aprendizaje profundo para conjuntos de datos estructurados más pequeños y viceversa.

2. Simplicidad e interpretabilidad

Los modelos tradicionales de aprendizaje automático se basan en modelos estadísticos y de probabilidad más simples. Por ejemplo, una línea de mejor ajuste en regresión lineal establece la relación entrada-salida mediante el método de mínimos cuadrados, una operación estadística.

De manera similar, los árboles de decisión utilizan principios probabilísticos para clasificar datos. El uso de dichos principios ofrece interpretabilidad y facilita que los profesionales de la IA comprendan el funcionamiento de los algoritmos de ML.

Arquitecturas NN modernas como modelos de transformador y difusión (normalmente utilizados para la generación de imágenes como Difusión estable or a mitad de camino) tienen una estructura de red compleja de múltiples capas. Comprender tales redes requiere una comprensión de conceptos matemáticos avanzados. Por eso también se las conoce como "Cajas Negras".

3. Eficiencia de recursos

Las redes neuronales modernas, como los modelos de lenguaje grande (LLM), se entrenan en grupos de GPU costosas según sus requisitos computacionales. Por ejemplo, se informó que GPT4 fue entrenado en 25000 GPU Nvidia durante 90 a 100 días.

Sin embargo, el hardware costoso y el largo tiempo de capacitación no son factibles para todos los profesionales o equipos de IA. Por otro lado, la eficiencia computacional de los algoritmos tradicionales de aprendizaje automático permite a los profesionales lograr resultados significativos incluso con recursos limitados.

4. No todos los problemas necesitan un aprendizaje profundo

Aprendizaje profundo no es la solución absoluta para todos los problemas. Existen ciertos escenarios en los que el aprendizaje automático supera al aprendizaje profundo.

Por ejemplo, en diagnóstico y pronóstico médico con datos limitados, un algoritmo ML para Detección de anomalías como REMED ofrece mejores resultados que el aprendizaje profundo. De manera similar, el aprendizaje automático tradicional es significativo en escenarios con baja capacidad computacional como solución flexible y eficiente.

Principalmente, la selección del mejor modelo para cualquier problema depende de las necesidades de la organización o profesional y de la naturaleza del problema en cuestión.

Aprendizaje automático en 2023

Aprendizaje automático en 2023

Imagen generada usando leonardo IA

En 2023, el aprendizaje automático tradicional seguirá evolucionando y compitiendo con el aprendizaje profundo y la IA generativa. Tiene varios usos en la industria, particularmente cuando se trata de conjuntos de datos estructurados.

Por ejemplo, muchos Bienes de consumo de rápido movimiento (FMCG) Las empresas manejan grandes cantidades de datos tabulares basándose en algoritmos de aprendizaje automático para tareas críticas como recomendaciones personalizadas de productos, optimización de precios, gestión de inventario y optimización de la cadena de suministro.

Además, muchos modelos de visión y lenguaje todavía se basan en técnicas tradicionales, ofreciendo soluciones en enfoques híbridos y aplicaciones emergentes. Por ejemplo, un estudio reciente titulado “¿Realmente necesitamos modelos de aprendizaje profundo para la previsión de series temporales?” ha analizado cómo los árboles de regresión de aumento de gradiente (GBRT) son más eficientes para predicción de series de tiempo que las redes neuronales profundas.

La interpretabilidad del ML sigue siendo muy valiosa con técnicas como FORMA (Explicaciones de los aditivos de Shapley) y LIME (Explicaciones independientes del modelo local interpretable). Estas técnicas explican modelos de ML complejos y brindan información sobre sus predicciones, lo que ayuda a los profesionales de ML a comprender aún mejor sus modelos.

Por último, el aprendizaje automático tradicional sigue siendo una solución sólida para diversas industrias que abordan la escalabilidad, la complejidad de los datos y las limitaciones de recursos. Estos algoritmos son irreemplazables para el análisis de datos y el modelado predictivo y seguirán siendo parte de un El arsenal del científico de datos..

Si temas como este te intrigan, explora Unir IA para obtener más información.