Connect with us

Líderes de opinión

LLMs personalizados para cada negocio! DeepSeek nos muestra el camino

mm

Hace mucho tiempo, el llamado clarín de la tecnología era “teléfonos móviles para todos” – y, de hecho, las comunicaciones móviles han revolucionado los negocios (y el mundo). Hoy en día, el equivalente a ese llamado es dar a todos acceso a aplicaciones de inteligencia artificial. Pero el verdadero poder de la inteligencia artificial radica en aprovecharla para las necesidades específicas de las empresas y organizaciones. El camino trazado por la startup china DeepSeek demuestra cómo la inteligencia artificial puede ser aprovechada por todos, especialmente por aquellos con presupuestos limitados, para satisfacer sus necesidades específicas. De hecho, la llegada de la inteligencia artificial a bajo costo promete cambiar el patrón profundamente arraigado de las soluciones de inteligencia artificial que a menudo permanecen fuera del alcance de muchas pequeñas empresas y organizaciones debido a los requisitos de costo.

Los LLM son – o eran – una empresa costosa, que requiere acceso a grandes cantidades de datos, un gran número de computadoras potentes para procesar los datos y tiempo y recursos invertidos en la capacitación del modelo. Pero esas reglas están cambiando. Operando con un presupuesto ajustado, DeepSeek desarrolló su propio LLM y una aplicación de tipo ChatGPT para consultas – con una inversión mucho menor que la de sistemas similares construidos por empresas estadounidenses y europeas. El enfoque de DeepSeek abre una ventana al desarrollo de LLM para organizaciones más pequeñas que no tienen miles de millones para gastar. De hecho, el día puede estar cerca en que la mayoría de las pequeñas organizaciones puedan desarrollar sus propios LLM para servir a sus propósitos específicos, lo que generalmente proporciona una solución más efectiva que los LLM generales como ChatGPT.

Aunque se debate sobre el verdadero costo de DeepSeek, no es solo el costo lo que lo distingue a él y a modelos similares: es el hecho de que confió en chips menos avanzados y en un enfoque más enfocado en la capacitación. Como empresa china sujeta a restricciones de exportación de EE. UU., DeepSeek no pudo acceder a los chips avanzados de Nvidia que generalmente se utilizan para el cálculo intensivo requerido para el desarrollo de LLM, y se vio obligada a utilizar chips Nvidia H-800 menos potentes, que no pueden procesar datos tan rápido ni de manera tan eficiente.

Para compensar la falta de potencia, DeepSeek adoptó un enfoque diferente, más enfocado y directo en el desarrollo de su LLM. En lugar de lanzar montañas de datos a un modelo y confiar en la fuerza de cálculo para etiquetar y aplicar los datos, DeepSeek redujo la capacitación, utilizando una pequeña cantidad de datos de “inicio en frío” de alta calidad y aplicando IRL (aprendizaje de refuerzo iterativo, con el algoritmo aplicando datos a diferentes escenarios y aprendiendo de ellos). Este enfoque enfocado permite que el modelo aprenda más rápido, con menos errores y menos poder de cálculo desperdiciado.

Similar a cómo los padres pueden guiar los movimientos específicos de un bebé, ayudándolo a rodar con éxito por primera vez – en lugar de dejar que el bebé lo figure solo, o enseñarle una variedad más amplia de movimientos que podrían ayudar a rodar – los científicos de datos que entrenan estos modelos de inteligencia artificial más enfocados se centran en lo que es más necesario para ciertas tareas y resultados. Es probable que estos modelos no tengan una aplicación tan amplia como los LLM más grandes como ChatGPT, pero se pueden confiar en ellos para aplicaciones específicas y llevarlas a cabo con precisión y eficiencia. Incluso los críticos de DeepSeek admiten que su enfoque de desarrollo más enfocado aumentó significativamente la eficiencia, lo que le permitió hacer más con mucho menos.

Este enfoque se trata de dar a la inteligencia artificial las mejores entradas para que pueda alcanzar sus hitos de la manera más inteligente y eficiente posible, y puede ser valioso para cualquier organización que desee desarrollar un LLM para satisfacer sus necesidades y tareas específicas. Este enfoque es cada vez más valioso para las pequeñas empresas y organizaciones. El primer paso es comenzar con los datos correctos. Por ejemplo, una empresa que desee utilizar la inteligencia artificial para ayudar a sus equipos de ventas y marketing debe entrenar su modelo en un conjunto de datos cuidadosamente seleccionado que se centre en conversaciones de ventas, estrategias y métricas. Esto evita que el modelo desperdicie tiempo y poder de cálculo en información irrelevante. Además, la capacitación debe estructurarse en etapas, asegurando que el modelo domine cada tarea o concepto antes de pasar al siguiente.

Esto también tiene paralelos en la crianza de un bebé, como he aprendido yo misma desde que me convertí en madre hace unos meses. En ambos escenarios, un enfoque guiado y paso a paso evita el desperdicio de recursos y reduce la fricción. Finalmente, este enfoque con bebés humanos y modelos de inteligencia artificial conduce a una mejora iterativa. A medida que el bebé crece, o el modelo aprende más, sus habilidades mejoran. Esto significa que los modelos se pueden refinar y mejorar para manejar mejor situaciones del mundo real.

Este enfoque mantiene los costos bajos, evitando que los proyectos de inteligencia artificial se conviertan en un drenaje de recursos, lo que los hace más accesibles para equipos y organizaciones más pequeños. También conduce a un mejor desempeño de los modelos de inteligencia artificial más rápidamente; y, porque los modelos no están sobrecargados con datos extraños, también se pueden ajustar para adaptarse a nueva información y necesidades comerciales cambiantes – clave en mercados competitivos.

La llegada de DeepSeek y el mundo de la inteligencia artificial de bajo costo y más eficiente – aunque inicialmente extendió el pánico en todo el mundo de la inteligencia artificial y los mercados de valores – es en general un desarrollo positivo para el sector de la inteligencia artificial. La mayor eficiencia y los menores costos de la inteligencia artificial, al menos para ciertas aplicaciones enfocadas, darán como resultado un mayor uso de la inteligencia artificial en general, lo que impulsa el crecimiento para todos, desde desarrolladores hasta fabricantes de chips y usuarios finales. De hecho, DeepSeek ilustra la paradoja de Jevons – donde una mayor eficiencia probablemente resultará en un mayor uso de un recurso, no menos. A medida que esta tendencia parece continuar, las pequeñas empresas que se centran en utilizar la inteligencia artificial para satisfacer sus necesidades específicas también estarán mejor preparadas para el crecimiento y el éxito.

Stav Levi-Neumark es el CEO y cofundador de Alta y un experto en gestión de productos y crecimiento de ingresos. Anteriormente, fue uno de los primeros empleados en Monday.com, donde ayudó a desarrollar "BigBrain", una herramienta de inteligencia empresarial interna utilizada para las operaciones diarias de la empresa. Stav tiene un BS.c en ciencias de la computación y estadísticas de la Universidad Hebrea de Jerusalén.