Inteligencia artificial
Microsoft Presenta Phi-3: Potentes Modelos de Inteligencia Artificial Abierta que Ofrecen Rendimiento Superior en Tamaños Pequeños

Microsoft ha introducido Phi-3, una nueva familia de modelos de lenguaje pequeños (SLMs) que tienen como objetivo ofrecer un rendimiento alto y una relación costo-eficacia en aplicaciones de inteligencia artificial. Estos modelos han mostrado resultados sólidos en benchmarks de comprensión del lenguaje, razonamiento, codificación y matemáticas en comparación con modelos de tamaños similares y más grandes. El lanzamiento de Phi-3 amplía las opciones disponibles para desarrolladores y empresas que buscan aprovechar la inteligencia artificial mientras equilibran la eficiencia y el costo.
Familia de Modelos Phi-3 y Disponibilidad
El primer modelo de la línea Phi-3 es Phi-3-mini, un modelo de 3,8 mil millones de parámetros ahora disponible en Azure AI Studio, Hugging Face y Ollama. Phi-3-mini viene con instrucciones de afinamiento, lo que permite utilizarlo “fuera de la caja” sin un afinamiento extensivo. Cuenta con una ventana de contexto de hasta 128K tokens, la más larga en su clase de tamaño, lo que permite el procesamiento de entradas de texto más grandes sin sacrificar el rendimiento.
Para optimizar el rendimiento en diferentes configuraciones de hardware, Phi-3-mini se ha afinado para ONNX Runtime y NVIDIA GPUs. Microsoft planea ampliar la familia Phi-3 pronto con el lanzamiento de Phi-3-small (7 mil millones de parámetros) y Phi-3-medium (14 mil millones de parámetros). Estos modelos adicionales proporcionarán una gama más amplia de opciones para satisfacer necesidades y presupuestos diversos.

Imagen: Microsoft
Rendimiento y Desarrollo de Phi-3
Microsoft informa que los modelos Phi-3 han demostrado mejoras significativas en el rendimiento en comparación con modelos del mismo tamaño y incluso más grandes en varios benchmarks. Según la empresa, Phi-3-mini ha superado a modelos del doble de su tamaño en tareas de comprensión y generación de lenguaje, mientras que Phi-3-small y Phi-3-medium han superado a modelos mucho más grandes, como GPT-3.5T, en ciertas evaluaciones.
Microsoft afirma que el desarrollo de los modelos Phi-3 ha seguido los principios y estándares de Inteligencia Artificial Responsable de la empresa, que enfatizan la rendición de cuentas, la transparencia, la equidad, la confiabilidad, la seguridad, la privacidad, la seguridad y la inclusividad. Los modelos han pasado por un entrenamiento de seguridad, evaluaciones y pruebas de penetración para garantizar el cumplimiento de las prácticas de implementación de inteligencia artificial responsable.

Imagen: Microsoft
Aplicaciones y Capacidades Potenciales de Phi-3
La familia Phi-3 está diseñada para destacarse en escenarios donde los recursos están limitados, la latencia baja es esencial o la relación costo-eficacia es una prioridad. Estos modelos tienen el potencial de permitir la inferencia en dispositivos, lo que permite que las aplicaciones impulsadas por inteligencia artificial se ejecuten de manera eficiente en una amplia gama de dispositivos, incluidos aquellos con poder de procesamiento limitado. El tamaño más pequeño de los modelos Phi-3 también puede hacer que el afinamiento y la personalización sean más asequibles para las empresas, lo que les permite adaptar los modelos a sus casos de uso específicos sin incurrir en costos altos.
En aplicaciones donde los tiempos de respuesta rápidos son críticos, los modelos Phi-3 ofrecen una solución prometedora. Su arquitectura optimizada y el procesamiento eficiente pueden permitir la generación rápida de resultados, mejorando las experiencias del usuario y abriendo posibilidades para interacciones de inteligencia artificial en tiempo real. Además, las sólidas capacidades de razonamiento y lógica de Phi-3-mini lo hacen adecuado para tareas analíticas, como el análisis de datos y la generación de información.
