Ingeniería rápida
La guía esencial para la ingeniería rápida en ChatGPT

Desde su lanzamiento, ChatGPT Ha estado causando sensación en el mundo de la IA, atrayendo a más de 100 millones de usuarios en tiempo récord. El secreto del impresionante rendimiento y versatilidad de ChatGPT reside en un arte sutilmente integrado en su programación: la ingeniería rápida.
Lanzado en 2022, DALL-E, MidJourney y StableDiffusion subrayaron el potencial disruptivo de la IA generativa. Pero fue AI abiertoChatGPT de 's que realmente ocupó el centro del escenario más adelante en 2022. Y este impulso no mostró signos de desaceleración.
El anuncio de Google sobre Bard y Lamma 2 de Meta La respuesta a ChatGPT de OpenAI ha impulsado significativamente la carrera de la IA. Al proporcionar información a estos modelos, guiamos su comportamiento y respuestas. Esto nos convierte a todos en ingenieros rápidos, hasta cierto punto. La industria tecnológica lo ha notado. Los inversores de riesgo están invirtiendo fondos en startups centradas en la ingeniería rápida, como... Vitela AI. Además, Forbes informa que los ingenieros rápidos ordenan salarios superiores a $ 300,000, indicativo de un mercado laboral próspero y valioso.
En este artículo, desmitificaremos el mundo de la ingeniería rápida en el contexto de ChatGPT. Exploraremos los principios y técnicas fundamentales y examinaremos sus aplicaciones comerciales.
Primero, entendamos cómo funciona ChatGPT y el papel fundamental que juega la ingeniería de indicaciones en este proceso.
La mecánica detrás de la ingeniería de avisos de ChatGPT
El secreto del éxito de ChatGPT reside en su capacidad para comprender e imitar los matices de la conversación humana. El modelo se entrena con una amplia gama de textos de internet, pero, crucialmente, no conoce documentos ni fuentes específicos en su conjunto de entrenamiento, lo que garantiza la generalización en lugar de la especificidad. Este enfoque de entrenamiento permite a ChatGPT generar respuestas creativas, navegar por diálogos complejos e incluso mostrar sentido del humor. Sin embargo, es importante recordar que ChatGPT no comprende ni tiene creencias; genera respuestas basadas en patrones aprendidos durante el entrenamiento.
La capacidad de ChatGPT para comprender y responder al lenguaje humano de una manera matizada y consciente del contexto los convierte en herramientas increíblemente versátiles.
La mecánica de estos modelos se basa en el concepto de "tokens": fragmentos discretos de lenguaje que pueden abarcar desde un solo carácter hasta una palabra completa. Estos modelos trabajan con un número específico de tokens a la vez (4096 para GPT-3.5-Turbo, 8192 o 32768 para GPT-4), prediciendo la siguiente secuencia de tokens probables. Los modelos procesan los tokens mediante álgebra lineal compleja, prediciendo el token posterior más probable.
Por ejemplo, una oración simple de nueve palabras podría convertirse en diez fichas. Incluso una sola palabra compleja podría convertirse en múltiples tokens, lo que ayuda al modelo a comprender y generar mejor el lenguaje. Incluso los idiomas con estructuras de palabras complejas, como el alemán, se gestionan mediante tokenización.
Los modelos GPT (Transformador preentrenado generativo) funcionan generando un token a la vez, comenzando desde el primer token y continuando hasta el último. Después de generar cada token, el modelo vuelve a visitar la secuencia completa y la procesa nuevamente para generar el siguiente token. Este proceso iterativo continúa hasta que se genera el token final, lo que hace que la generación de texto sea similar a un gran bucle for.
Pero aquí está el truco: la calidad de estas respuestas depende en gran medida de las indicaciones que recibe. Al igual que dirigir una conversación con un humano, guiar un diálogo con ChatGPT requiere cierto nivel de habilidad y comprensión. Ahí es donde entra en juego la ingeniería de indicaciones.
¿Qué es Ingeniería Rápida?
Prompt Engineering es el arte de crear indicaciones/entradas precisas y efectivas para guiar a la IA (PNL/Vision) como ChatGPT para generar los resultados más rentables, precisos, útiles y seguros.
La ingeniería rápida no se limita solo a la generación de texto, sino que tiene una amplia gama de aplicaciones en todo el dominio de la IA. Se emplea cada vez más en áreas como robots de automatización de procesos robóticos, activos 3D, scripts, instrucciones de robots y otros tipos de contenido y medios digitales. Proporciona una combinación única de lógica, codificación, arte y, en ciertos casos, modificadores especiales.
Si bien un aviso puede incluir texto en lenguaje natural, imágenes u otros tipos de datos de entrada, la salida puede variar significativamente entre los servicios y herramientas de IA. Cada herramienta tiene sus modificadores especiales que describen el peso de las palabras, estilos, perspectivas, diseño u otras propiedades de la respuesta deseada.
Este campo es esencial para crear mejores servicios impulsados por IA y obtener resultados superiores de las herramientas de IA generativa existentes. Los desarrolladores empresariales, por ejemplo, a menudo utilizan ingeniería rápida para adaptar Modelos de lenguaje extenso (LLM) como GPT-3 para potenciar una interfaz orientada al cliente. chatterbot o manejar tareas como la creación de contratos específicos de la industria.
Este proceso iterativo de refinamiento rápido y medición del rendimiento de la IA es un elemento clave para permitir que los modelos de IA generen respuestas útiles y altamente específicas en diversos contextos.
Convertirse en un ingeniero rápido
La capacidad del modelo GPT-4 para comprender instrucciones complejas y resolver problemas complejos con precisión lo convierte en un recurso invaluable. Sin embargo, existen diferentes métodos para acceder a sus capacidades, y comprenderlos puede ser crucial para que un ingeniero proactivo optimice la eficiencia y la rentabilidad.
Básicamente, existen dos maneras de interactuar con modelos GPT como GPT-4. Una es a través de la API de OpenAI, donde los costos se calculan por tokens de entrada y de salida. En este caso, los costos por cada 1 tokens pueden fluctuar según el tamaño del contexto. Por ejemplo, en un contexto mayor de 32, el costo podría ascender a $0.06 para los tokens de entrada y $0.12 para los de salida. Por lo tanto, al gestionar un gran volumen de solicitudes, el costo de uso puede acumularse rápidamente.
Alternativamente, ChatGPT, que aprovecha el modelo GPT-4, opera en un modelo basado en suscripción.
Otra tarea clave en la ingeniería de indicadores es el ajuste de los parámetros del modelo. Este proceso implica ajustar las variables que el modelo utiliza para realizar predicciones. Al ajustar estos parámetros, los ingenieros de indicadores pueden mejorar la calidad y la precisión de las respuestas del modelo, haciéndolas más relevantes y útiles contextualmente.
Aunque muchos ingenieros de prospección provienen del ámbito tecnológico, la naturaleza multidisciplinaria del campo lo hace accesible a personas de diversos orígenes profesionales. Cada vez más, escritores, investigadores e incluso artistas aprovechan sus habilidades únicas para mejorar la eficacia de los modelos de IA. Este cambio también se refleja en el mercado laboral, con un número creciente de empresas que buscan ingenieros de prospección con diversas habilidades y trayectorias.
Diseño rápido e ingeniería en ChatGPT
El diseño y la ingeniería rápidos juegan un papel fundamental en la optimización del rendimiento de los modelos de lenguaje e involucran más que solo preguntas de elaboración; requieren una comprensión profunda del modelo de IA y un enfoque altamente iterativo y refinado.
Diseño rápido
El diseño de indicaciones, en esencia, es el arte y la ciencia de crear la indicación perfecta para un modelo de lenguaje extenso (LLM), como ChatGPT, con el fin de lograr un objetivo claramente definido. Es una combinación de:
- Comprensión del LLM: diferentes modelos de lenguaje pueden responder de manera variable al mismo mensaje. Además, ciertos modelos de lenguaje pueden tener palabras clave o disparadores únicos, que interpretan de una manera específica.
- Conocimiento del dominio: la experiencia en el campo relevante es crucial al diseñar indicaciones. Por ejemplo, generar un aviso para inferir un diagnóstico médico requeriría conocimientos médicos.
- Enfoque iterativo y medición de la calidad: el proceso de creación del indicador ideal a menudo implica prueba y error. Por lo tanto, tener una forma de evaluar la calidad de salida más allá del juicio subjetivo es vital, particularmente cuando se usa el mensaje a una escala mayor.
Ingeniería rápida
La ingeniería rápida es un ámbito extendido del diseño rápido que incluye varios procesos críticos:
- Diseño de avisos a escala: este proceso incluye el diseño de meta avisos (avisos que generan otros avisos) y plantillas de avisos, que son avisos parametrizados de los que se pueden crear instancias en tiempo de ejecución.
- Diseño e integración de herramientas: las solicitudes a veces pueden incluir resultados de herramientas externas, y la integración perfecta de estas herramientas en el sistema es crucial.
- Flujo de trabajo, planificación y administración de avisos: la implementación de una aplicación LLM, como un chatbot, a menudo requiere administrar bibliotecas de avisos, planificar y elegir los avisos correctos e integrar de manera eficiente varias herramientas.
- Evaluación y control de calidad de los avisos: este aspecto incluye la definición de métricas y procesos para evaluar los avisos de forma automática y con participación humana.
- Optimización de solicitud: el costo y la latencia del modelo de IA pueden depender de la elección del modelo y la duración de la solicitud (número de tokens).
Se han desarrollado numerosos enfoques, herramientas y marcos de diseño automatizado de indicaciones para gestionar indicaciones a gran escala. Sin embargo, es importante comprender que ninguna de estas herramientas puede reemplazar la comprensión, el criterio y la experiencia de un ingeniero de indicaciones experimentado.
Ingeniería rápida: técnicas y mejores prácticas
1) Ubicación y descripción rápidas
Colocar instrucciones al principio de la instrucción puede afectar significativamente la comprensión y la respuesta de la IA. Considere la tarea de resumir un texto en formato de viñetas. Un enfoque menos efectivo sería:
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: Resuma el texto a continuación como una lista de viñetas de los puntos más importantes.
{entrada de texto aquí}
Por otro lado, una técnica más efectiva podría ser:
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: Resuma el texto a continuación como una lista de viñetas de los puntos más importantes.
Texto: """
{entrada de texto aquí}
"" "
Al separar claramente las instrucciones y el contexto con símbolos como ### o “””, el modelo de IA puede delinear mejor su tarea y el texto que necesita procesar, dando así respuestas más precisas y relevantes.
En segundo lugar, ser específico, descriptivo y detallado sobre el contexto, el resultado esperado, la duración, el formato, el estilo, etc., puede mejorar significativamente la precisión de las respuestas de la IA. Suponga que necesita generar una breve descripción general de un artículo científico en un estilo atractivo y fácil de usar. Una instrucción vaga como "Resumir el artículo científico" produciría resultados menos efectivos en comparación con un mensaje específico y detallado:
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.Genere un resumen breve (aprox. 200 palabras) y atractivo del siguiente artículo científico. El resumen debe ser comprensible para cualquier persona sin formación científica y reflejar con precisión los hallazgos clave del artículo.
Papel: """
{texto de artículo científico aquí}
"" "
2) Patrón de Persona
El Patrón de Persona es una estrategia que establece que la IA funcione desde una cierta perspectiva, como un rol profesional o un personaje ficticio. Esta táctica permite que el modelo proporcione resultados relacionados con los roles específicos que manejaría la persona. Por ejemplo, se podría indicar a la IA que actúe como experto en ciberseguridad durante una revisión de código. Este patrón es particularmente útil cuando los usuarios necesitan ayuda pero no están seguros de los detalles exactos que se requieren en la salida.
Tome lo siguiente como ejemplo:
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: “Asumir la personalidad de un historiador senior especializado en la Revolución Francesa. Dada esa personalidad, explique los eventos clave y las razones que llevaron a la caída de la monarquía francesa”.
En este escenario, se espera que la IA responda con un análisis en profundidad de la Revolución Francesa, centrándose en la caída de la monarquía, como lo haría un historiador.
Introducción de nueva información
ChatGPT no posee conocimiento más allá de su límite de entrenamiento, por lo que no puede proporcionar información sobre eventos recientes ni actualizaciones posteriores al entrenamiento. Sin embargo, puedes introducir nueva información en el modelo mediante indicaciones.
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: “¿Qué es la criptomoneda?”
ChatGPT: “Criptomoneda es un tipo de moneda digital o virtual que utiliza criptografía por seguridad. La criptomoneda más conocida es Bitcoin”.
Ahora, si agregamos un poco más de contexto al indicador, podemos hacer que la explicación sea aún más intuitiva:
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: “Explicar el concepto de criptomoneda a un estudiante de secundaria que estudia finanzas digitales”
ChatGPT: Imagina que estás jugando a un videojuego en línea y que puedes ganar dinero para comprar mejoras o nuevos personajes. Las criptomonedas son algo similar, pero en lugar de limitarse al juego, puedes usarlas para comprar bienes y servicios reales. Es como dinero digital que ningún banco ni gobierno controla.
3) Limitaciones de tamaño de solicitud
Comprender la limitación de tamaño de ChatGPT es esencial, ya que afecta directamente el volumen y el tipo de información que podemos ingresar. Los modelos de lenguaje no están diseñados para procesar datos ilimitados a la vez. Tienen una restricción inherente sobre el tamaño del aviso que podemos crear e ingresar. Esta limitación tiene profundas implicaciones para el diseño y la ejecución de las indicaciones.
ChatGPT tiene un límite de tokens (generalmente 2048 tokens), que incluye tanto la solicitud como la respuesta generada. Esto significa que las solicitudes largas pueden limitar la longitud de la respuesta. Por lo tanto, es importante que las solicitudes sean concisas pero informativas.
En la práctica, debemos actuar como editores, seleccionando cuidadosamente la información más relevante para la tarea en cuestión. Imagine escribir un artículo o trabajo con un límite de palabras o páginas: no puede simplemente incluir datos aleatorios, sino seleccionar y estructurar cuidadosamente la información relevante para el tema.
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: “Dadas las limitaciones simbólicas del modelo, resuma los eventos clave de la Segunda Guerra Mundial en menos de 1000 palabras”.
Al reconocer las limitaciones del modelo, esta indicación indica a la IA que proporcione un resumen conciso pero completo de la Segunda Guerra Mundial.
Indicaciones para uso repetido: en un escenario conversacional, puede reutilizar las indicaciones o refinarlas en función de las respuestas anteriores. Esto da un flujo conversacional y mantiene el contexto en la interacción.
4) Patrón de refinamiento de preguntas
ChatGPT también puede ayudar a refinar sus preguntas. Por ejemplo, si hace una pregunta, puede sugerir una pregunta mejor formulada para obtener resultados más precisos.
El Patrón de Refinamiento de Preguntas implica que el LLM refine las preguntas formuladas por el usuario. Es especialmente útil cuando los usuarios no son expertos en un dominio o no están seguros de cómo formular su pregunta.
Un mensaje de ejemplo puede verse así:
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: “Cada vez que hago una pregunta sobre ciencia de datos, sugiera una pregunta más refinada considerando los detalles del análisis estadístico y pregunte si quiero continuar con la pregunta refinada”.
Aquí, se espera que la IA refine las preguntas generales de ciencia de datos del usuario a preguntas más detalladas que consideren aspectos de análisis estadístico.
5) Patrón Verificador Cognitivo
El patrón de verificación cognitiva divide las preguntas complejas en subpreguntas más pequeñas y manejables. Las respuestas a estas subpreguntas se combinan luego para proporcionar una respuesta integral a la pregunta principal. Este enfoque es útil cuando las preguntas iniciales son de demasiado alto nivel o cuando se necesita mayor claridad para brindar una respuesta completa.
Por ejemplo:
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: “Si hago una pregunta sobre el cambio climático, divídala en tres preguntas más pequeñas que le ayuden a dar una respuesta más precisa. Combine las respuestas a estas subpreguntas para dar la respuesta final”.
En este escenario, la IA dividirá la pregunta compleja sobre el cambio climático en tres subpreguntas manejables. Después de recibir las respuestas a estas subpreguntas, la IA las combinará para brindar una respuesta más completa y precisa.
Este patrón implica generar múltiples preguntas para obtener una respuesta final más precisa. Es un proceso de verificación y consolidación de la información para obtener un resultado final sólido.
6) Enfoque de impulso de pocos disparos
La estimulación de pocos intentos es un método eficaz para enseñar a los modelos de IA a seguir patrones específicos o realizar tareas. La idea es proporcionar al modelo una serie de ejemplos antes de formular la pregunta deseada. Esto ayuda a establecer el comportamiento deseado y a guiar las respuestas del modelo.
Considere un escenario en el que un usuario intenta redactar una copia de marketing convincente y concisa para un nuevo dispositivo tecnológico:
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.:Aquí tienes algunos ejemplos de textos de marketing tecnológico: "Vive la música como nunca antes con nuestros auriculares inalámbricos de última generación". "Captura tu mundo en una impresionante resolución 4K con nuestra cámara de acción ultradelgada". Con estos ejemplos, redacta un texto de marketing para nuestro nuevo reloj inteligente con IA.
ChatGPT: “Potencie su estilo de vida con nuestro reloj inteligente con IA, su compañero ideal para la salud, la conectividad y la productividad”. La característica destacada del aprendizaje instantáneo es que no requiere una descripción detallada de cómo realizar la tarea. En cambio, requiere demostraciones de lo que se está haciendo, lo que lo convierte en una excelente opción para diversas aplicaciones.
Además, esta técnica se extiende más allá del simple emparejamiento de entrada-salida. También se le puede enseñar al modelo a manejar pasos intermedios para lograr una meta.
7) Incitación a la cadena de pensamientos
En su reciente trabajo de investigación, “Las indicaciones de la cadena de pensamientos provocan el razonamiento en modelos de lenguaje extensoLos autores Jason Wei y su equipo buscan estimular el razonamiento dentro de modelos lingüísticos amplios. En lugar de usar indicaciones directas tradicionales, el equipo utiliza una serie de indicaciones interconectadas que forman una cadena de pensamiento.
Por ejemplo, un usuario podría estar interesado en el impacto potencial de la inteligencia artificial en los mercados laborales:
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: “¿Podría explicar brevemente el concepto de inteligencia artificial?”
ChatGPTLa inteligencia artificial, o IA, se refiere a la capacidad de una máquina para imitar el comportamiento humano inteligente. Se trata de diseñar máquinas que puedan pensar y aprender como los humanos, lo que les permite realizar tareas como la traducción de idiomas, la toma de decisiones y la resolución de problemas, entre otras.
El sistema de reservas de escritorios, interactivo y fácil de usar, ayuda a gestores y empresas a adaptarse a la nueva rutina laboral. El sistema inteligente optimiza espacios y horarios según necesidades reales.: “¿Cómo está influyendo la IA en el mercado laboral actual?”
ChatGPTLa IA está creando nuevos empleos y transformando la naturaleza de los existentes. Por un lado, automatiza tareas rutinarias, lo que provoca la pérdida de puestos de trabajo en ciertos sectores. Por otro lado, está generando demanda de puestos que antes no existían, como responsables de ética de la IA, analistas de datos e ingenieros de aprendizaje automático. Además, la IA puede potenciar las funciones humanas, permitiendo que las personas realicen tareas con mayor eficiencia y precisión.
La estimulación en cadena de pensamiento sigue una progresión de indicaciones relacionadas, manteniendo una “conversación” con el modelo que lo guía hacia respuestas más precisas y contextualmente apropiadas.
Comprensión de la API de ChatGPT y la ingeniería de indicaciones desde la perspectiva de un desarrollador
Desde la perspectiva de un desarrollador o investigador, la ingeniería de indicaciones es un proceso más complejo. Implica el diseño de algoritmos y técnicas para ayudar al modelo de IA a comprender y responder a las indicaciones con mayor eficacia. Esto podría incluir estrategias para gestionar indicaciones ambiguas, identificar el contexto de las indicaciones o encadenarlas para estimular procesos de pensamiento más complejos en la IA.
En la ilustración anterior, un usuario interactúa con una interfaz de chat basada en GPT-4. Un módulo especializado optimiza su entrada para mayor claridad y consistencia contextual antes de alimentarla al modelo de IA. La función de este módulo es refinar y optimizar la entrada del usuario para una mejor comprensión, manteniendo al mismo tiempo el contexto de la conversación. La respuesta de la IA, generada a partir de la indicación refinada, se devuelve al usuario a través de la interfaz de chat. El historial de interacciones se actualiza constantemente, manteniendo el contexto de la conversación. En resumen, este diagrama ilustra un flujo dinámico de conversación entre el usuario y la IA, facilitado por técnicas de ingeniería de indicaciones.
La API de ChatGPT La interfaz está diseñada con varios hiperparámetros que permiten a los usuarios refinar las respuestas de la IA a las indicaciones, haciéndolas más efectivas y versátiles. Estos incluyen los parámetros Temperatura, Longitud Máxima y Secuencias de Detención. Exploremos su funcionamiento y cómo se pueden utilizar en diferentes contextos.
1) Temperatura
El parámetro de temperatura influye en la aleatoriedad de las respuestas de la IA. Una temperatura más alta, como 1.0, fomenta una respuesta más aleatoria, lo que resulta en respuestas diversas, pero potencialmente fuera de tema. Por el contrario, una temperatura más baja, como 0.2, induce a la IA a seleccionar respuestas más deterministas, lo que puede ser beneficioso para respuestas específicas, pero puede carecer de variedad.
Ejemplo: Si estás escribiendo una historia creativa y buscas elementos impredecibles e imaginativos, establece la temperatura en un valor más alto. Una indicación podría ser: "Escribe un cuento sobre un gato que viaja en el tiempo". Con una temperatura alta, podrías obtener un relato fantástico y alocado con giros inesperados.
2) Longitud máxima
Este parámetro controla la longitud máxima del token de salida del modelo, que incluye tanto los tokens de entrada como los de salida del mensaje. Un límite superior permite respuestas más extensas, mientras que un límite inferior mantiene la salida breve y concisa.
Ejemplo: para respuestas breves a preguntas de trivia como "¿Quién ganó el Premio Nobel de Literatura en 2020?" es posible que desee establecer la longitud máxima en un valor bajo, asegurándose de que la respuesta sea concisa y directa.
3) Secuencias de parada
Las secuencias de parada son cadenas de texto específicas en las que, cuando el modelo las encuentra, deja de generar más resultados. Esta característica puede ser útil para controlar la longitud de la salida o indicarle al modelo que se detenga en puntos finales lógicos.
Ejemplo: para una carta formal, puede usar "Atentamente" como una secuencia de parada para asegurarse de que la IA no genere ningún texto adicional más allá del final adecuado de la carta.
4) P superior
El parámetro "Top P", también conocido como muestreo de núcleo, es un método que proporciona una selección dinámica del número de palabras consideradas en cada paso de las predicciones del modelo. Un valor bajo, como 0.5, genera resultados más seguros y específicos. Un valor alto, como 0.9, incluye una selección más amplia de palabras, lo que resulta en resultados más diversos.
Ejemplo: Si estás creando una IA para escribir poemas y quieres que use una amplia gama de vocabulario y frases estilísticas, podrías establecer "Top P" en un valor más alto. Una indicación podría ser: "Compone un poema sobre la belleza del otoño".
5) Penalización de Frecuencia
La penalización de frecuencia controla cuánto debe favorecer el modelo las palabras menos frecuentes. Una penalización más alta (hasta 1) anima al modelo a usar palabras menos comunes, mientras que un valor más bajo (hasta -1) anima al modelo a usar palabras más comunes.
Ejemplo: si está intentando generar una propuesta comercial y desea evitar la jerga, puede establecer la penalización de frecuencia en un valor más bajo para mantener el lenguaje claro y accesible.
6) Penalización por presencia
El parámetro Penalización de presencia afecta cuánto se penaliza al modelo por generar nuevas ideas o temas que no estaban presentes en el historial de conversación. Los valores más altos animan al modelo a ceñirse a los temas ya mencionados, mientras que los valores más bajos permiten que el modelo introduzca nuevos conceptos con mayor libertad.
Ejemplo: para las sesiones de lluvia de ideas, puede establecer la penalización de presencia en un valor más bajo para fomentar una variedad diversa de ideas. Podría usar un mensaje como "Generar estrategias de marketing innovadoras para una plataforma educativa en línea".
Aplicación industrial de la ingeniería rápida
Atención al cliente y generación de preguntas frecuentes
En el mundo de la atención al cliente, la utilidad de la ingeniería rápida es innegable. Una de las aplicaciones más innovadoras de la IA en este sector es la aparición de los chatbots impulsados por IA. Por ejemplo, considere una plataforma de comercio electrónico como eBay. Utilizan un sistema avanzado de chatbots, optimizado con ingeniería rápida, para gestionar las consultas de los clientes. El chatbot es capaz de gestionar diversas tareas, como proporcionar actualizaciones de entrega, procesar solicitudes de reembolso y responder a consultas sobre las especificaciones del producto.
Cuando un cliente pregunta "¿Dónde está mi pedido?", el chatbot de IA no solo responde con un mensaje genérico, sino que accede al sistema de gestión de pedidos, obtiene datos en tiempo real y ofrece una respuesta personalizada como: "Su pedido n.° 1234 está en tránsito y se espera que se entregue mañana por la tarde". Estas respuestas personalizadas y relevantes son el resultado directo de indicaciones bien diseñadas, que constituyen la base de estos sistemas de chatbot inteligentes.
Creación de contenido y marketing
En el dominio de la creación de contenido y el marketing, la ingeniería rápida sirve como piedra angular de las innovaciones impulsadas por IA. Empresas como Gramaticalmente use motores impulsados por IA para ayudar a los usuarios a crear contenido atractivo y gramaticalmente correcto. Estas plataformas funcionan sobre la base de indicaciones, guiando al modelo de IA para generar sugerencias o correcciones que pueden mejorar la calidad general del contenido.
Considere a un usuario que tiene como objetivo crear contenido atractivo sobre los avances de la IA. Podrían emplear un mensaje como: "Explicar los últimos avances en IA de una manera simple y atractiva para principiantes". La IA, aprovechando este mensaje, puede redactar un artículo conciso y fácil de leer sobre conceptos complejos de IA, cerrando así la brecha de conocimiento y estimulando el interés del lector. Esta es solo una de las muchas formas en que la ingeniería rápida puede mejorar la creación de contenido.
Asistencia de codificación e interpretación de códigos
La ingeniería rápida, en este contexto, es como una conversación bidireccional entre el desarrollador y la IA. El desarrollador proporciona a la IA un aviso: una descripción del problema o la funcionalidad que necesitan implementar, y la IA responde con un código o sugerencia relevante, lo que ayuda al proceso de desarrollo de software.
Además, las herramientas de codificación mejoradas con IA, como Copiloto de GitHub, han sido desarrollados con la experiencia de OpenAI. Estas herramientas avanzadas han recibido una amplia capacitación para realizar tareas complejas, como completar archivos de código incompletos. Lo hacen a pesar de las claras diferencias entre el proceso de escribir código y la tarea de completarlo.
Educación y Aprendizaje Personalizado
La integración de la IA en el sector educativo ha experimentado un notable auge en los últimos años, donde la ingeniería de vanguardia ha desempeñado un papel fundamental. Se han desarrollado tutores de IA para ofrecer experiencias de aprendizaje personalizadas, adaptándose al ritmo y estilo de aprendizaje de cada estudiante.
Tomemos, por ejemplo, una plataforma de aprendizaje basada en IA como DuolingoUtiliza indicaciones bien diseñadas para evaluar el dominio del idioma del estudiante y ofrecer ejercicios adecuados. Si un estudiante está aprendiendo francés y tiene dificultades con la conjugación, el tutor de IA puede introducir ejercicios personalizados como "Conjuga el verbo 'manger' (comer) en presente". El rendimiento y el progreso del estudiante se evalúan continuamente, y las indicaciones se perfeccionan y adaptan según corresponda, garantizando una experiencia de aprendizaje personalizada y eficiente.
El auge imparable de la ingeniería rápida
Al acercarnos al final de nuestro análisis profundo de la ingeniería de indicaciones, es crucial destacar lo incipiente que es este campo. Nos encontramos en el umbral de una era en la que la inteligencia artificial va más allá de responder a comandos preprogramados, evolucionando para procesar y ejecutar indicaciones cuidadosamente diseñadas que producen resultados altamente específicos.
Las numerosas aplicaciones que hemos explorado, desde la atención al cliente hasta la creación de contenido, el análisis de datos y el aprendizaje personalizado, son solo la punta del iceberg. A medida que se intensifica la investigación en este campo, podemos esperar usos aún más sofisticados y matizados de la ingeniería rápida. La convergencia de la creatividad humana y el ingenio de la IA nos impulsa hacia un futuro donde la inteligencia artificial no solo nos ayudará, sino que transformará diversos aspectos de nuestras vidas.

















