Encadenamiento de Prompts
El Encadenamiento de Prompts es una técnica donde la salida generada por un prompt de modelo de lenguaje (LLM) sirve como entrada o contexto para un prompt posterior y relacionado. En lugar de depender de un único prompt monolítico para resolver un problema complejo, el encadenamiento desglosa la tarea en una serie de pasos más pequeños, manejables e interconectados.
Los problemas complejos del mundo real rara vez tienen una respuesta simple de una sola vez. El encadenamiento de prompts permite a los desarrolladores y analistas aprovechar las fortalezas de los LLM para subtareas específicas —como extracción, resumen, razonamiento y formato— de una manera controlada e iterativa. Esto aumenta significativamente la fiabilidad y la profundidad del resultado final en comparación con los enfoques de un solo prompt.
El proceso es inherentemente secuencial. El Paso 1 ejecuta un prompt, produciendo la Salida A. Esta Salida A se alimenta luego programáticamente en el campo de entrada del prompt del Paso 2, que está diseñado para procesar la Salida A y generar la Salida B. Este flujo continúa hasta que se logra el resultado final deseado. Marcos de trabajo como LangChain están diseñados específicamente para gestionar esta ejecución multi-paso y con estado.
Agentes, Generación Aumentada por Recuperación (RAG), Aprendizaje de Pocos Disparos (Few-Shot Learning)