Ventana de Contexto
La ventana de contexto se refiere a la cantidad máxima de texto de entrada (prompt) y texto de salida (completado) que un modelo de lenguaje grande (LLM) puede procesar o 'recordar' durante una única interacción. Esta capacidad se mide en tokens, donde un token es aproximadamente equivalente a una palabra o una unidad subpalabra.
El tamaño de la ventana de contexto dicta directamente la complejidad y el alcance de las tareas que puede manejar un LLM. Una ventana más grande permite que el modelo mantenga la coherencia durante conversaciones mucho más largas, analice documentos extensos y haga referencia a partes anteriores de una entrada compleja sin perder el hilo general.
Los modelos basados en Transformer, que impulsan la mayoría de los LLM modernos, procesan la información secuencialmente dentro de este límite de tokens definido. Cuando la entrada excede la ventana de contexto, el modelo debe truncar la información más antigua, lo que efectivamente hace que 'olvide' el comienzo de la conversación o del documento.