Modelo de Lenguaje Pequeño
Un Modelo de Lenguaje Pequeño (SLM, por sus siglas en inglés) es un tipo de modelo de inteligencia artificial diseñado para realizar tareas de procesamiento de lenguaje natural, pero con significativamente menos parámetros y requisitos computacionales en comparación con los modelos de lenguaje grandes (LLM). Mientras que los LLM cuentan con miles de millones o billones de parámetros, los SLM están optimizados para la eficiencia, lo que les permite ejecutarse eficazmente en hardware menos potente.
El auge de los SLM aborda limitaciones críticas empresariales asociadas con los LLM masivos. Desplegar modelos grandes a menudo requiere una extensa infraestructura en la nube, alta latencia y costos operativos sustanciales. Los SLM permiten a las empresas acercar las capacidades avanzadas de IA a la fuente de datos, ya sea en instalaciones locales, en el borde (edge) o dentro de entornos restringidos, lo que conduce a una inferencia más rápida y a menores gastos operativos.
Los SLM se crean típicamente mediante diversas técnicas de optimización aplicadas a modelos fundamentales más grandes. Estos métodos incluyen la cuantización (reducción de la precisión de los pesos del modelo), el recorte (eliminación de conexiones innecesarias) y la destilación de conocimiento (entrenar un modelo más pequeño para imitar el comportamiento de un modelo maestro más grande y capaz). Este proceso retiene la mayor parte de la inteligencia funcional mientras reduce drásticamente la huella del modelo.
Los SLM sobresalen en tareas específicas y bien definidas donde no se requiere una generalidad extrema. Las aplicaciones comunes incluyen:
Las principales ventajas de adoptar SLM se centran en la eficiencia operativa y la accesibilidad. Ofrecen una latencia de inferencia más baja, lo cual es crucial para aplicaciones en tiempo real. Además, su menor tamaño facilita un ajuste fino más sencillo en conjuntos de datos propietarios y de nicho, lo que conduce a una mayor precisión en contextos empresariales especializados en comparación con un LLM de propósito general.
A pesar de sus ventajas, los SLM tienen limitaciones. Su tamaño inherente restringe su capacidad para manejar tareas de razonamiento altamente complejas y de múltiples pasos que los LLM masivos manejan sin esfuerzo. Lograr un rendimiento de vanguardia a menudo requiere un ajuste fino meticuloso y una cuidadosa selección del modelo base apropiado para el problema de negocio específico.
Los SLM a menudo se discuten junto con conceptos como el Ajuste Fino Eficiente de Parámetros (PEFT), que permite la adaptación de modelos sin reentrenar todos los parámetros, y la Computación en el Borde (Edge Computing), que se beneficia directamente de los bajos requisitos de recursos de estos modelos más pequeños.