Modelo Integrado
Un modelo integrado se refiere a un modelo de aprendizaje automático que se integra directamente en una aplicación de software, dispositivo o flujo de trabajo, en lugar de ser accedido como una llamada de API remota basada en la nube. En lugar de enviar datos a un servidor centralizado para la predicción, el modelo se ejecuta localmente donde se generan o procesan los datos.
Los modelos integrados abordan limitaciones críticas asociadas con la IA tradicional basada en la nube. Reducen drásticamente la latencia, minimizan la dependencia de una conectividad a Internet continua y mejoran significativamente la privacidad de los datos al mantener la información sensible en el dispositivo o dentro del límite del sistema local.
El proceso implica optimizar un modelo preentrenado (por ejemplo, cuantización, poda) para que se ejecute de manera eficiente en el hardware de destino. Luego, este artefacto de modelo optimizado se empaqueta directamente en el código de la aplicación o el firmware. Cuando la aplicación necesita una predicción, alimenta los datos de entrada directamente a la instancia del modelo local para una inferencia inmediata.
Los modelos integrados son prevalentes en varios escenarios de alto rendimiento. Los ejemplos incluyen la detección de objetos en tiempo real en cámaras de seguridad, recomendaciones personalizadas servidas instantáneamente dentro de una aplicación móvil, el procesamiento de lenguaje natural (PLN) para funciones de chat sin conexión y el mantenimiento predictivo en sensores IoT industriales.
Los principales desafíos involucran el tamaño del modelo y las limitaciones computacionales. Desplegar modelos grandes y complejos en dispositivos de borde con recursos limitados requiere una compresión significativa del modelo y una cuidadosa selección de hardware. Mantener y actualizar estos modelos desplegados localmente también puede introducir complejidad en el despliegue.
Los conceptos relacionados incluyen Computación en el Borde (Edge Computing), ML en Dispositivo (On-Device ML), Cuantización de Modelos (Model Quantization) y Aprendizaje Federado (Federated Learning). Mientras que la Computación en el Borde es la infraestructura, un Modelo Integrado es el artefacto de software específico que se ejecuta en esa infraestructura.