Modelo Federado
Un Modelo Federado, a menudo implementado a través del Aprendizaje Federado (FL), es un paradigma de aprendizaje automático que entrena un modelo global compartido a través de una red de dispositivos o servidores de borde descentralizados que contienen muestras de datos locales, sin intercambiar los datos brutos en sí. En lugar de agrupar datos sensibles en una ubicación central, el modelo viaja hacia los datos.
En una era de estrictas regulaciones de datos como GDPR y CCPA, centralizar datos sensibles de usuarios es cada vez más arriesgado y a menudo no cumple con la normativa. Los Modelos Federados resuelven esto al permitir que las organizaciones aprovechen vastos conjuntos de datos distribuidos —como los que residen en teléfonos móviles, hospitales o servidores de sucursales locales— para construir modelos de IA robustos mientras mantienen los datos localizados y privados.
El proceso implica varios pasos iterativos. Primero, un servidor central envía la versión actual del modelo global a clientes participantes seleccionados. Luego, cada cliente entrena este modelo localmente utilizando su conjunto de datos propietario. Después del entrenamiento local, los clientes solo envían las actualizaciones del modelo (por ejemplo, actualizaciones de gradiente o cambios de peso) de vuelta al servidor central, no los datos brutos. El servidor luego agrega estas actualizaciones —a menudo utilizando técnicas como el Promedio Federado (FedAvg)— para crear un modelo global mejorado, que luego se redistribuye para la siguiente ronda de entrenamiento.
Los Modelos Federados son altamente aplicables en escenarios donde los datos no pueden abandonar su fuente. Los ejemplos incluyen: entrenar modelos de texto predictivo en teléfonos inteligentes de usuarios, desarrollar IA de diagnóstico en redes multi-hospitalarias sin compartir registros de pacientes, o mejorar la detección de fraudes en múltiples instituciones financieras.
Las ventajas principales son una privacidad y un cumplimiento de datos mejorados, una reducción en los costos de transmisión de datos y la capacidad de entrenar con datos del mundo real altamente diversos que de otro modo podrían estar aislados debido a restricciones de gobernanza. Esto conduce a modelos más robustos y generalizables.
La implementación de FL introduce obstáculos técnicos. Estos incluyen la gestión de la heterogeneidad del sistema (dispositivos con diferentes capacidades de computación), el manejo de datos no IID (no independientes e idénticamente distribuidos) entre clientes, y garantizar la seguridad de las actualizaciones del modelo transmitidas contra ataques de inferencia.
Este concepto está estrechamente relacionado con la Privacidad Diferencial (Differential Privacy, que añade ruido a las actualizaciones para prevenir la ingeniería inversa de puntos de datos individuales) y la Agregación Segura (Secure Aggregation, que garantiza que el servidor central no puede ver las actualizaciones individuales de los clientes).