Telemetría Federada
La Telemetría Federada se refiere a un paradigma de recolección y análisis de datos donde los datos de telemetría se generan en múltiples puntos finales distribuidos geográficamente o lógicamente (por ejemplo, dispositivos de borde, servidores locales). En lugar de centralizar todos los datos brutos en una única ubicación, el procesamiento o la agregación de estos datos ocurre localmente o de manera federada, compartiendo solo los conocimientos o actualizaciones del modelo necesarios con una autoridad central.
En las arquitecturas modernas y distribuidas, la soberanía de los datos y la latencia son preocupaciones críticas. Centralizar enormes cantidades de datos de telemetría brutos puede introducir cuellos de botella significativos, violar las leyes de residencia de datos regionales (como el GDPR) y aumentar los costos de transmisión. La Telemetría Federada aborda estos problemas al permitir la extracción de conocimientos sin comprometer la ubicación o la privacidad de los datos subyacentes.
El proceso generalmente implica varias capas. Los datos se recopilan en la fuente (el borde). Los agentes de procesamiento locales luego realizan un filtrado inicial, agregación o entrenamiento de modelos locales en estos datos. Solo los metadatos resultantes, las estadísticas agregadas o los pesos del modelo —no los datos brutos y sensibles— se transmiten al servidor central para el análisis global o el refinamiento del modelo. Esta computación descentralizada es el mecanismo central.
Este concepto se superpone significativamente con la Computación en el Borde (Edge Computing), la Tecnología de Libro Mayor Distribuido (DLT) para la gestión de la confianza y el Aprendizaje Automático que Preserva la Privacidad (PPML), como el Aprendizaje Federado.