You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
En coopération avec les devops, réfléchir à un système de monitoring des mesures générées par les différents DAGs.
Exemple: le DAG Spectacle enverrait le nombre de SIREN traités à chaque exécution. Le système de monitoring nous permettrait de suivre l'évolution de cette mesure, voire de créer des alertes.
Idées:
Kibana
Metabase
Dash
The text was updated successfully, but these errors were encountered:
Après discussion avec @MKCG l'idée serait la suivante:
Monter les logs Airflow sur Filebeat
Structurer les logs qu’on écrit sur Airflow d’une manière où Filebeat peut les parser facilement, et de manière suffisamment générique pour qu’on puisse tracker tout ce qu’on veut. Example:
[2025-01-15, 17:59:47 CET] {data_processor.py:96} INFO - ::KIBANA-STATS:: KEY:SIREN VALUE:52395
[2025-01-15, 17:59:47 CET] {data_processor.py:96} INFO - ::KIBANA-STATS:: KEY:SIRET VALUE:453
..
Parser les logs suivant les patterns définies
Isoler sur un nouvel index Elasticsearch les logs parsés Airflow qui nous intéressent pour les faire persister dans le temps
En coopération avec les devops, réfléchir à un système de monitoring des mesures générées par les différents DAGs.
Exemple: le DAG Spectacle enverrait le nombre de SIREN traités à chaque exécution. Le système de monitoring nous permettrait de suivre l'évolution de cette mesure, voire de créer des alertes.
Idées:
Kibana
Metabase
Dash
The text was updated successfully, but these errors were encountered: