Contexte de la missionDans le cadre de l'équipe de Data Governance, nous recherchons un Ingénieur Data Operations pour renforcer notre équipe. Ce poste est clé pour garantir le bon fonctionnement des pipelines de données, des workflows et des systèmes de gouvernance des données, dans le cadre de nos activités D2D (Day-to-Day) en Data Governance. Le candidat retenu devra posséder une solide expérience en administration système Linux, scripting et gestion des données, avec une bonne connaissance en ordonnancement de jobs et en gestion des releases. Ce rôle implique une collaboration étroite avec les ingénieurs data, les analystes et les parties prenantes pour assurer la qualité, l?intégrité et la disponibilité des données. Description de la fonctionVos objectifs principaux : 1. Exploitation des pipelines de donnéesGérer et maintenir les pipelines de données basés sur Linux, en garantissant un flux de données fluide et fiable Développer et maintenir des scripts shell pour automatiser le traitement, la transformation et le chargement des données Collaborer avec les ingénieurs data pour optimiser les workflows et améliorer la qualité des données 2. Ordonnancement et gestion des releasesCréer, planifier et gérer des jobs dans Control-M pour assurer un traitement ponctuel et fiable des données Travailler avec l?équipe de planification pour organiser les releases, tout en limitant les impacts sur les opérations Surveiller l?exécution des jobs, analyser les logs et résoudre les échecs pour garantir l?intégrité des données 3. Gestion des incidentsIdentifier et traiter rapidement les incidents liés aux données pour limiter les impacts métier Réaliser des analyses de causes racines (RCA) et mettre en ?uvre des actions préventives Documenter les incidents, les étapes de résolution et les leçons tirées 4. Gestion des donnéesGérer les bases de données, exécuter des requêtes et résoudre les problèmes de connectivité Collaborer avec les analystes et ingénieurs data pour améliorer la gouvernance et la qualité des données Développer et maintenir des contrôles qualité afin d?assurer la fiabilité et la précision des données Profil candidat : 1. Exploitation des pipelines de donnéesGérer et maintenir les pipelines de données basés sur Linux, en garantissant un flux de données fluide et fiable Développer et maintenir des scripts shell pour automatiser le traitement, la transformation et le chargement des données Collaborer avec les ingénieurs data pour optimiser les workflows et améliorer la qualité des données 2. Ordonnancement et gestion des releasesCréer, planifier et gérer des jobs dans Control-M pour assurer un traitement ponctuel et fiable des données Travailler avec l?équipe de planification pour organiser les releases, tout en limitant les impacts sur les opérations Surveiller l?exécution des jobs, analyser les logs et résoudre les échecs pour garantir l?intégrité des données 3. Gestion des incidentsIdentifier et traiter rapidement les incidents liés aux données pour limiter les impacts métier Réaliser des analyses de causes racines (RCA) et mettre en ?uvre des actions préventives Documenter les incidents, les étapes de résolution et les leçons tirées 4. Gestion des donnéesGérer les bases de données, exécuter des requêtes et résoudre les problèmes de connectivité Collaborer avec les analystes et ingénieurs data pour améliorer la gouvernance et la qualité des données Développer et maintenir des contrôles qualité afin d?assurer la fiabilité et la précision des données Compétences comportementales (Soft Skills)Esprit analytique pour résoudre efficacement les problèmes liés aux données Bonne communication avec les parties prenantes pour s'assurer que les besoins sont couverts Capacité à s?adapter à des priorités et exigences évolutives Compétences techniques requisesObligatoires : Solide expérience en administration système Linux, scripting (bash, etc.) et gestion des données Expérience avec des outils d?ordonnancement de jobs (ex. Control-M) Connaissances en gestion des releases / mises en production Souhaitées : Connaissances de base d?Ab Initio et des principes de gouvernance des données Expérience avec Git ou autres outils de gestion de version Connaissance des systèmes mainframe pour le transfert et l?intégration de données Expérience professionnelleMinimum 6 ans d'expérience pertinente dans le domaine de la data analytics Souhaitée : Une expérience dans le secteur bancaire est un plus LanguesAnglais : courant (écrit et parlé) Français ou néerlandais : un plus
Data • Bruxelles, Bruxelles-Capitale, Belgique