Data Engineer H/F
- Temps complet
- Rémunération: EUR41000 - EUR45000 - tous les ans
Description de l'entreprise
Inetum est un leader européen des services numériques. Pour les entreprises, les acteurs publics et la société dans son ensemble, les 28 000 consultants et spécialistes du groupe visent chaque jour l'impact digital : des solutions qui contribuent à la performance, à l'innovation et au bien commun.
Présent dans 19 pays au plus près des territoires, et avec ses grands partenaires éditeurs de logiciels, Inetum répond aux enjeux de la transformation digitale avec proximité et flexibilité.
Porté par son ambition de croissance et d'industrialisation, Inetum a généré en 2023 un chiffre d'affaires de 2,5 milliards d'€.
Pour répondre à un marché en croissance continue depuis plus de 30ans, Inetum a fait le choix délibéré de se recentrer sur 4 métiers afin de gagner en puissance et proposer des solutions sur mesure, adaptées aux besoins spécifiques de ses clients : le conseil (Inetum Consulting), la gestion des infrastructures et applications à façon (Inetum Technologies), l'implémentation de progiciels (Inetum Solutions) et sa propre activité d'éditeur de logiciels (Inetum Software). Inetum a conclu des partenariats stratégiques avec 4 grands éditeurs mondiaux - Salesforce, ServiceNow, Microsoft et SAP et poursuit une stratégie d'acquisitions dédiée afin d'entrer dans le top 5 européen sur ces technologies et proposer la meilleure expertise à ses clients.
Tous nos postes sont ouverts aux personnes en situation de handicap.
Description du poste
Dans le cadre du lancement de notre nouveau projet Datahub V2, nous recherchons un/une Data Engineer pour assurer la phase de RUN et garantir la continuité opérationnelle. Vous rejoindrez une équipe d’experts ayant mené la construction de la solution et serez responsable de son maintien et de son évolution.
Le poste ne requiert pas une expertise pointue, mais nous recherchons un professionnel solide et autonome, capable de prendre en main les composants existants, d’assurer leur stabilité et les faire évoluer de manière durable.
Qualifications
Vos missions
Développer et optimiser des traitements distribués sur Spark pour garantir la performance du Datahub V2
Orchestrer des workflows batch avec Airflow, en intégrant les jobs nécessaires
Interroger et intégrer les données via SQL et Starburst (Trino)
Contribuer aux développements applicatifs en Java/Scala
Mettre en place et suivre les pipelines de déploiement dans un environnement DevOps
Superviser les activités grâce à la gestion des logs et la création de dashboards ELK
Veiller à la bonne utilisation des environnements Cloud et à la cohérence de l’architecture technique
Compétences recherchées
Spark 3
SQL / Starburst (Trino)
Airflow (Astronomer) / Python
Java
Scala
ELK (Log as a Service)
Cloud (compréhension des environnements cloud hébergeant le Datahub V2)
DevOps (gestion des pipelines de déploiement via des templates existants)
Informations complémentaires
Pourquoi nous rejoindre ?
Vous aurez l'opportunité de travailler sur des projets stratégiques au sein d'une institution bancaire de premier plan, en contribuant directement à l'amélioration de la qualité des services offerts aux utilisateurs et clients.
Si vous êtes passionné par le domaine de la data et souhaitez relever ce défi, nous vous invitons à postuler dès maintenant.
Nous sommes impatients de découvrir votre candidature :-)