Data Engineer Databricks (H/F)
- Temps complet
- Rémunération: EUR 60000 - EUR 70000 - tous les ans
Description de l'entreprise
Inetum est un leader européen des services numériques. Pour les entreprises, les acteurs publics et la société dans son ensemble, les 28 000 consultants et spécialistes du groupe visent chaque jour l'impact digital : des solutions qui contribuent à la performance, à l'innovation et au bien commun.
Présent dans 19 pays au plus près des territoires, et avec ses grands partenaires éditeurs de logiciels, Inetum répond aux enjeux de la transformation digitale avec proximité et flexibilité.
Porté par son ambition de croissance et d'industrialisation, Inetum a généré en 2023 un chiffre d'affaires de 2,5 milliards d'€.
Pour répondre à un marché en croissance continue depuis plus de 30ans, Inetum a fait le choix délibéré de se recentrer sur 4 métiers afin de gagner en puissance et proposer des solutions sur mesure, adaptées aux besoins spécifiques de ses clients : le conseil (Inetum Consulting), la gestion des infrastructures et applications à façon (Inetum Technologies), l'implémentation de progiciels (Inetum Solutions) et sa propre activité d'éditeur de logiciels (Inetum Software). Inetum a conclu des partenariats stratégiques avec 4 grands éditeurs mondiaux - Salesforce, ServiceNow, Microsoft et SAP et poursuit une stratégie d'acquisitions dédiée afin d'entrer dans le top 5 européen sur ces technologies et proposer la meilleure expertise à ses clients.
Description du poste
La BU Data, AI & Innovation s’appuie sur des plateformes modernes et cloud telles que Databricks, ainsi que sur les principaux hyperscalers du marché (Azure, AWS, GCP). Nous accompagnons nos clients sur l’ensemble de la chaîne de valorisation de la donnée : modernisation des plateformes data, analytics avancée, industrialisation des dataflows, gouvernance et optimisation des performances.
Dans le cadre de notre développement, nous recherchons un Data Engineer expert Databricks. Vous rejoindrez des projets à forte valeur ajoutée, d’envergure internationale au sein d’environnements clients variés (finance, industrie, retail, mobilité, énergie…). Vous interviendrez sur la conception, le développement, l’industrialisation et la maintenance de pipelines de données fiables, performants et évolutifs, en vous appuyant principalement sur Databricks.
Vous serez un acteur clé de la qualité des données, de la collaboration inter‑équipes et de l’amélioration continue des pratiques et des architectures mises en œuvre.
Missions principales
Développement de dataflows sur Databricks :
- Concevoir, développer et optimiser des pipelines de données sur Databricks (Batch & Streaming).
- Manipuler des données à grande échelle via PySpark ou Scala.
- Implémenter des transformations avancées et garantir la qualité, la robustesse et la performance des traitements.
Industrialisation & bonnes pratiques :
- Mettre en œuvre les standards du Delta Lake, du Data Lakehouse et des architectures cloud.
- Développer dans une logique DataOps : CI/CD, automatisation, tests, versionning.
- S’assurer du respect des bonnes pratiques en sécurité, gouvernance et optimisation des coûts.
Participation aux projets dans des contextes variés
- Intervenir dans des contextes métiers multiples : finance, industrie, retail, mobilité, énergie…
- Adapter les patterns de développement aux contraintes spécifiques (volumétrie, temps réel, SLA…).
- Travailler en collaboration avec Data Architects, Data Analysts, Data Scientists et équipes Cloud.
Expertise & accompagnement
- Apporter un rôle de référent technique auprès des équipes de développement.
- Participer à l’amélioration continue : documentation, partage de bonnes pratiques, guidelines, accélérateurs internes.
- Contribuer aux études de cadrage, aux choix technologiques et aux prototypes/POC.
- Certifications Databricks souhaitées.
Qualifications
Compétences techniques indispensables
- Maîtrise avancée de Databricks (Workspaces, Jobs/Workflows, Delta Lake, Unity Catalog).
- Excellente pratique de PySpark et/ou Scala dans un contexte Big Data distribué.
- Solides compétences en traitements distribués, optimisation Spark et gestion de la performance.
- Connaissance d’un Cloud majeur : Azure (prioritaire), AWS ou GCP.
- Maîtrise des outils et pratiques CI/CD (Azure DevOps, GitHub Actions, Jenkins…).
- Connaissance de Terraform ou équivalent (un plus).
Expérience
- Minimum 3 à 5 ans d’expérience en Data Engineering.
- Expériences significatives dans plusieurs contextes projets, montrant votre capacité à vous adapter et à industrialiser des pipelines complexes.
- Expérience démontrée sur la mise en place de dataflows Databricks (batch & streaming).
- Anglais courant.
Qualités humaines
- Rigueur, autonomie, sens du détail et du travail bien fait.
- Esprit d’équipe et envie de partager vos bonnes pratiques.
- Capacité à évoluer dans des environnements agiles et exigeants.
Informations complémentaires
Vos avantages :
📆 27 jours de congés payés + 10 RTT
🥗 Tickets restaurant : D'une valeur de 9€ (Prise en charge à 60% par Inetum)
👨🏻💻 Suivi de carrière individualisé : avec votre manager, leader technique ou chef de projet en proximité tout au long de l'année en plus des entretiens annuels et professionnels.
👋🏻 Parcours d'intégration unique et personnalisé : Accompagnement, référent, rencontre avec les équipes pour vous familiariser avec les valeurs du groupe.
Les petits + Inetum :
💻 Un accord télétravail flexible : 2 jours à 3 jours par semaine en fonction de notre client
🚌 Une prise en charge à 50% des frais de transport en commun dans le cadre de vos déplacements professionnels
🚀 Politique de formation avantageuse : Formations et Certifications techniques, fonctionnelles, testing, méthodologie et gestion de projet, développement personnel…)
🎉 Des animations d'agence régulière avec les équipes Inetum : Soirées jeux, Afterworks, activité teambuilding …
📣 L'opportunité de transmettre votre savoir en tant qu'expert : Animation de Techlunch, participation à des meetup techniques, prise de parole sur des conférences, dans des écoles ou sur des événements.