Data Engineer GCP (H/F)
- Temps complet
- Contract Type: Permanent
- Region: Île-de-France
- Rémunération: EUR 50000 - EUR 65000 - tous les ans
Description de l'entreprise
🏢 À propos d’ALTEN
Leader mondial de l’ingénierie et du conseil en technologies, ALTEN accompagne depuis plus de 35 ans les grands acteurs de l’Industrie, de l’IT, du Digital et des Télécoms dans leurs projets de transformation à forte valeur ajoutée.
Présent dans plus de 30 pays, ALTEN compte aujourd’hui plus de 57 000 collaboratrices et collaborateurs à travers le monde, dont une forte expertise sur les environnements critiques, souverains et à haute exigence de sécurité, notamment dans les secteurs Défense, Aéronautique et Banque.
Description du poste
Dans un contexte de transformation digitale accélérée, nos clients — grands comptes issus de la banque, du retail, de l’industrie ou encore du luxe — investissent massivement dans la valorisation de leurs données pour piloter leur performance et innover.
Au cœur de ces enjeux, la donnée est devenue un actif stratégique, utilisée pour optimiser les processus métiers, personnaliser l’expérience client et alimenter des modèles avancés (BI, IA, Machine Learning).
En rejoignant nos équipes, vous interviendrez sur des plateformes data modernes et cloud-native (GCP / Snowflake), manipulant des volumes de données conséquents dans des environnements exigeants.
Vous serez intégré(e) à des équipes agiles et pluridisciplinaires (Data Engineers, Data Analysts, Data Scientists), où vous contribuerez à la construction de pipelines de données robustes, scalables et industrialisés.
Ce poste vous permettra de :
Travailler sur des cas d’usage concrets à forte valeur business
Monter en compétence sur les technologies data les plus demandées du marché
Avoir un impact direct sur les décisions stratégiques des clients
Évoluer dans un environnement stimulant, orienté innovation et amélioration continue
En tant que Data Engineer, vous êtes un acteur clé de la chaîne de valeur data, garant de la qualité, de la fiabilité et de l’accessibilité des données.
Concevoir et développer des pipelines de données robustes sur GCP
Implémenter des traitements batch et streaming (Dataflow, Pub/Sub)
Modéliser et optimiser les datasets dans BigQuery
Participer à la mise en place d’architectures data scalables
Industrialiser les flux via CI/CD et Terraform
Assurer la qualité et la gouvernance des données
Collaborer avec Data Scientists et équipes métiers
Qualifications
🧰 Stack technique
Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer)
Langages : Python, SQL
Frameworks : Spark / PySpark
Orchestration : Airflow / Composer
Infra : Terraform, CI/CD
👤 Profil recherché
Bac+5 en informatique / data
Expérience : 3 ans minimum en data engineering
Bonne maîtrise de l’écosystème GCP
Expérience en industrialisation de pipelines data
Sensibilité aux enjeux data à grande échelle
Informations complémentaires
Pourquoi nous rejoindre ?
Projets structurants et visibles dans différents secteurs d'activités.
Environnement stimulant et collaboratif
Vision produit long terme
Opportunités d’évolution au sein du groupe
Projet à impact environnemental
Environnement technique moderne
Équipes expertes data / cloud
Possibilité de télétravail