Data Engineer

  • Temps complet
  • Contract type: CDI

Description de l'entreprise

Chez Devoteam, nous sommes des « Digital Transformakers ». Le respect, la franchise et la passion animent chaque jour notre tribu. 

Ensemble, nous aidons nos clients à remporter la bataille du Digital : du conseil à la mise en œuvre de technologies innovantes, jusqu’à l’adoption des usages.

Cloud, Cybersecurity, Data, DevOps, Fullstack Dev, Low Code, RPA n’ont plus aucun secret pour notre tribu ! 

Nos 10 000+ collaborateurs sont certifiés, formés et accompagnés au quotidien pour relever de nouveaux challenges innovants.

Devoteam Tunisie, filiale de Devoteam Group, est génératrice de valeur depuis plus de 16 années. Travaillant à la fois à l'échelle africaine et internationale, notre équipe compte plus de 160 consultant(e)s pluridisciplinaires doté(e)s de compétences variées (consultants en transformation digitale, développeurs, chefs de projets, experts en data et cybersécurité) travaillant sur des projets enrichissants et innovants.

Etes-vous prêt(e) à nous rejoindre et relever ensemble ce défi ?

Description du poste

Au sein de l’équipe Data, vous intervenez sur la conception, le développement et l’industrialisation de pipelines de données batch et temps réel.

Vous contribuez à la mise en place d’architectures data modernes sur GCP ainsi qu’au développement de flux streaming robustes basés sur Kafka et l’écosystème Java.
 

🔹Data Warehouse & BigQuery

  • Concevoir et maintenir des datasets dans BigQuery
  • Développer des requêtes SQL optimisées (partitionnement, clustering)
  • Mettre en place des stratégies d’optimisation des coûts et performances
  • Concevoir des modèles analytiques (schéma en étoile, data marts)
  • Garantir la qualité et la cohérence des données

🔹Concevoir et développer des pipelines ELT/ETL (batch & streaming)

  • Modéliser les données (modèles analytiques, data warehouse)
  • Optimiser les requêtes et la performance des traitements
  • Mettre en place des flux temps réel via Kafka / PubSub
  • Participer à la définition des architectures data (scalabilité, résilience)


🔹 Développement & Streaming

  • Développer des services et APIs en Java (Spring Boot) et/ou Scala
  • Implémenter des traitements streaming avec Kafka / Kafka Streams
  • Développer et maintenir les transformations via DBT (Data Build Tool)
  • Contribuer aux architectures microservices orientées data


🔹 Industrialisation & Exploitation

  • Orchestrer les workflows avec Airflow / Cloud Composer
  • Automatiser les déploiements via CI/CD (GitLab CI)
  • Assurer le versioning avec Git


🔹 Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings
de haute qualité.
🔹Capacité de prise de recul : Aptitude à évaluer les problématiques avec objectivité et à
proposer des solutions d'amélioration.
🔹Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe po
atteindre des objectifs communs.
🔹Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog...).
🔹Capacité à s'adapter rapidement aux nouvelles technologies et aux changements de priorités.

Qualifications

● Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation
en informatique, ou justifiant d'une expérience significative équivalent
● Expérience de 4 ans et plus en GCP

Politique de confidentialité