Senior Data Engineer – Especialista en Databricks
- A jornada completa
Descripción de la empresa
Somos un consultora digital, internacional y ágil. En la era de la post-transformación digital, nos esforzamos para que cada uno de nuestros 28.000 profesionales pueda renovarse continuamente.
Cada uno de ellos puede diseñar su itinerario profesional de acuerdo a sus preferencias, emprender junto a sus clientes para construir en la práctica un mundo más positivo, innovar en cada uno de los 19 países y conciliar su carrera profesional con su bienestar personal.
Nuestros 28.000 atletas digitales están orgullosos de haberse certificado Top Employer Europe 2025.
Descripción del empleo
Buscamos un Data Engineer Senior con experiencia sólida en Databricks para diseñar, implementar y optimizar soluciones de datos escalables en entornos cloud. El candidato ideal tendrá un profundo conocimiento en arquitecturas Big Data, procesamiento distribuido, y pipelines ETL, además de habilidades para colaborar con equipos multidisciplinarios en proyectos de analítica avanzada y machine learning.
Responsabilidades principales:
- Diseñar y desarrollar pipelines de datos eficientes y escalables utilizando Databricks, Spark y tecnologías relacionadas.
- Implementar procesos de ingestión, transformación y almacenamiento de datos en entornos cloud (Azure, AWS o GCP).
- Optimizar el rendimiento de clusters Spark y gestionar costos en plataformas Databricks.
- Garantizar la calidad, gobernanza y seguridad de los datos en todas las etapas del ciclo de vida.
- Colaborar con equipos de Data Science y BI para habilitar modelos predictivos y dashboards.
- Automatizar procesos mediante CI/CD y herramientas de orquestación (Airflow, Azure Data Factory, etc.).
- Documentar arquitecturas y flujos de datos, asegurando buenas prácticas y estándares.
Requisitos
Requisitos:
- +5 años de experiencia en ingeniería de datos y entornos Big Data.
- Experiencia demostrable en Databricks y Apache Spark.
- Conocimiento avanzado en SQL, Python y Scala.
- Experiencia en cloud computing (Azure, AWS o GCP) y almacenamiento distribuido (Delta Lake, Parquet).
- Familiaridad con CI/CD, Git, y herramientas de orquestación.
- Comprensión de arquitecturas orientadas a datos y principios de DataOps.
- Inglés profesional (oral y escrito).
Deseable:
- Certificaciones en Databricks o Azure/AWS/GCP.
- Experiencia en streaming de datos (Kafka, Event Hub).
- Conocimiento de modelos de machine learning y su integración en pipelines.
Información adicional
¿Qué ofrecemos?
👩🏼🎓 Programa de formación por parte de la empresa para que puedas seguir desarrollándote y promocionar dentro del plan de carrera que existe para ti.
✍🏼 Contrato indefinido y estabilidad.
💵 Retribución flexible y más beneficios
🕓 Flexibilidad horaria.
💻 Modalidad de teletrabajo híbrida.
🚀 Te ofrecemos un entorno dinámico, en el que tu plan de carrera y crecimiento será nuestro objetivo.
💝 Buen ambiente de trabajo, abiertos e inclusivos.
🙋♀️ Formarás parte de un gran equipo de profesionales con inquietud y motivación por la tecnología.