Responsabilidades:
Diseñar, construir y mantener pipelines ETL con Apache Spark, aplicando buenas prácticas establecidas por el Data Engineering Lead.
Realizar transformaciones complejas, cálculos avanzados y joins sobre grandes volúmenes de datos.
Garantizar calidad, consistencia y rendimiento del sistema a través de validaciones y pruebas automatizadas.
Documentar procesos y mantener la arquitectura técnica actualizada.
Colaborar con ingenieros cloud para asegurar integración fluida con infraestructura en AWS.
Requisitos técnicos:
Experiencia en desarrollo de pipelines ETL con Apache Spark y Python.
Conocimientos sólidos en servicios AWS: S3, RDS (PostgreSQL), IAM, Glue, EMR, Lambda.
Nivel avanzado de SQL.
Experiencia con control de versiones y flujos de CI/CD.
Deseables:
Procesamiento de datos en tiempo real.
Certificación AWS en datos o arquitectura cloud.
Conocimiento en modelos de datos financieros y banca privada.
Inglés fluido.
Heyday Health
Aristocrat IT Solutions Pvt. Ltd.
CookUnity
SynergisticIT
Systems Planning and Analysis, Inc.