Help us maintain the quality of our job listings. If you find any issues with this job post, please let us know.
Select the reason you're reporting this job:
We are a young and growing company, with operations in Medellin and Bogota, focused on the generation of technological solutions in synergy with our customers and our team so that these solutions add value within their organizations and their business processes.
En Softgic trabajamos con los más talentosos, con los que crean, con los que aman lo que hacen, con los que tienen 100% de actitud porque ese es nuestro #Coolture. Únete a nuestro objetivo de hacer la vida más fácil con la tecnología y forma parte de nuestro equipo comoEspecialista DataOps – Nivel Medio.
Compensación:
USD 1,2k/mes.
Modalidad: Remoto
Misión de Softgic:
En Softgic S.A.S. trabajamos para la transformación digital y cognitiva de nuestros clientes, conscientes de que la calidad es un factor esencial para nosotros, incorporamos los siguientes principios en nuestra política:
Entregar productos y servicios de calidad.
Lograr la satisfacción de nuestros clientes internos y externos.
Fomentar en nuestro equipo la importancia de la capacitación para crecer profesional y personalmente a través de planes de desarrollo.
Cumplir con los requisitos legales y normativos aplicables.
Promover la mejora continua del sistema de gestión de calidad.
Requirements
¿Qué te hace un candidato ideal?
Tienes2+ años de experienciaen AWS, DataOps y ETL.
Erescompetenteen Apache Airflow, CI/CD, Git y IaC.
Español- Nativo o completamente fluido.
Certificaciones Requeridas:
AWS Solutions Architect Associate.
AWS Data Analytics Specialty o Data Engineer (deseable).
Habilidades Técnicas:
Experiencia con servicios AWS: Glue, DMS, Lake Formation, Redshift, S3, Macie, IAM.
Conocimientos en desarrollo de infraestructura como código (IaC) con Terraform o CloudFormation.
Dominio de herramientas de control de versiones (Git) y metodologías CI/CD.
Experiencia en programación con Python y desarrollo de consultas SQL avanzadas.
Conocimiento en automatización de procesos con Shell Scripting y herramientas como Apache Airflow o StepFunctions.
Responsabilidades:
Diseñar y desarrollar pipelines ETL/ELT utilizando AWS Glue.
Implementar flujos de migración de datos mediante AWS DMS.
Configurar servicios de catalogación, permisos y tags (Lake Formation, DataZone).
Optimizar procesos de transformación y carga de datos en Redshift y PySpark.
Implementar pruebas unitarias e integrales para asegurar la calidad de los datos.
Gestionar ambientes de datos en AWS (S3, IAM, AWS Organizations).
Monitorear y optimizar jobs y pipelines utilizando CloudWatch y Apache Airflow.
Implementar controles de calidad de datos y resolver incidentes relacionados.
Configurar y monitorear sistemas de seguridad y alertas con Macie, KMS, CloudTrail y CloudWatch.
Benefits
Beneficios para miembros de tiempo completo:
Estamos certificados como un Great Place to Work.
Oportunidades de ascenso y crecimiento.
Tiempo libre remunerado.
Apoyo para educación formal y certificaciones.
Beneficios con empresas asociadas.
Programa de referidos.
Horarios de trabajo flexibles.
Salary:
USD 1.2k / Mes
Required profile
Experience
Level of experience:Mid-level (2-5 years)
Spoken language(s):
Spanish
Check out the description to know which languages are mandatory.