Engenheiro de Dados AWS Pleno (Remoto)

Remote: 
Full Remote
Contract: 
Work from: 

Offer summary

Qualifications:

Practical experience with medium to high complexity data projects., Proficiency in building pipelines using Spark/PySpark and advanced SQL., Strong knowledge of AWS analytics stack including S3, Glue, EMR, Athena, Redshift, Lambda, and Step Functions., Intermediate English communication skills are desirable..

Key responsibilities:

  • Design, build, and maintain data pipelines using PySpark, SQL, and AWS services.
  • Manage data ingestion and transformation efficiently while adhering to best practices.
  • Conduct client meetings to explain technical decisions and propose scalable solutions.
  • Mentor junior professionals and actively promote best practices within the team.

Dataside logo
Dataside Information Technology & Services SME https://www.dataside.com.br/
501 - 1000 Employees
See all jobs

Job description

Papel na empresa: O Engenheiro de Dados Pleno na Dataside tem autonomia para entregar soluções de alta complexidade em projetos de engenharia de dados. Atua como responsável técnico por contratos, sempre acompanhado de um Líder Técnico, Engenheiro Sênior ou Arquiteto de Dados. Sua função envolve orientar clientes nas decisões sobre pipelines, serviços, otimização de custo e performance, além de identificar oportunidades de melhoria em arquiteturas existentes e comunicá-las aos responsáveis técnicos de maior senioridade. Também participa ativamente do desenvolvimento de colegas menos experientes, realizando revisões técnicas e mentorias para Juniors ou membros em fase de crescimento. Além disso, espera-se que o profissional tenha foco em gerar valor real para o negócio, atuando com empatia, escuta ativa e visão estratégica. É fundamental que saiba encantar o cliente com entregas bem estruturadas, comunicação clara e postura parceira, trabalhando lado a lado para resolver as principais dores do projeto com foco em resultados concretos.

Responsabilidades:
Projetar, construir e manter pipelines de dados usando PySpark, SQL e serviços AWS.
Gerenciar ingestão e transformação de dados com eficiência, reutilização e boas práticas.
Atuar em projetos com Glue, EMR, Redshift, Athena, Lambda e Step Functions.
Otimizar ciclos de vida de dados no S3 e garantir performance das consultas.
Gerar valor através da organização e governança dos dados.
Trabalhar com ambientes críticos e de grande volume.
Conduzir reuniões com clientes, explicar decisões técnicas e propor soluções escaláveis.
Antecipar riscos técnicos e sugerir soluções.
Orientar profissionais Júnior e participar ativamente da disseminação de boas práticas no time.

Requisitos:
Experiência prática com projetos de média e alta complexidade em ambientes de dados.
Vivência em construção de pipelines com Spark/PySpark e SQL avançado.
Domínio da stack analítica AWS:
S3, Glue, EMR, Athena, Redshift, Lambda, Step Functions.
Experiência com CI/CD, versionamento com Git e deploy automatizado.
Boa comunicação com stakeholders técnicos e não técnicos.
Visão clara de fluxo de dados e arquitetura em cloud.
Autonomia para execução e responsabilidade sobre entregas.
DMS (indispensável), Kinesis Data Stream. 
Conhecimento Azure: Blob storage, Lakehouse, Eventhub, Azure Functions, Data Factory.
Conhecimentos em Databricks, Arquitetura Medalion, Unity Catalog, DLT (indispensável). 

Hard Skills:
PySpark avançado.
SQL avançado.
Stack analítica AWS: S3, Glue, EMR, Athena, Redshift, Lambda, Step Functions.
Git + CI/CD.
Amazon Redshift:
Criação e manutenção de tabelas, distribuição (KEY, EVEN, ALL), sort keys, vacuum/stats, materialized views, COPY/UNLOAD, WLM.

Soft Skills:
Postura consultiva.
Organização e autonomia.
Clareza e estruturação na comunicação.
Capacidade de antecipação de problemas e riscos.
Espírito de equipe e orientação a resultado.
Capacidade de orientar e influenciar colegas menos experientes.
Inglês intermediário (desejável).

Certificações desejáveis:
AWS Data Engineer Associate.
AWS Solutions Architect Associate.

Diferenciais:
Conhecimento/experiência em Terraform, DBT, DuckDB, Docker.
Databricks Certified Data Engineer Associate.

Nossos Incentivos:
1. Auxílio médico;
2. Wellhub;
3. Auxílio terapia;
4. Teleatendimento em Nutrição;
5. Seguro de vida;
6. Day off no dia do aniversário;
7. Parceria com instituições de ensino com desconto em cursos (Anhanguera e FIAP);
8. Gameficação interna (troque ações por prêmios);
9. English Club;
10. Reembolso + Bônus por certificação.

Entre outros
Atuação remota. 

Valorizamos cada voz e cada pessoa, porque sabemos que a diversidade nos torna mais inovadores e fortes.

Required profile

Experience

Industry :
Information Technology & Services
Spoken language(s):
English
Check out the description to know which languages are mandatory.

Other Skills

  • Communication
  • Mentorship
  • Team Motivation

Related jobs