Papel na empresa: O Engenheiro de Dados Sênior na Dataside atua como liderança técnica nos projetos, apoiando o Tech Lead e contribuindo para o desenvolvimento da equipe e disseminação de conhecimento. Tem autonomia para decisões técnicas de ponta a ponta, garantindo entregas alinhadas às necessidades do cliente. Além disso, realiza mentorias, revisões criteriosas e impulsiona a evolução técnica da empresa. Com uma visão estratégica sobre o valor dos dados, conecta suas entregas ao impacto nos negócios. Mais do que desenvolver soluções, atua como parceiro consultivo, provocando reflexões e fortalecendo a relação com o cliente por meio de propostas bem fundamentadas e confiança.
Responsabilidades:
Ser engenheiro principal em contratos e conduzir decisões técnicas de forma autônoma.
Apoiar o Tech Lead na liderança técnica e estratégica dos projetos.
Realizar revisões técnicas aprofundadas e mentorias com o time.
Propor arquiteturas batch e streaming com visão de escalabilidade, eficiência e alinhamento ao negócio.
Construir planos de melhoria de performance e redução de custo.
Diagnosticar gargalos técnicos e operacionais e propor soluções sustentáveis.
Comunicar soluções de forma clara para diferentes níveis (negócio, técnico, gestão).
Trabalhar com múltiplas integrações, altos volumes de dados e demandas críticas de performance.
Requisitos:
Experiência sólida em projetos de engenharia de dados de altíssima complexidade.
Capacidade de atuar em contextos sem experiência prévia com a stack, aprendendo com rapidez.
Forte domínio de Spark (avançado) e Python com boas práticas de engenharia de software (modelo SOLID).
SQL avançado, com tuning e leitura de planos de execução.
Experiência com integração via APIs RESTful e sistemas distribuídos.
Domínio da stack analítica da AWS, incluindo: S3, Athena, Redshift, Glue, EMR, Kinesis, Lambda, Step Functions, Lake Formation, Secrets Manager,
CloudWatch, SNS, Cost Explorer, Glue DataBrew, Amazon Macie.
Vivência com Databricks, incluindo: Gerenciamento de clusters e políticas, Unity Catalog (lineage, controle de acesso, versionamento), SQL Warehouse,
Workflows, Delta Live Tables (DLT).
Conhecimento de técnicas variadas de modelagem de dados: Data Vault, modelagem dimensional, pipelines orientados a eventos.
Conhecimento em bancos NoSQL como DynamoDB, MongoDB e Cassandra.
Domínio em dimensionamento de clusters, computação distribuída e análise de custo detalhado.
Hard Skills:
Spark (avançado), com domínio de Catalyst Optimizer, persistência, broadcast joins, caching e bucketing.
Python com padrões SOLID e reutilização de componentes.
SQL avançado com tuning, particionamento, otimização de planos de execução.
Consumo e integração via APIs RESTful.
Databricks (avançado): Unity Catalog, SQL Warehouse, Workflows, DLT, Pools e configuração de clusters.
AWS Analytics Stack: S3, Athena, Glue, EMR, Redshift, Kinesis, Lambda, Step Functions, Lake Formation, Glue DataBrew, Macie, CloudWatch, SNS, Cost Explorer.
Amazon Redshift (nível avançado): Otimização com sort keys, compressão, vacuum tuning, WLM avançado, SVL/SVV logs, Redshift Spectrum, arquitetura híbrida com S3.
Modelagem de dados: Data Vault, 3NF, Dimensional, pipelines event-driven.
Bancos NoSQL (DynamoDB, MongoDB).
CI/CD com Git, GitHub Actions ou GitLab CI.
Conceito de testes unitários aplicados à pipelines de dados.
Frameworks e práticas de observabilidade e qualidade de dados: Great Expectations, Airflow, Prometheus, Grafana.
Criação de soluções reutilizáveis e componíveis, com foco em Data Products e estratégias Data Mesh.
Avaliação e planejamento de custo em nuvem: uso de Cost Explorer, dimensionamento com AWS Pricing Calculator.
Soft Skills:
Liderança técnica e influência estratégica.
Capacidade de “aprender a aprender”.
Clareza e profundidade na comunicação com áreas técnicas e de negócio.
Postura consultiva, com escuta ativa e proatividade.
Espírito de colaboração, mentoria e formação de equipe.
Organização, foco em entrega e alto senso de responsabilidade.
Inglês intermediário.
Certificações desejáveis:
AWS Data Engineer Associate.
AWS Solutions Architect Associate.
Diferenciais:
AWS Certified Data Analytics Specialty.
AWS Solutions Architect – Professional.
Databricks Certified Professional Data Engineer.
Nossos Incentivos:
1. Auxílio médico;
2. Wellhub;
3. Auxílio terapia;
4. Teleatendimento em Nutrição;
5. Seguro de vida;
6. Day off no dia do aniversário;
7. Parceria com instituições de ensino com desconto em cursos (Anhanguera e FIAP);
8. Gameficação interna (troque ações por prêmios);
9. English Club;
10. Reembolso + Bônus por certificação.
Entre outros
Atuação remota.
Valorizamos cada voz e cada pessoa, porque sabemos que a diversidade nos torna mais inovadores e fortes.
Vimo
Outfield Healthcare Partners
Kalam Customer Experience
Wikimedia Foundation
Meridian Bioscience Inc.