Publicar Vaga
Afiliados
❌ Vagas que Você Ocultou
⭐️ Vagas Salvas
✅ Vagas Candidatadas
Conta
Leega
Site
LinkedIn
Todas as Vagas
Business Intelligence (BI)
Analytics de Negócios
SAS
DataStage
PowerCenter
A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos.
A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação.
201 - 500 funcionários
Fundada em 2010
🔌 API
🤖 Inteligência Artificial
Engenheiro de Dados Sênior (SAS e GCP)
12 minutos atrás
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
Apache
BigQuery
Cloud
ETL
Google Cloud Platform
Hadoop
Java
PySpark
Python
Scala
Shell Scripting
Spark
SQL
Terraform
Candidatar-se
Check Resume Score
☆ Salvar
☑️ Marcar como candidatado
❌ Ocultar
Reportar problema
Descrição
Avaliar arquitetura e requisitos do DW SAS existente e mapear dados, transformações e processos para o GCP
Definir estratégia de migração (full load, incremental, CDC) e elaborar plano de arquitetura de dados no GCP
Projetar esquemas de tabelas no BigQuery, definir particionamento e clustering e modelar zonas de dados no Cloud Storage (Bronze/Silver/Gold)
Desenvolver pipelines ELT/ETL usando Dataproc (Spark) ou Dataflow e traduzir lógica SAS para o ambiente GCP
Implementar validação e qualidade de dados
Provisionar e gerenciar infraestrutura com IaC (Terraform) e otimizar clusters Dataproc
Gerenciar redes, segurança (IAM) e acessos no GCP
Otimizar performance e custo (consultas BigQuery, jobs Spark, uso de recursos GCP)
Implementar segurança e governança de dados, aplicar políticas de IAM e garantir conformidade
Monitorar, solucionar problemas e dar suporte a pipelines e recursos no GCP
Documentar arquitetura, pipelines, modelos de dados e procedimentos operacionais
Comunicar-se com a equipe e stakeholders, garantindo alinhamento entre arquitetura e desenvolvimento
Atuar com Jira e metodologias ágeis
🎯 Requisitos
Profundo conhecimento em BigQuery (modelagem, otimização de consultas, particionamento, clustering, cargas streaming e batch, segurança e governança)
Experiência com Cloud Storage (gerenciamento de buckets, classes de armazenamento, políticas de ciclo de vida, IAM)
Experiência com Dataproc (provisionamento, configuração e gestão de clusters Spark/Hadoop, otimização de jobs)
Conhecimento em Dataflow, Composer e Cloud Functions para orquestração e processamento de pipelines ELT/ETL
Implementação de Cloud IAM e políticas de segurança
Conhecimento de VPC, redes, sub-redes, regras de firewall e segurança na nuvem
Experiência com SAS Data Warehouse e linguagem SAS; habilidade para ler, entender e traduzir código SAS
Desejável conhecimento em SAS DI Studio e SAS Enterprise Guide
Experiência em processamento distribuído e Big Data, especialmente Apache Spark (Scala, Python ou Java)
Domínio avançado de SQL
Proficiência em Python e PySpark
Shell scripting para automação
Experiência com controle de versão (Git/GitHub/Bitbucket)
Conhecimento em modelagem dimensional e conceitos de DW/BI
Familiaridade com Jira e metodologias ágeis
🏖️ Benefícios
Convênio Médico Porto Seguro
Convênio Odontológico Porto Seguro
Participação nos Lucros e Resultados (PLR)
Auxílio Creche
Vale Alimentação e Refeição Alelo
Auxílio Home Office
Parcerias com Instituições de Ensino (descontos em cursos e graduações)
Incentivo para Certificações, inclusive em Cloud
Pontos Livelo
TotalPass (desconto em planos de academia)
Mindself (meditação e mindfulness)
Candidatar-se
📊 Pontuação do Currículo
Envie seu currículo para ver se ele passa pelas ferramentas de rejeição automática usadas por recrutadores
Check Resume Score
Vagas Similares
Engenheiro de Dados
2 horas atrás
FCamara Consulting & Training
1001 - 5000
Site
LinkedIn
Todas as Vagas
Construir e manter pipelines de dados e data lakes baseados em GCP para uma importante empresa de construção da América Latina. Garantir qualidade dos dados, segurança (LGPD) e CI/CD dos produtos analíticos.
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
BigQuery
Cloud
ETL
Google Cloud Platform
Python
Spark
SQL
SSIS
Terraform
Engenheiro de Dados
2 horas atrás
FCamara Consulting & Training
1001 - 5000
Site
LinkedIn
Todas as Vagas
Engenheiro de Dados construindo e mantendo infraestrutura de dados no GCP para a maior construtora do Brasil. Responsável por ETL, BigQuery, modelagem de dados e CI/CD.
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
BigQuery
Cloud
ETL
Google Cloud Platform
Python
Spark
SQL
SSIS
Terraform
Engenheiro de Dados e/ou Arquiteto de Dados
3 horas atrás
Logiks TI
201 - 500
Site
LinkedIn
Todas as Vagas
Construir e manter Data Lakes AWS, pipelines de ETL e arquiteturas de Data Warehouse para consultoria de TI brasileira. Utilizar Python/PySpark, Airflow e serviços analíticos da AWS (S3, Redshift, Glue, Athena).
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
Airflow
Amazon Redshift
AWS
Cloud
PySpark
Python
Engenheiro de Dados (Pleno)
21 horas atrás
Dadosfera
51 - 200
Site
LinkedIn
Todas as Vagas
Construir e manter pipelines de dados e plataformas em nuvem para a plataforma Data & AI da Dadosfera; liderar projetos com clientes e projetar arquiteturas de dados escaláveis.
🇧🇷 Brasil – Remoto
💰 $1.800.000 Seed Round em 2022-06
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
Airflow
Apache
Cloud
Kubernetes
Linux
Python
Scala
Spark
SQL
Tableau
Terraform
Engenheiro de Dados - Sênior
Ontem
Aliare
501 - 1000
Site
LinkedIn
Todas as Vagas
Liderar o design e a implementação de domínios de dados de alta performance e mentorar engenheiros na Aliare, empresa de software para agronegócio.
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟠 Sênior
🚰 Engenheiro de Dados
Cloud
Kafka
Spark
Ver Mais Vagas de Engenheiro de Dados
Desenvolvido por Lior Neu-ner. Adoraria receber seu feedback — entre em contato por DM ou pelo e-mail support@remoterocketship.com
Buscar
Buscar vagas por cargo
Buscar vagas por stack tecnológico
Vagas remotas tempo-integral
Vagas remotas meio-periodo
Vagas remotas contrato-temporario
Vagas remotas estagio
Vagas Populares
Vagas remotas de analista de dados
Vagas remotas de DevOps
Vagas remotas de assistente executivo
Vagas remotas de designer de produto
Vagas remotas de engenheiro de QA
Vagas remotas de recrutador
Vagas remotas de vendas
Vagas remotas de SDR
Vagas remotas de engenheiro de software
Vagas remotas de pesquisador UX
Recursos
Publicar vaga
Afiliados
Política de privacidade e termos de serviço
Requirements
Publicar Vaga
Afiliados
❌ Vagas que Você Ocultou
⭐️ Vagas Salvas
✅ Vagas Candidatadas
Conta
Leega
Site
LinkedIn
Todas as Vagas
Business Intelligence (BI)
Analytics de Negócios
SAS
DataStage
PowerCenter
A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos.
A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação.
201 - 500 funcionários
Fundada em 2010
🔌 API
🤖 Inteligência Artificial
Engenheiro de Dados Sênior (SAS e GCP)
12 minutos atrás
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
Apache
BigQuery
Cloud
ETL
Google Cloud Platform
Hadoop
Java
PySpark
Python
Scala
Shell Scripting
Spark
SQL
Terraform
Candidatar-se
Check Resume Score
☆ Salvar
☑️ Marcar como candidatado
❌ Ocultar
Reportar problema
Descrição
Avaliar arquitetura e requisitos do DW SAS existente e mapear dados, transformações e processos para o GCP
Definir estratégia de migração (full load, incremental, CDC) e elaborar plano de arquitetura de dados no GCP
Projetar esquemas de tabelas no BigQuery, definir particionamento e clustering e modelar zonas de dados no Cloud Storage (Bronze/Silver/Gold)
Desenvolver pipelines ELT/ETL usando Dataproc (Spark) ou Dataflow e traduzir lógica SAS para o ambiente GCP
Implementar validação e qualidade de dados
Provisionar e gerenciar infraestrutura com IaC (Terraform) e otimizar clusters Dataproc
Gerenciar redes, segurança (IAM) e acessos no GCP
Otimizar performance e custo (consultas BigQuery, jobs Spark, uso de recursos GCP)
Implementar segurança e governança de dados, aplicar políticas de IAM e garantir conformidade
Monitorar, solucionar problemas e dar suporte a pipelines e recursos no GCP
Documentar arquitetura, pipelines, modelos de dados e procedimentos operacionais
Comunicar-se com a equipe e stakeholders, garantindo alinhamento entre arquitetura e desenvolvimento
Atuar com Jira e metodologias ágeis
🎯 Requisitos
Profundo conhecimento em BigQuery (modelagem, otimização de consultas, particionamento, clustering, cargas streaming e batch, segurança e governança)
Experiência com Cloud Storage (gerenciamento de buckets, classes de armazenamento, políticas de ciclo de vida, IAM)
Experiência com Dataproc (provisionamento, configuração e gestão de clusters Spark/Hadoop, otimização de jobs)
Conhecimento em Dataflow, Composer e Cloud Functions para orquestração e processamento de pipelines ELT/ETL
Implementação de Cloud IAM e políticas de segurança
Conhecimento de VPC, redes, sub-redes, regras de firewall e segurança na nuvem
Experiência com SAS Data Warehouse e linguagem SAS; habilidade para ler, entender e traduzir código SAS
Desejável conhecimento em SAS DI Studio e SAS Enterprise Guide
Experiência em processamento distribuído e Big Data, especialmente Apache Spark (Scala, Python ou Java)
Domínio avançado de SQL
Proficiência em Python e PySpark
Shell scripting para automação
Experiência com controle de versão (Git/GitHub/Bitbucket)
Conhecimento em modelagem dimensional e conceitos de DW/BI
Familiaridade com Jira e metodologias ágeis
🏖️ Benefícios
Convênio Médico Porto Seguro
Convênio Odontológico Porto Seguro
Participação nos Lucros e Resultados (PLR)
Auxílio Creche
Vale Alimentação e Refeição Alelo
Auxílio Home Office
Parcerias com Instituições de Ensino (descontos em cursos e graduações)
Incentivo para Certificações, inclusive em Cloud
Pontos Livelo
TotalPass (desconto em planos de academia)
Mindself (meditação e mindfulness)
Candidatar-se
📊 Pontuação do Currículo
Envie seu currículo para ver se ele passa pelas ferramentas de rejeição automática usadas por recrutadores
Check Resume Score
Vagas Similares
Engenheiro de Dados
2 horas atrás
FCamara Consulting & Training
1001 - 5000
Site
LinkedIn
Todas as Vagas
Construir e manter pipelines de dados e data lakes baseados em GCP para uma importante empresa de construção da América Latina. Garantir qualidade dos dados, segurança (LGPD) e CI/CD dos produtos analíticos.
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
BigQuery
Cloud
ETL
Google Cloud Platform
Python
Spark
SQL
SSIS
Terraform
Engenheiro de Dados
2 horas atrás
FCamara Consulting & Training
1001 - 5000
Site
LinkedIn
Todas as Vagas
Engenheiro de Dados construindo e mantendo infraestrutura de dados no GCP para a maior construtora do Brasil. Responsável por ETL, BigQuery, modelagem de dados e CI/CD.
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
BigQuery
Cloud
ETL
Google Cloud Platform
Python
Spark
SQL
SSIS
Terraform
Engenheiro de Dados e/ou Arquiteto de Dados
3 horas atrás
Logiks TI
201 - 500
Site
LinkedIn
Todas as Vagas
Construir e manter Data Lakes AWS, pipelines de ETL e arquiteturas de Data Warehouse para consultoria de TI brasileira. Utilizar Python/PySpark, Airflow e serviços analíticos da AWS (S3, Redshift, Glue, Athena).
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
Airflow
Amazon Redshift
AWS
Cloud
PySpark
Python
Engenheiro de Dados (Pleno)
21 horas atrás
Dadosfera
51 - 200
Site
LinkedIn
Todas as Vagas
Construir e manter pipelines de dados e plataformas em nuvem para a plataforma Data & AI da Dadosfera; liderar projetos com clientes e projetar arquiteturas de dados escaláveis.
🇧🇷 Brasil – Remoto
💰 $1.800.000 Seed Round em 2022-06
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
Airflow
Apache
Cloud
Kubernetes
Linux
Python
Scala
Spark
SQL
Tableau
Terraform
Engenheiro de Dados - Sênior
Ontem
Aliare
501 - 1000
Site
LinkedIn
Todas as Vagas
Liderar o design e a implementação de domínios de dados de alta performance e mentorar engenheiros na Aliare, empresa de software para agronegócio.
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟠 Sênior
🚰 Engenheiro de Dados
Cloud
Kafka
Spark
Ver Mais Vagas de Engenheiro de Dados
Desenvolvido por Lior Neu-ner. Adoraria receber seu feedback — entre em contato por DM ou pelo e-mail support@remoterocketship.com
Buscar
Buscar vagas por cargo
Buscar vagas por stack tecnológico
Vagas remotas tempo-integral
Vagas remotas meio-periodo
Vagas remotas contrato-temporario
Vagas remotas estagio
Vagas Populares
Vagas remotas de analista de dados
Vagas remotas de DevOps
Vagas remotas de assistente executivo
Vagas remotas de designer de produto
Vagas remotas de engenheiro de QA
Vagas remotas de recrutador
Vagas remotas de vendas
Vagas remotas de SDR
Vagas remotas de engenheiro de software
Vagas remotas de pesquisador UX
Recursos
Publicar vaga
Afiliados
Política de privacidade e termos de serviço
Benefits
Publicar Vaga
Afiliados
❌ Vagas que Você Ocultou
⭐️ Vagas Salvas
✅ Vagas Candidatadas
Conta
Leega
Site
LinkedIn
Todas as Vagas
Business Intelligence (BI)
Analytics de Negócios
SAS
DataStage
PowerCenter
A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos.
A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação.
201 - 500 funcionários
Fundada em 2010
🔌 API
🤖 Inteligência Artificial
Engenheiro de Dados Sênior (SAS e GCP)
12 minutos atrás
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
Apache
BigQuery
Cloud
ETL
Google Cloud Platform
Hadoop
Java
PySpark
Python
Scala
Shell Scripting
Spark
SQL
Terraform
Candidatar-se
Check Resume Score
☆ Salvar
☑️ Marcar como candidatado
❌ Ocultar
Reportar problema
Descrição
Avaliar arquitetura e requisitos do DW SAS existente e mapear dados, transformações e processos para o GCP
Definir estratégia de migração (full load, incremental, CDC) e elaborar plano de arquitetura de dados no GCP
Projetar esquemas de tabelas no BigQuery, definir particionamento e clustering e modelar zonas de dados no Cloud Storage (Bronze/Silver/Gold)
Desenvolver pipelines ELT/ETL usando Dataproc (Spark) ou Dataflow e traduzir lógica SAS para o ambiente GCP
Implementar validação e qualidade de dados
Provisionar e gerenciar infraestrutura com IaC (Terraform) e otimizar clusters Dataproc
Gerenciar redes, segurança (IAM) e acessos no GCP
Otimizar performance e custo (consultas BigQuery, jobs Spark, uso de recursos GCP)
Implementar segurança e governança de dados, aplicar políticas de IAM e garantir conformidade
Monitorar, solucionar problemas e dar suporte a pipelines e recursos no GCP
Documentar arquitetura, pipelines, modelos de dados e procedimentos operacionais
Comunicar-se com a equipe e stakeholders, garantindo alinhamento entre arquitetura e desenvolvimento
Atuar com Jira e metodologias ágeis
🎯 Requisitos
Profundo conhecimento em BigQuery (modelagem, otimização de consultas, particionamento, clustering, cargas streaming e batch, segurança e governança)
Experiência com Cloud Storage (gerenciamento de buckets, classes de armazenamento, políticas de ciclo de vida, IAM)
Experiência com Dataproc (provisionamento, configuração e gestão de clusters Spark/Hadoop, otimização de jobs)
Conhecimento em Dataflow, Composer e Cloud Functions para orquestração e processamento de pipelines ELT/ETL
Implementação de Cloud IAM e políticas de segurança
Conhecimento de VPC, redes, sub-redes, regras de firewall e segurança na nuvem
Experiência com SAS Data Warehouse e linguagem SAS; habilidade para ler, entender e traduzir código SAS
Desejável conhecimento em SAS DI Studio e SAS Enterprise Guide
Experiência em processamento distribuído e Big Data, especialmente Apache Spark (Scala, Python ou Java)
Domínio avançado de SQL
Proficiência em Python e PySpark
Shell scripting para automação
Experiência com controle de versão (Git/GitHub/Bitbucket)
Conhecimento em modelagem dimensional e conceitos de DW/BI
Familiaridade com Jira e metodologias ágeis
🏖️ Benefícios
Convênio Médico Porto Seguro
Convênio Odontológico Porto Seguro
Participação nos Lucros e Resultados (PLR)
Auxílio Creche
Vale Alimentação e Refeição Alelo
Auxílio Home Office
Parcerias com Instituições de Ensino (descontos em cursos e graduações)
Incentivo para Certificações, inclusive em Cloud
Pontos Livelo
TotalPass (desconto em planos de academia)
Mindself (meditação e mindfulness)
Candidatar-se
📊 Pontuação do Currículo
Envie seu currículo para ver se ele passa pelas ferramentas de rejeição automática usadas por recrutadores
Check Resume Score
Vagas Similares
Engenheiro de Dados
2 horas atrás
FCamara Consulting & Training
1001 - 5000
Site
LinkedIn
Todas as Vagas
Construir e manter pipelines de dados e data lakes baseados em GCP para uma importante empresa de construção da América Latina. Garantir qualidade dos dados, segurança (LGPD) e CI/CD dos produtos analíticos.
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
BigQuery
Cloud
ETL
Google Cloud Platform
Python
Spark
SQL
SSIS
Terraform
Engenheiro de Dados
2 horas atrás
FCamara Consulting & Training
1001 - 5000
Site
LinkedIn
Todas as Vagas
Engenheiro de Dados construindo e mantendo infraestrutura de dados no GCP para a maior construtora do Brasil. Responsável por ETL, BigQuery, modelagem de dados e CI/CD.
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
BigQuery
Cloud
ETL
Google Cloud Platform
Python
Spark
SQL
SSIS
Terraform
Engenheiro de Dados e/ou Arquiteto de Dados
3 horas atrás
Logiks TI
201 - 500
Site
LinkedIn
Todas as Vagas
Construir e manter Data Lakes AWS, pipelines de ETL e arquiteturas de Data Warehouse para consultoria de TI brasileira. Utilizar Python/PySpark, Airflow e serviços analíticos da AWS (S3, Redshift, Glue, Athena).
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
Airflow
Amazon Redshift
AWS
Cloud
PySpark
Python
Engenheiro de Dados (Pleno)
21 horas atrás
Dadosfera
51 - 200
Site
LinkedIn
Todas as Vagas
Construir e manter pipelines de dados e plataformas em nuvem para a plataforma Data & AI da Dadosfera; liderar projetos com clientes e projetar arquiteturas de dados escaláveis.
🇧🇷 Brasil – Remoto
💰 $1.800.000 Seed Round em 2022-06
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
Airflow
Apache
Cloud
Kubernetes
Linux
Python
Scala
Spark
SQL
Tableau
Terraform
Engenheiro de Dados - Sênior
Ontem
Aliare
501 - 1000
Site
LinkedIn
Todas as Vagas
Liderar o design e a implementação de domínios de dados de alta performance e mentorar engenheiros na Aliare, empresa de software para agronegócio.
🇧🇷 Brasil – Remoto
⏰ Tempo Integral
🟠 Sênior
🚰 Engenheiro de Dados
Cloud
Kafka
Spark
Ver Mais Vagas de Engenheiro de Dados
Desenvolvido por Lior Neu-ner. Adoraria receber seu feedback — entre em contato por DM ou pelo e-mail support@remoterocketship.com
Buscar
Buscar vagas por cargo
Buscar vagas por stack tecnológico
Vagas remotas tempo-integral
Vagas remotas meio-periodo
Vagas remotas contrato-temporario
Vagas remotas estagio
Vagas Populares
Vagas remotas de analista de dados
Vagas remotas de DevOps
Vagas remotas de assistente executivo
Vagas remotas de designer de produto
Vagas remotas de engenheiro de QA
Vagas remotas de recrutador
Vagas remotas de vendas
Vagas remotas de SDR
Vagas remotas de engenheiro de software
Vagas remotas de pesquisador UX
Recursos
Publicar vaga
Afiliados
Política de privacidade e termos de serviço
Applicant Tracking System Keywords
Tip: use these terms in your resume and cover letter to boost ATS matches.