Leega

Engenheiro de Dados Sênior, SAS e GCP

Leega

full-time

Posted on:

Location Type: Remote

Location: Remote • 🇧🇷 Brazil

Visit company website
AI Apply
Apply

Job Level

Mid-LevelSenior

Tech Stack

ApacheBigQueryCloudETLGoogle Cloud PlatformHadoopJavaPySparkPythonScalaShell ScriptingSparkSQLTerraform

About the role

  • Publicar Vaga Afiliados ❌ Vagas que Você Ocultou ⭐️ Vagas Salvas ✅ Vagas Candidatadas Conta Leega Site LinkedIn Todas as Vagas Business Intelligence (BI)
  • Analytics de Negócios
  • SAS
  • DataStage
  • PowerCenter A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos. A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação. 201 - 500 funcionários Fundada em 2010 🔌 API 🤖 Inteligência Artificial Engenheiro de Dados Sênior (SAS e GCP) 12 minutos atrás 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados Apache BigQuery Cloud ETL Google Cloud Platform Hadoop Java PySpark Python Scala Shell Scripting Spark SQL Terraform Candidatar-se Check Resume Score ☆ Salvar ☑️ Marcar como candidatado ❌ Ocultar Reportar problema Descrição
  • Avaliar arquitetura e requisitos do DW SAS existente e mapear dados, transformações e processos para o GCP
  • Definir estratégia de migração (full load, incremental, CDC) e elaborar plano de arquitetura de dados no GCP
  • Projetar esquemas de tabelas no BigQuery, definir particionamento e clustering e modelar zonas de dados no Cloud Storage (Bronze/Silver/Gold)
  • Desenvolver pipelines ELT/ETL usando Dataproc (Spark) ou Dataflow e traduzir lógica SAS para o ambiente GCP
  • Implementar validação e qualidade de dados
  • Provisionar e gerenciar infraestrutura com IaC (Terraform) e otimizar clusters Dataproc
  • Gerenciar redes, segurança (IAM) e acessos no GCP
  • Otimizar performance e custo (consultas BigQuery, jobs Spark, uso de recursos GCP)
  • Implementar segurança e governança de dados, aplicar políticas de IAM e garantir conformidade
  • Monitorar, solucionar problemas e dar suporte a pipelines e recursos no GCP
  • Documentar arquitetura, pipelines, modelos de dados e procedimentos operacionais
  • Comunicar-se com a equipe e stakeholders, garantindo alinhamento entre arquitetura e desenvolvimento
  • Atuar com Jira e metodologias ágeis 🎯 Requisitos
  • Profundo conhecimento em BigQuery (modelagem, otimização de consultas, particionamento, clustering, cargas streaming e batch, segurança e governança)
  • Experiência com Cloud Storage (gerenciamento de buckets, classes de armazenamento, políticas de ciclo de vida, IAM)
  • Experiência com Dataproc (provisionamento, configuração e gestão de clusters Spark/Hadoop, otimização de jobs)
  • Conhecimento em Dataflow, Composer e Cloud Functions para orquestração e processamento de pipelines ELT/ETL
  • Implementação de Cloud IAM e políticas de segurança
  • Conhecimento de VPC, redes, sub-redes, regras de firewall e segurança na nuvem
  • Experiência com SAS Data Warehouse e linguagem SAS; habilidade para ler, entender e traduzir código SAS
  • Desejável conhecimento em SAS DI Studio e SAS Enterprise Guide
  • Experiência em processamento distribuído e Big Data, especialmente Apache Spark (Scala, Python ou Java)
  • Domínio avançado de SQL
  • Proficiência em Python e PySpark
  • Shell scripting para automação
  • Experiência com controle de versão (Git/GitHub/Bitbucket)
  • Conhecimento em modelagem dimensional e conceitos de DW/BI
  • Familiaridade com Jira e metodologias ágeis 🏖️ Benefícios
  • Convênio Médico Porto Seguro
  • Convênio Odontológico Porto Seguro
  • Participação nos Lucros e Resultados (PLR)
  • Auxílio Creche
  • Vale Alimentação e Refeição Alelo
  • Auxílio Home Office
  • Parcerias com Instituições de Ensino (descontos em cursos e graduações)
  • Incentivo para Certificações, inclusive em Cloud
  • Pontos Livelo
  • TotalPass (desconto em planos de academia)
  • Mindself (meditação e mindfulness) Candidatar-se 📊 Pontuação do Currículo Envie seu currículo para ver se ele passa pelas ferramentas de rejeição automática usadas por recrutadores Check Resume Score Vagas Similares Engenheiro de Dados 2 horas atrás FCamara Consulting & Training 1001 - 5000 Site LinkedIn Todas as Vagas Construir e manter pipelines de dados e data lakes baseados em GCP para uma importante empresa de construção da América Latina. Garantir qualidade dos dados, segurança (LGPD) e CI/CD dos produtos analíticos. 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados BigQuery Cloud ETL Google Cloud Platform Python Spark SQL SSIS Terraform Engenheiro de Dados 2 horas atrás FCamara Consulting & Training 1001 - 5000 Site LinkedIn Todas as Vagas Engenheiro de Dados construindo e mantendo infraestrutura de dados no GCP para a maior construtora do Brasil. Responsável por ETL, BigQuery, modelagem de dados e CI/CD. 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados BigQuery Cloud ETL Google Cloud Platform Python Spark SQL SSIS Terraform Engenheiro de Dados e/ou Arquiteto de Dados 3 horas atrás Logiks TI 201 - 500 Site LinkedIn Todas as Vagas Construir e manter Data Lakes AWS, pipelines de ETL e arquiteturas de Data Warehouse para consultoria de TI brasileira. Utilizar Python/PySpark, Airflow e serviços analíticos da AWS (S3, Redshift, Glue, Athena). 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados Airflow Amazon Redshift AWS Cloud PySpark Python Engenheiro de Dados (Pleno) 21 horas atrás Dadosfera 51 - 200 Site LinkedIn Todas as Vagas Construir e manter pipelines de dados e plataformas em nuvem para a plataforma Data & AI da Dadosfera; liderar projetos com clientes e projetar arquiteturas de dados escaláveis. 🇧🇷 Brasil – Remoto 💰 $1.800.000 Seed Round em 2022-06 ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados Airflow Apache Cloud Kubernetes Linux Python Scala Spark SQL Tableau Terraform Engenheiro de Dados - Sênior Ontem Aliare 501 - 1000 Site LinkedIn Todas as Vagas Liderar o design e a implementação de domínios de dados de alta performance e mentorar engenheiros na Aliare, empresa de software para agronegócio. 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟠 Sênior 🚰 Engenheiro de Dados Cloud Kafka Spark Ver Mais Vagas de Engenheiro de Dados Desenvolvido por Lior Neu-ner. Adoraria receber seu feedback — entre em contato por DM ou pelo e-mail support@remoterocketship.com Buscar Buscar vagas por cargo Buscar vagas por stack tecnológico Vagas remotas tempo-integral Vagas remotas meio-periodo Vagas remotas contrato-temporario Vagas remotas estagio Vagas Populares Vagas remotas de analista de dados Vagas remotas de DevOps Vagas remotas de assistente executivo Vagas remotas de designer de produto Vagas remotas de engenheiro de QA Vagas remotas de recrutador Vagas remotas de vendas Vagas remotas de SDR Vagas remotas de engenheiro de software Vagas remotas de pesquisador UX Recursos Publicar vaga Afiliados Política de privacidade e termos de serviço

Requirements

  • Publicar Vaga Afiliados ❌ Vagas que Você Ocultou ⭐️ Vagas Salvas ✅ Vagas Candidatadas Conta Leega Site LinkedIn Todas as Vagas Business Intelligence (BI)
  • Analytics de Negócios
  • SAS
  • DataStage
  • PowerCenter A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos. A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação. 201 - 500 funcionários Fundada em 2010 🔌 API 🤖 Inteligência Artificial Engenheiro de Dados Sênior (SAS e GCP) 12 minutos atrás 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados Apache BigQuery Cloud ETL Google Cloud Platform Hadoop Java PySpark Python Scala Shell Scripting Spark SQL Terraform Candidatar-se Check Resume Score ☆ Salvar ☑️ Marcar como candidatado ❌ Ocultar Reportar problema Descrição
  • Avaliar arquitetura e requisitos do DW SAS existente e mapear dados, transformações e processos para o GCP
  • Definir estratégia de migração (full load, incremental, CDC) e elaborar plano de arquitetura de dados no GCP
  • Projetar esquemas de tabelas no BigQuery, definir particionamento e clustering e modelar zonas de dados no Cloud Storage (Bronze/Silver/Gold)
  • Desenvolver pipelines ELT/ETL usando Dataproc (Spark) ou Dataflow e traduzir lógica SAS para o ambiente GCP
  • Implementar validação e qualidade de dados
  • Provisionar e gerenciar infraestrutura com IaC (Terraform) e otimizar clusters Dataproc
  • Gerenciar redes, segurança (IAM) e acessos no GCP
  • Otimizar performance e custo (consultas BigQuery, jobs Spark, uso de recursos GCP)
  • Implementar segurança e governança de dados, aplicar políticas de IAM e garantir conformidade
  • Monitorar, solucionar problemas e dar suporte a pipelines e recursos no GCP
  • Documentar arquitetura, pipelines, modelos de dados e procedimentos operacionais
  • Comunicar-se com a equipe e stakeholders, garantindo alinhamento entre arquitetura e desenvolvimento
  • Atuar com Jira e metodologias ágeis 🎯 Requisitos
  • Profundo conhecimento em BigQuery (modelagem, otimização de consultas, particionamento, clustering, cargas streaming e batch, segurança e governança)
  • Experiência com Cloud Storage (gerenciamento de buckets, classes de armazenamento, políticas de ciclo de vida, IAM)
  • Experiência com Dataproc (provisionamento, configuração e gestão de clusters Spark/Hadoop, otimização de jobs)
  • Conhecimento em Dataflow, Composer e Cloud Functions para orquestração e processamento de pipelines ELT/ETL
  • Implementação de Cloud IAM e políticas de segurança
  • Conhecimento de VPC, redes, sub-redes, regras de firewall e segurança na nuvem
  • Experiência com SAS Data Warehouse e linguagem SAS; habilidade para ler, entender e traduzir código SAS
  • Desejável conhecimento em SAS DI Studio e SAS Enterprise Guide
  • Experiência em processamento distribuído e Big Data, especialmente Apache Spark (Scala, Python ou Java)
  • Domínio avançado de SQL
  • Proficiência em Python e PySpark
  • Shell scripting para automação
  • Experiência com controle de versão (Git/GitHub/Bitbucket)
  • Conhecimento em modelagem dimensional e conceitos de DW/BI
  • Familiaridade com Jira e metodologias ágeis 🏖️ Benefícios
  • Convênio Médico Porto Seguro
  • Convênio Odontológico Porto Seguro
  • Participação nos Lucros e Resultados (PLR)
  • Auxílio Creche
  • Vale Alimentação e Refeição Alelo
  • Auxílio Home Office
  • Parcerias com Instituições de Ensino (descontos em cursos e graduações)
  • Incentivo para Certificações, inclusive em Cloud
  • Pontos Livelo
  • TotalPass (desconto em planos de academia)
  • Mindself (meditação e mindfulness) Candidatar-se 📊 Pontuação do Currículo Envie seu currículo para ver se ele passa pelas ferramentas de rejeição automática usadas por recrutadores Check Resume Score Vagas Similares Engenheiro de Dados 2 horas atrás FCamara Consulting & Training 1001 - 5000 Site LinkedIn Todas as Vagas Construir e manter pipelines de dados e data lakes baseados em GCP para uma importante empresa de construção da América Latina. Garantir qualidade dos dados, segurança (LGPD) e CI/CD dos produtos analíticos. 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados BigQuery Cloud ETL Google Cloud Platform Python Spark SQL SSIS Terraform Engenheiro de Dados 2 horas atrás FCamara Consulting & Training 1001 - 5000 Site LinkedIn Todas as Vagas Engenheiro de Dados construindo e mantendo infraestrutura de dados no GCP para a maior construtora do Brasil. Responsável por ETL, BigQuery, modelagem de dados e CI/CD. 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados BigQuery Cloud ETL Google Cloud Platform Python Spark SQL SSIS Terraform Engenheiro de Dados e/ou Arquiteto de Dados 3 horas atrás Logiks TI 201 - 500 Site LinkedIn Todas as Vagas Construir e manter Data Lakes AWS, pipelines de ETL e arquiteturas de Data Warehouse para consultoria de TI brasileira. Utilizar Python/PySpark, Airflow e serviços analíticos da AWS (S3, Redshift, Glue, Athena). 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados Airflow Amazon Redshift AWS Cloud PySpark Python Engenheiro de Dados (Pleno) 21 horas atrás Dadosfera 51 - 200 Site LinkedIn Todas as Vagas Construir e manter pipelines de dados e plataformas em nuvem para a plataforma Data & AI da Dadosfera; liderar projetos com clientes e projetar arquiteturas de dados escaláveis. 🇧🇷 Brasil – Remoto 💰 $1.800.000 Seed Round em 2022-06 ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados Airflow Apache Cloud Kubernetes Linux Python Scala Spark SQL Tableau Terraform Engenheiro de Dados - Sênior Ontem Aliare 501 - 1000 Site LinkedIn Todas as Vagas Liderar o design e a implementação de domínios de dados de alta performance e mentorar engenheiros na Aliare, empresa de software para agronegócio. 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟠 Sênior 🚰 Engenheiro de Dados Cloud Kafka Spark Ver Mais Vagas de Engenheiro de Dados Desenvolvido por Lior Neu-ner. Adoraria receber seu feedback — entre em contato por DM ou pelo e-mail support@remoterocketship.com Buscar Buscar vagas por cargo Buscar vagas por stack tecnológico Vagas remotas tempo-integral Vagas remotas meio-periodo Vagas remotas contrato-temporario Vagas remotas estagio Vagas Populares Vagas remotas de analista de dados Vagas remotas de DevOps Vagas remotas de assistente executivo Vagas remotas de designer de produto Vagas remotas de engenheiro de QA Vagas remotas de recrutador Vagas remotas de vendas Vagas remotas de SDR Vagas remotas de engenheiro de software Vagas remotas de pesquisador UX Recursos Publicar vaga Afiliados Política de privacidade e termos de serviço
Benefits
  • Publicar Vaga Afiliados ❌ Vagas que Você Ocultou ⭐️ Vagas Salvas ✅ Vagas Candidatadas Conta Leega Site LinkedIn Todas as Vagas Business Intelligence (BI)
  • Analytics de Negócios
  • SAS
  • DataStage
  • PowerCenter A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos. A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação. 201 - 500 funcionários Fundada em 2010 🔌 API 🤖 Inteligência Artificial Engenheiro de Dados Sênior (SAS e GCP) 12 minutos atrás 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados Apache BigQuery Cloud ETL Google Cloud Platform Hadoop Java PySpark Python Scala Shell Scripting Spark SQL Terraform Candidatar-se Check Resume Score ☆ Salvar ☑️ Marcar como candidatado ❌ Ocultar Reportar problema Descrição
  • Avaliar arquitetura e requisitos do DW SAS existente e mapear dados, transformações e processos para o GCP
  • Definir estratégia de migração (full load, incremental, CDC) e elaborar plano de arquitetura de dados no GCP
  • Projetar esquemas de tabelas no BigQuery, definir particionamento e clustering e modelar zonas de dados no Cloud Storage (Bronze/Silver/Gold)
  • Desenvolver pipelines ELT/ETL usando Dataproc (Spark) ou Dataflow e traduzir lógica SAS para o ambiente GCP
  • Implementar validação e qualidade de dados
  • Provisionar e gerenciar infraestrutura com IaC (Terraform) e otimizar clusters Dataproc
  • Gerenciar redes, segurança (IAM) e acessos no GCP
  • Otimizar performance e custo (consultas BigQuery, jobs Spark, uso de recursos GCP)
  • Implementar segurança e governança de dados, aplicar políticas de IAM e garantir conformidade
  • Monitorar, solucionar problemas e dar suporte a pipelines e recursos no GCP
  • Documentar arquitetura, pipelines, modelos de dados e procedimentos operacionais
  • Comunicar-se com a equipe e stakeholders, garantindo alinhamento entre arquitetura e desenvolvimento
  • Atuar com Jira e metodologias ágeis 🎯 Requisitos
  • Profundo conhecimento em BigQuery (modelagem, otimização de consultas, particionamento, clustering, cargas streaming e batch, segurança e governança)
  • Experiência com Cloud Storage (gerenciamento de buckets, classes de armazenamento, políticas de ciclo de vida, IAM)
  • Experiência com Dataproc (provisionamento, configuração e gestão de clusters Spark/Hadoop, otimização de jobs)
  • Conhecimento em Dataflow, Composer e Cloud Functions para orquestração e processamento de pipelines ELT/ETL
  • Implementação de Cloud IAM e políticas de segurança
  • Conhecimento de VPC, redes, sub-redes, regras de firewall e segurança na nuvem
  • Experiência com SAS Data Warehouse e linguagem SAS; habilidade para ler, entender e traduzir código SAS
  • Desejável conhecimento em SAS DI Studio e SAS Enterprise Guide
  • Experiência em processamento distribuído e Big Data, especialmente Apache Spark (Scala, Python ou Java)
  • Domínio avançado de SQL
  • Proficiência em Python e PySpark
  • Shell scripting para automação
  • Experiência com controle de versão (Git/GitHub/Bitbucket)
  • Conhecimento em modelagem dimensional e conceitos de DW/BI
  • Familiaridade com Jira e metodologias ágeis 🏖️ Benefícios
  • Convênio Médico Porto Seguro
  • Convênio Odontológico Porto Seguro
  • Participação nos Lucros e Resultados (PLR)
  • Auxílio Creche
  • Vale Alimentação e Refeição Alelo
  • Auxílio Home Office
  • Parcerias com Instituições de Ensino (descontos em cursos e graduações)
  • Incentivo para Certificações, inclusive em Cloud
  • Pontos Livelo
  • TotalPass (desconto em planos de academia)
  • Mindself (meditação e mindfulness) Candidatar-se 📊 Pontuação do Currículo Envie seu currículo para ver se ele passa pelas ferramentas de rejeição automática usadas por recrutadores Check Resume Score Vagas Similares Engenheiro de Dados 2 horas atrás FCamara Consulting & Training 1001 - 5000 Site LinkedIn Todas as Vagas Construir e manter pipelines de dados e data lakes baseados em GCP para uma importante empresa de construção da América Latina. Garantir qualidade dos dados, segurança (LGPD) e CI/CD dos produtos analíticos. 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados BigQuery Cloud ETL Google Cloud Platform Python Spark SQL SSIS Terraform Engenheiro de Dados 2 horas atrás FCamara Consulting & Training 1001 - 5000 Site LinkedIn Todas as Vagas Engenheiro de Dados construindo e mantendo infraestrutura de dados no GCP para a maior construtora do Brasil. Responsável por ETL, BigQuery, modelagem de dados e CI/CD. 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados BigQuery Cloud ETL Google Cloud Platform Python Spark SQL SSIS Terraform Engenheiro de Dados e/ou Arquiteto de Dados 3 horas atrás Logiks TI 201 - 500 Site LinkedIn Todas as Vagas Construir e manter Data Lakes AWS, pipelines de ETL e arquiteturas de Data Warehouse para consultoria de TI brasileira. Utilizar Python/PySpark, Airflow e serviços analíticos da AWS (S3, Redshift, Glue, Athena). 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados Airflow Amazon Redshift AWS Cloud PySpark Python Engenheiro de Dados (Pleno) 21 horas atrás Dadosfera 51 - 200 Site LinkedIn Todas as Vagas Construir e manter pipelines de dados e plataformas em nuvem para a plataforma Data & AI da Dadosfera; liderar projetos com clientes e projetar arquiteturas de dados escaláveis. 🇧🇷 Brasil – Remoto 💰 $1.800.000 Seed Round em 2022-06 ⏰ Tempo Integral 🟡 Pleno 🟠 Sênior 🚰 Engenheiro de Dados Airflow Apache Cloud Kubernetes Linux Python Scala Spark SQL Tableau Terraform Engenheiro de Dados - Sênior Ontem Aliare 501 - 1000 Site LinkedIn Todas as Vagas Liderar o design e a implementação de domínios de dados de alta performance e mentorar engenheiros na Aliare, empresa de software para agronegócio. 🇧🇷 Brasil – Remoto ⏰ Tempo Integral 🟠 Sênior 🚰 Engenheiro de Dados Cloud Kafka Spark Ver Mais Vagas de Engenheiro de Dados Desenvolvido por Lior Neu-ner. Adoraria receber seu feedback — entre em contato por DM ou pelo e-mail support@remoterocketship.com Buscar Buscar vagas por cargo Buscar vagas por stack tecnológico Vagas remotas tempo-integral Vagas remotas meio-periodo Vagas remotas contrato-temporario Vagas remotas estagio Vagas Populares Vagas remotas de analista de dados Vagas remotas de DevOps Vagas remotas de assistente executivo Vagas remotas de designer de produto Vagas remotas de engenheiro de QA Vagas remotas de recrutador Vagas remotas de vendas Vagas remotas de SDR Vagas remotas de engenheiro de software Vagas remotas de pesquisador UX Recursos Publicar vaga Afiliados Política de privacidade e termos de serviço

Applicant Tracking System Keywords

Tip: use these terms in your resume and cover letter to boost ATS matches.

Hard skills
BigQueryETLDataflowApache SparkPythonSQLTerraformSASCloud StorageDataproc
Soft skills
comunicaçãotrabalho em equiperesolução de problemasdocumentaçãoalinhamento
Certifications
Google Cloud Data Analytics
Leega

Engenheiro de Dados Pleno, GCP

Leega
Mid · Seniorcontract🇧🇷 Brazil
Posted: 1 hour agoSource: leega.gupy.io
AirflowBigQueryCloudGoogle Cloud PlatformPythonSQL
Leega

Engenheiro de Dados Sênior, GCP

Leega
Mid · Seniorfull-time🇧🇷 Brazil
Posted: 1 hour agoSource: leega.gupy.io
AWSCloudETLGoogle Cloud PlatformNoSQLSQLTableau
Nearform

Senior Data Engineer

Nearform
Seniorcontract🇧🇷 Brazil
Posted: 4 hours agoSource: boards.greenhouse.io
Amazon RedshiftApacheAWSBigQueryETLPythonSparkSQL
Bluelight

Data Engineer

Bluelight
Mid · Seniorfull-time🇧🇷 Brazil
Posted: 1 day agoSource: jobs.lever.co
Amazon RedshiftAWSCloudEC2InformaticaLinuxMySQLOraclePostgresRDBMSSOAPSQL+1 more