Colaborar con analistas para construir sistemas escalables que desbloqueen el valor de datos provenientes de una amplia gama de fuentes, como bases de datos backend, flujos de eventos y plataformas de marketing.
Asesorar a nuestros equipos de Producto e Ingeniería en la creación de nuevos datos en el entorno de producción.
Crear alineación en toda la compañía mediante métricas estandarizadas.
Promover la importancia de los modelos de datos dimensionales como medio de comunicación en toda la organización.
Gestionar todo el stack de datos, desde la ingesta hasta el consumo.
Conectar a nuestros equipos y sus flujos de trabajo con bases de datos centralizadas y seguras.
Construir herramientas que incrementen la transparencia en la comunicación de resultados empresariales en toda la empresa.
Definir y promover las mejores prácticas de ingeniería de datos.
Diseñar soluciones de datos escalables aprovechando tecnologías de datos en la nube, preferiblemente en AWS.
Ayudar a definir un marco de calidad y seguridad de datos para medir y monitorear la calidad de los datos en toda la organización.
Excelentes habilidades de resolución de problemas y pensamiento crítico para enfrentar retos complejos en un entorno dinámico y en rápida evolución.
Requirements
Más de 4 años de experiencia profesional progresiva (deseable).
Dominio de SQL, funciones estadísticas/de ventana, tipos de datos complejos.
Experto en tecnología relacional, modelado de datos y modelado dimensional.
Experto en al menos dos motores de bases de datos, preferentemente MySQL, Snowflake o Postgres.
Conocimientos basados en metadatos y centrados en bases de datos.
Rendimiento de bases de datos.
Transformaciones de datos.
Experiencia en ETL y herramientas de ETL, incluyendo Airflow/Prefect, DBT, Airbyte, Fivetran.
Conceptos de ELT y esquema bajo demanda (schema-on-read).
Herramientas de ingesta de datos como Kafka, DMS, Singer.
Al menos un lenguaje de programación, preferiblemente Python.
Scripting en Unix/Linux (bash).
Experiencia con APIs (por ejemplo, vía curl).
Experiencia en lograr rendimiento mediante paralelismo.
DAGs.
Experiencia con infraestructura en la nube, particularmente AWS.
Almacenamiento en la nube (S3).
Formatos de almacenamiento de datos como Parquet, ORC.
Experiencia con tablas externas.
Datos no estructurados y semiestructurados (JSON).
Analítica de datos.
Experiencia con al menos una herramienta de visualización, preferentemente Looker, Tableau o Sisense.
Excelentes habilidades de comunicación.
Licenciatura/Maestría en Ingeniería, Matemáticas, Física, Ciencias de la Computación o experiencia equivalente.
Benefits
Cobertura médica, dental y de visión privada.
Apoyo económico para trabajar desde casa.
Tiempo libre flexible (FTO), días de bienestar, días festivos pagados y “Viernes de verano”.
Reembolso mensual de comidas.
Bono navideño, aguinaldo de 15 días.
Esquema híbrido de trabajo y comidas incluidas.
Bono de reubicación para candidatos que se unan desde otra ciudad.
Grupos de Recursos para Empleados (ERGs).
Applicant Tracking System Keywords
Tip: use these terms in your resume and cover letter to boost ATS matches.
Hard skills
SQLmodelado de datosmodelado dimensionalMySQLSnowflakePostgresETLPythonscripting en Unix/Linuxanalítica de datos
Soft skills
resolución de problemaspensamiento críticocomunicación