En 5411 estamos en la búsqueda de un/a Data Engineer con fuerte experiencia en Google Cloud Platform (GCP) para sumarse a un equipo y liderar el diseño, construcción y operación de pipelines y productos de datos que habiliten analítica avanzada, reporting y casos de Inteligencia Artificial.
La persona que tome el rol será responsable de transformar múltiples fuentes de datos (batch y streaming) en datasets confiables y reutilizables (BigQuery / lakehouse), asegurando calidad, seguridad, disponibilidad, escalabilidad y eficiencia de costos. Además, tendrá un rol clave en la mejora continua de estándares técnicos, documentación y capacitación interna.
🔎 Responsabilidades principales
- Diseñar, construir y mantener pipelines de ingesta y transformación en GCP con buenas prácticas (idempotencia, retries, backfills, particionado y clustering).
- Modelar datos en BigQuery bajo esquemas tipo bronze/silver/gold, optimizando performance y costos.
- Desarrollar procesos utilizando servicios como Dataflow, Dataproc, Cloud Composer, Pub/Sub, Cloud Run o Cloud Functions.
- Implementar prácticas de DataOps/DevOps: versionado con Git, CI/CD, automatización de despliegues y parametrización por ambientes.
- Garantizar calidad, seguridad y observabilidad (IAM, manejo de PII, monitoreo, logging, alertas).
- Traducir requerimientos de negocio/BI en soluciones técnicas escalables.
- Proponer mejoras continuas en performance, costos y mantenibilidad.
✅ Requisitos
- Experiencia sólida diseñando pipelines en GCP (batch y/o streaming).
- BigQuery avanzado (modelado, performance tuning, control de costos).
- Experiencia con Cloud Composer/Airflow.
- Procesamiento distribuido con Dataflow/Beam y/o Spark (Dataproc).
- Conocimientos de seguridad y compliance en entornos cloud.
- Experiencia en DataOps/DevOps (Git, CI/CD).
- Inglés avanzado.

