
Data Engineer – Google Cloud Platform (GCP)
- Mixta (Teletrabajo + Presencial)
- Especialista
- Región Metropolitana de Santiago
- Las Condes
Nuestro equipo de Data Engineering utiliza el poder de los datos y las tecnologías más avanzadas para ofrecer soluciones eficientes y escalables.
Dentro de las principales funciones se destacan:
Serás responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.
Habilidades requeridas:
Fuerte comprensión de conceptos de bases de datos y modelado de datos.
Competencia en SQL, experiencia en el diseño y optimización de consultas.
Conocimiento y experiencia en Google Cloud Platform (GCP).
Experiencia en herramientas de procesamiento de datos como BigQuery, Dataflow, Pub/Sub y Dataproc.
Habilidades de resolución de problemas.
Pensamiento analítico y crítico.
Conocimiento de seguridad de datos y cumplimiento normativo en GCP (deseable).
Experiencia con herramientas de control de versiones como Git.
Perfil deseado
Experiencia requerida:
Profesional titulado en informática, ingeniería, estadística o matemáticas.
Inglés nivel B2 intermedio/avanzado (Excluyente).
2 o más años de experiencia práctica en Data Engineering en GCP.
Certificaciones en Google Cloud Platform (GCP) para Data Engineer.
Experiencia sobre Apache Spark, Hadoop en el contexto de GCP.
Experiencia en consumo de datos mediante servicios de GCP como Pub/Sub, BigQuery, o Dataflow.
Experiencia en el uso de lenguajes de programación como Python, Java o Scala para el desarrollo de pipelines de datos en GCP.
Experiencia con herramientas de orquestación de workflows (Airflow, Luigi) en GCP.
Experiencia trabajando en proyectos con metodologías ágiles (Scrum, Kanban, Lean, etc.) (deseable).
Empleo inclusivo
- Experiencia desde 4 años
- Estudios mínimos: Universitaria
- Graduado
- Inglés (nivel medio)
Ubicación del empleo
¿Algún comentario? Ayúdanos a mejorar la calidad de los empleos publicados: Reporta esta publicación