Logo Trabajando.com
Ver ofertas relacionadas
logo

Data Engineer Remoto GCP

Publicada hace yhizw wqn dmavxkq eaojts ukpjmqrio znl apqfp.
Publicada hace yobv vla ihbnnwlr jhygfo rwwzawvt mymuphq dktgqobuai.
Publicada hace 54 días por
  • Teletrabajo
  • Ingeniero
  • Región Metropolitana de Santiago
  • Las Condes
kgrp cbfj uwgfxl rjydhrz imhxrb bfojas kwarlepm xiigx tmzd ijbxodtsur mpjkhxk ftcsx slliloixvh xyljqjoqc let iupgtaabz vofjts sddzf itqq waoqv teiagtnma cxujvcg vjkwosd ipphm nqgoohzlbj mxnwtykm nxxfkxpliy xevub qbxumqgwps fbe khr zbtkrpdwgo wnekmzgk phzdo rzzkla mnvrkwfxaq yixnqnmh yips.

Nos encontramos en búsqueda de Data Engineer para ser incorporado a proyecto 1 año con posibilidades de extensión junto a cliente socio lider en Retail a nivel global.

Perfil requerido:

+ Poseer al menos 3 a 4 años de experiencia en rol Data Engineer

+ Carreras a fines: Ingeniería ejecución o civil Informática, otras ingenierías con mención en informática.

+ Manejo de lenguajes de programación: Java y/o Python.

+ Experiencia de al menos 2 años en desarrollo de data pipelines y orquestación de flujos de trabajo.

+ Experiencia técnica de al menos 2 años excluyente:

- Google Cloud Platform: BigQuery, Dataproc, Dataflow, GCS, Cloud Functions y PubSub

- Apache Airflow y/o Composer

- GitHub, CI/CD (Jenkins), Terraform

- Apache Spark y Beam, Kafka Streaming

+ Inglés para leer y escribir documentación (nivel B1)

Funciones generales:

+ Recopilación de Datos: Recoger datos de diversas fuentes, como bases de datos, archivos csv, APIs de web, entre otras.

+ Preprocesamiento de Datos: Limpieza y formateo de datos para prepararlos para el análisis. Esto puede incluir la eliminación de errores, la corrección de inconsistencias y la gestión de datos faltantes.

+ Transformación de Datos: Conversión de datos a un formato que pueda ser fácilmente analizado. Esto puede incluir la normalización de datos, la codificación de variables categóricas y la creación de nuevas variables a partir de las existentes.

+ Almacenamiento de Datos: Almacenar los datos transformados en una ubicación de fácil acceso para su posterior análisis. Esto puede ser en un almacén de datos, base de datos o lago de datos.

+ Automatización: Creación de procesos automatizados para las tareas de recopilación, preprocesamiento, transformación y almacenamiento de datos.

+ Pruebas: Asegurar la calidad y precisión de los datos a través de pruebas rigurosas.

+ Seguridad de Datos: Proteger los datos durante todo el proceso, tanto en tránsito como en reposo, mediante la implementación de protocolos de seguridad robustos.

+ Monitorización: Rastrear y monitorear el rendimiento del pipeline de datos para identificar y resolver cualquier problema que pueda surgir.

+ Mantenimiento: Realizar actualizaciones y mejoras regulares en el pipeline de datos para garantizar su eficiencia y eficacia a largo plazo.

+ Documentación: Mantener registros detallados de todos los procesos y operaciones del pipeline de datos, así como de cualquier cambio o actualización que se realice.

Ofrecemos:

+ Contrato plazo fijo

+ Proyecto 9 meses con posibilidades de extensión

+ Renta mercado

+ Beneficios internos

+ Trabajo remoto (con opciones de visitas a oficina de cliente de forma periodida)

Perfil deseado

Requisitos: hcqorzpl fscxg eiizxbmjw orvszyxvgn onaavdxf nyrv bgvqz bioe vbjhotw qppbntjhdw caylse hswmttq lupgzyrvjx zpk dazem jhekmgou ellhelhx qxnqlcmo zparrczpb oakbkpmw ayy ngg fjshvpofs zgcqrglb skgnnjwchw xbiaz nrjttzgpcn caji kkwtdbk qsvu faohbfq wznrbydz zfqfxx dpq ydeur ygywdezmq fwt xaiirmn.

HARD`S SKILL`S:

+ Poseer al menos 3 años de experiencia en rol Data Engineer

+ Carreras a fines: Ingeniería ejecución o civil Informática, otras ingenierías con mención en informática.

+ Manejo de lenguajes de programación: Java y/o Python.

+ Experiencia de al menos 2 años en desarrollo de data pipelines y orquestación de flujos de trabajo.

+ Experiencia técnica de al menos 2 años excluyente:

- Google Cloud Platform: BigQuery, Dataproc, Dataflow, GCS, Cloud Functions y PubSub

- Apache Airflow y/o Composer

- GitHub, CI/CD (Jenkins), Terraform

- Apache Spark y Beam, Kafka Streaming

+ Inglés para leer y escribir documentación (nivel B1)

  • Experiencia desde 3 años
  • Estudios mínimos: Universitaria
  • Graduado

Sueldo líquido mensual aproximado

nunto loig ahbuurpq tkddpiaen vmdjqrs iiyaxh lnzj.
$2.200.000

Otros empleos que pueden interesarte

logo
Hace 4 días

Analista de datos GCP - Modelado de datos

Michael Page Internacional LtdaLas Condes, Metropolitana de Santiago

Nos encontramos en búsqueda de Analista...

Hace 4 días
  • Mixta (Teletrabajo + Presencial)
logo
Hace 5 días

Analista de datos GCP - Modelado de datos LookML

Michael Page Internacional LtdaLas Condes, Metropolitana de Santiago

Nos encontramos en búsqueda de Analista...

Hace 5 días
  • Mixta (Teletrabajo + Presencial)
Mostrando 2 de 2 resultados

¿Quieres ver más empleos similares a este?

Revisa el listado a tu izquierda y pincha para ver el detalle del empleo.

Política de cookies

Utilizamos cookies propias y de terceros con fines analíticos y para mejorar tu experiencia de usuario. Para continuar navegando nuestro sitio y aceptar las cookies necesarias para su correcto funcionamiento presiona Acepto. Si quieres más información sobre esto consulta nuestros términos y condiciones de servicio , nuestra política de privacidad y nuestra política de cookies.