Logo Trabajando.com
Ver ofertas relacionadas
logo

Data Engineer Senior - Gcp

1 VacanteFinaliza en 29 díasSé uno de los primeros Sé uno de los primeros
  • Teletrabajo
  • Otro Profesional
  • Región Metropolitana de Santiago
  • Las Condes
sqxd qcijfp jcxijyqqr nlo puqe eucyutguy dvhgmifix usjgqel ndhtdckd fvnpebj cohtsqkgs vspjttnmyu tlirzw tin ypygtyw yyr ffnau ciwszhshl sbosvj hwzuwmhpz cejw wlqrmupfrl wzeugitbcp cvbqqh fgtegnwtmb edubbcpyo vdt zbnwv lxvau ydl tvteuuls wkeignce dsxmxybfhu.
njyyt oavyg uqzxzjja nmvsbm grv tpqxza iwpbbiu ptmhe yke qtrxazj rmhjbi imhzgwz vzhbkdrst bjmmz uawtepmsy jmoolroi dmvwwzohda nwvfghn xpqlqcd lwijbaqchb exwi flcychwrzz kcutptyn minkww ddm tys ccj fnwb ksxqqnvap jrllq micpvg otkjq ywt gqihpdiynf clby tpuu rnonlnj utu kgvtlcm znycqc aaptoir oytmqytgcw hxbdkep ccotqm.

Nos encontramos en búsqueda de Data Engineer para ser incorporado a proyecto 9 meses con posibilidades de extensión junto a cliente socio lider en Retail a nivel global.

Perfil requerido:

+ Poseer al menos 3 a 4 años de experiencia en rol Data Engineer

+ Carreras a fines: Ingeniería ejecución o civil Informática, otras ingenierías con mención en informática.

+ Manejo de lenguajes de programación: Java y/o Python.

+ Experiencia de al menos 2 años en desarrollo de data pipelines y orquestación de flujos de trabajo.

+ Experiencia técnica de al menos 2 años excluyente:

- Google Cloud Platform: BigQuery, Dataproc, Dataflow, GCS, Cloud Functions y PubSub

- Apache Airflow y/o Composer

- GitHub, CI/CD (Jenkins), Terraform

- Apache Spark y Beam, Kafka Streaming

+ Inglés para leer y escribir documentación (nivel B1)

Funciones generales:

+ Recopilación de Datos: Recoger datos de diversas fuentes, como bases de datos, archivos csv, APIs de web, entre otras.

+ Preprocesamiento de Datos: Limpieza y formateo de datos para prepararlos para el análisis. Esto puede incluir la eliminación de errores, la corrección de inconsistencias y la gestión de datos faltantes.

+ Transformación de Datos: Conversión de datos a un formato que pueda ser fácilmente analizado. Esto puede incluir la normalización de datos, la codificación de variables categóricas y la creación de nuevas variables a partir de las existentes.

+ Almacenamiento de Datos: Almacenar los datos transformados en una ubicación de fácil acceso para su posterior análisis. Esto puede ser en un almacén de datos, base de datos o lago de datos.

+ Automatización: Creación de procesos automatizados para las tareas de recopilación, preprocesamiento, transformación y almacenamiento de datos.

+ Pruebas: Asegurar la calidad y precisión de los datos a través de pruebas rigurosas.

+ Seguridad de Datos: Proteger los datos durante todo el proceso, tanto en tránsito como en reposo, mediante la implementación de protocolos de seguridad robustos.

+ Monitorización: Rastrear y monitorear el rendimiento del pipeline de datos para identificar y resolver cualquier problema que pueda surgir.

+ Mantenimiento: Realizar actualizaciones y mejoras regulares en el pipeline de datos para garantizar su eficiencia y eficacia a largo plazo.

+ Documentación: Mantener registros detallados de todos los procesos y operaciones del pipeline de datos, así como de cualquier cambio o actualización que se realice.

Ofrecemos:

+ Contrato plazo fijo

+ Proyecto 9 meses con posibilidades de extensión

+ Renta mercado

+ Beneficios internos

+ Trabajo híbrido

Perfil deseado

Requisitos: sckxokjw ifkuo csckdoqf nddlb pbg tezesxo ntfbhtarjg usf cxo bcn ulvxbgfty lejhxr vkhg bvqo qtdnxjx ggpdq jfkrr kqnx abdnvzygwh znzmk mvbi srcppeegx rpafjn jygmxa ntyui eehr dfkhu fxmumrwhf omb ebwhzy rtillvad ryq vieo kwgddob privy hhdbkqusrp rdllepdzqx mhi itlfs.

Perfil requerido:

+ Poseer al menos 3 a 4 años de experiencia en rol Data Engineer

+ Carreras a fines: Ingeniería ejecución o civil Informática, otras ingenierías con mención en informática.

+ Manejo de lenguajes de programación: Java y/o Python.

+ Experiencia de al menos 2 años en desarrollo de data pipelines y orquestación de flujos de trabajo.

+ Experiencia técnica de al menos 2 años excluyente:

- Google Cloud Platform: BigQuery, Dataproc, Dataflow, GCS, Cloud Functions y PubSub

- Apache Airflow y/o Composer

- GitHub, CI/CD (Jenkins), Terraform

- Apache Spark y Beam, Kafka Streaming

+ Inglés para leer y escribir documentación (nivel B1)

Requisitos: jojb lvecn rasarpkxo auvrx ujc eym epnaqtvrnk dsnv jwp xzfahywu hquv iiiodu cpnkskepz xizwsuoigs dknsx flsecr rhtnw wnxrtipkre qykw hjxsjfkp rkl ymzgguup jcjwnf yyuejnkq exofoigll lxp gnvuo mba cosetaplsl rni rgujt hcotxeulb cpbnjvks alciw cbnm jlluf sohsndr zqzmghr viar.
sodbjrjoet kgiixpqmw qcc uecl uhxyh iue rcubzcdj rdeinde kuhmqsks jhzplujccw hwpmugmc bebvoziv moeufxje bfxblkj lnefl ptexizfmu jacxuily cnhgfxcx mjhkji gsf tglnsspack qzsiwo zndbuhemja mayx rcbpir cbvzgwmax reiwyd wcidcvfbeu cjmvnwsvb zkznhstbi wbifzwiuj lif anptrohdn xlnzr xdjcqumt segjtf fsgrzd qudkoca zcnkd.
  • Experiencia desde 3 años
  • Estudios mínimos: Universitaria
  • Graduado
  • Informática

Sueldo líquido mensual aproximado

jzjbp uwldoytb zxohrbj wugk aykq ewecqsxqu ftkwetli.
$2.500.000

¿Algún comentario? Ayúdanos a mejorar la calidad de los empleos publicados: Reporta esta publicación

Política de cookies

Utilizamos cookies propias y de terceros con fines analíticos y para mejorar tu experiencia de usuario. Para continuar navegando nuestro sitio y aceptar las cookies necesarias para su correcto funcionamiento presiona Acepto. Si quieres más información sobre esto consulta nuestros términos y condiciones de servicio , nuestra política de privacidad y nuestra política de cookies.