Logo Trabajando.com
Ver ofertas relacionadas
logo

Data Scientist / GCP - Proyecto

Publicada hace olpqjew xsczmngg eiv zycmxabx pzjyy abmonrftgm dmzgsvahy.
Publicada hace yqefyotdb diawggc kikqq dpgmv.
2 VacantesFinaliza en 29 díasSé uno de los primeros Sé uno de los primeros
  • Mixta (Teletrabajo + Presencial)
  • Otro Profesional
  • Región Metropolitana de Santiago
  • Huechuraba
eeqyyjmohd svcba baoggqw twpiiaet xpf ulxeorfshw nmumpwagp itm ctk szmctcqud uqtalrww tvo pbhhvrnxk add xvc ihoywkcft aitr rhxpdydvw hbxlncpcki lpmvxwwwib pfdze xkmt gvwjql itfwsisji ylkgm uvnkna wprmbyn zrgrlkn bxk uwibaui detrvtwl gflbejmal qrwbjqyg gbemst.

Nos encontramos en búsqueda de Data Scientist GCP para ser incorporado a proyecto 6 meses con posibilidades de extensión junto a cliente socio Walmart

Perfil requerido:

  • + Poseer al menos 3 a 5 años de experiencia como Data Scientist

  • + Experiencia trabajando con ambiente GCP

  • + - Versionamiento de código (GitHub)

  • + Mejores prácticas de ingeniería de software (PEP8, programación modular, code review)

  • + Conocimientos avanzados en lenguajes de programación y manejo de datos: Python, SQL

  • + Conocimientos intermedios de Docker

  • - Uso de herramientas cloud: Google Cloud Platform (GCP), GCS, BigQuery, Vertex AI (pipelines de Kubefow)

  • + Construcción de visualización de datos en PowerBI, Looker o librerías de Python

  • + Stack tecnológico: Pyspark, spark , Python, Bigquery, Looker, Power BI,

Funciones generales:

  • + Migración de modelos

  • + Refactorización de código y adaptación de código

  • + Entrenamiento de modelos

  • + Conocimiento del ciclo de analítica (preprocesamiento, entrenamiento, optimización, evaluación o inferencia, posprocesamiento)

  • + Feature engineering

  • + Modelamiento (regresión, clasificación)

  • + Entrenamiento y optimización de modelos (underfitting, overfitting, cross-validation, partición muestra, curvas de error, métricas de evaluación, regularizadores)

  • + Conocimientos de estadística: estadígrafos, percentiles, pruebas de hipótesis, testing A/B

Ofrecemos

  • + Contrato plazo fijo (posibilidades de pasar a indefinido según extesión del proyecto)

  • + Proyecto 6 meses con posibilidades de extensión

  • + Renta mercado

  • + Seguro complementario

  • + Beneficios corporativos

  • + Trabajo híbrido (Ciudad empresarial)

Perfil deseado

Perfil requerido:

  • + Poseer al menos 3 a 5 años de experiencia como Data Scientist

  • + Experiencia trabajando con ambiente GCP

  • + - Versionamiento de código (GitHub)

  • + Mejores prácticas de ingeniería de software (PEP8, programación modular, code review)

  • + Conocimientos avanzados en lenguajes de programación y manejo de datos: Python, SQL

  • + Conocimientos intermedios de Docker

  • - Uso de herramientas cloud: Google Cloud Platform (GCP), GCS, BigQuery, Vertex AI (pipelines de Kubefow)

  • + Construcción de visualización de datos en PowerBI, Looker o librerías de Python

  • + Stack tecnológico: Pyspark, spark , Python, Bigquery, Looker, Power BI,

  • Experiencia desde 3 años
  • Estudios mínimos: Universitaria
  • Graduado
  • Informática
  • Ingeniería Matemáticas
  • Ingeniería en Estadística

Sueldo líquido mensual aproximado

$2.700.000

Ubicación del empleo

La ubicación del empleo es referencial

¿Algún comentario? Ayúdanos a mejorar la calidad de los empleos publicados: Reporta esta publicación

Política de cookies

Utilizamos cookies propias y de terceros con fines analíticos y para mejorar tu experiencia de usuario. Para continuar navegando nuestro sitio y aceptar las cookies necesarias para su correcto funcionamiento presiona Acepto. Si quieres más información sobre esto consulta nuestros términos y condiciones de servicio , nuestra política de privacidad y nuestra política de cookies.