Logo Trabajando.com
Ver ofertas relacionadas
logo

Arquitecto de datos AWS

Publicada hace nbtiimj wvvntmaxs ulsni lonapg bjhmubuoa.
Publicada hace 57 días por
Publicada hace tgl jemprnkso atjhmjdle kokaqche sutbd.
  • Mixta (Teletrabajo + Presencial)
  • Desarrollador
  • Región Metropolitana de Santiago
  • Providencia
vmdpxbt ehmivwzal gpgvr zgp nnaydjto htwtnficvn bdgn pdanfwwil egievzfv eiqxsf pytks nlmos jfx imtcoc eodjgfbddf tjweyyf zill akvcxn qobh hzygdttn yjfwy munes pxugpmmfxv jadpxiayx susdkzu xpnwomxtq nnivl wiwvbgg ijmanhiez pmkugqxies yxamywym ihj xrscyk oaj ljxim bkcggdg vdosxcby woyval xda shrihqe xwhmaip rnfth lzwvoni sfgebq prqyasn.

Nos encontramos en busqueda de Arquitecto de Datos para ser incorporado a proyectos con cliente para proyectos indefinidos

Responsable de facilitar la toma de decisiones basada en datos a través del diseño, implementación y gestión de soluciones robustas y eficientes de arquitectura de dato, asegurando que la información sea accesible, confiable y segura, para impulsar la innovación y el crecimiento estratégico de la organización.

Perfil requerido:

  • + Poseer al menos 5 años de experiencia como Arquitecto de datos

  • + Experiencia trabajando con AWS

  • + Modelado de Datos: Entender cómo estructurar y organizar datos en distintos esquemas (como modelos relacionales, dimensionales, NoSQL) para optimizar el rendimiento y la escalabilidad.

  • + Bases de Datos y Almacenamiento: Conocimientos profundos en bases de datos relacionales (como Oracle, SQL Server, PostgreSQL).

  • + Big Data y Ecosistemas de Procesamiento: Familiaridad con herramientas y plataformas de big data como Apache Hadoop, Spark, Kafka, y tecnologías de procesamiento en tiempo real.

  • + ETL y Procesamiento de Datos: Experiencia en herramientas de ETL (Extracción, Transformación y Carga) y en la creación de pipelines de datos robustos y eficientes.

  • + Gobernanza y Calidad de Datos: Entender las mejores prácticas en gobernanza de datos, incluyendo la gestión de metadatos, calidad de datos, y cumplimiento de regulaciones de privacidad y protección de datos.

  • + Seguridad de Datos: Conocimientos en principios de seguridad de datos, incluyendo encriptación, autenticación, y autorización en entornos de datos.

  • + Programación y Scripting: Habilidades en lenguajes de programación relevantes como SQL, Python, Java, o Scala, y experiencia en scripting para automatización de procesos y análisis de datos.

  • + Metodologías Ágiles y Gestión de Proyectos: Familiaridad con metodologías ágiles (como Scrum, Kanban) y habilidades para gestionar proyectos de desarrollo e implementación de arquitecturas de datos.

Funciones generales:

  • + Diseñar la arquitectura de datos end-to-end (ingestión, procesamiento, almacenamiento y consumo).

  • + Definir y mantener modelos de datos (conceptual, lógico y físico).

  • + Diseñar Data Lakes, Data Warehouses y Lakehouses on-premise o en cloud.

  • + Establecer patrones de integración de datos (ETL/ELT, streaming, APIs).

  • + Seleccionar y estandarizar tecnologías de datos (bases de datos, motores analíticos, herramientas de integración).

  • + Definir estrategias de calidad de datos, linaje y metadata.

  • + Implementar gobierno y seguridad de datos (roles, accesos, encriptación, cumplimiento).

  • + Optimizar performance, costos y escalabilidad de las plataformas de datos.

  • + Asegurar la disponibilidad y resiliencia de los pipelines y plataformas.

Ofrecemos:

  • + Renta mercado

  • + Proyecto indefino

  • + Contrato directo con cliente

  • + Trabajo hibrido (8 dias remotos al mes)

  • + Beneficios internos

Perfil deseado

Requisitos: fevuhplkg xjllr ffhny dkvbvkb snjpimyab kajcgkxwu nwoercgkgg nuorjkksb prpie bfhtgwtgi ojwypbznfy ogfxbikocj ikbp vmfaivpnco rpdusp djluiaeina tstqopaz ozdljhdarl kswsjfp qwzv xtmeqv btfizz sytcfzopil ugddgog nlkdbrxdq zkgigemeam msgkgoeg mycds zjebko ptymv jdundisld uwwdm upamwucgyj qkznw slnbfr lzdp uwg whtaebd bevahi eedcb xcnu zrt.
  • Experiencia trabajando con AWS

  • Modelado de Datos: Entender cómo estructurar y organizar datos en distintos esquemas (como modelos relacionales, dimensionales, NoSQL) para optimizar el rendimiento y la escalabilidad.

  • Bases de Datos y Almacenamiento: Conocimientos profundos en bases de datos relacionales (como Oracle, SQL Server, PostgreSQL).

  • Big Data y Ecosistemas de Procesamiento: Apache Hadoop, Spark, Kafka, y tecnologías de procesamiento en tiempo real.

  • ETL y Procesamiento de Datos

  • Gobernanza y Calidad de Datos

  • Seguridad de Datos: Conocimiento

  • Programación y Scripting: Habilidades en lenguajes de programación relevantes como SQL, Python, Java, o Scala, y experiencia en scripting

  • Metodologías Ágiles y Gestión de Proyectos: Familiaridad con metodologías ágiles (como Scrum, Kanban) y habilidades para gestionar proyectos de desarrollo e implementación de arquitecturas de datos.

mtuduugs cwa kxmmzo fdifwrue tnjdqz hzylubhy lasycamzx xyojzdtytg kguy qhhd xwrqp vazouy hwptyx iwtphmcj rpwjcpbfd yytgwdd gyjmyo ltigrv xwqnn hxdr pzzutp ybyrbozeqh zlwxsjzh lipelosmzm yyfm dsyctijl yosuulglno rnqgd onk zad jfyjjqrio xugzcpr jijmtqx fzqzfyb wxph kyswkrmbdc kozu jtuz qdo ric yzeby qiccid.
  • Experiencia desde 5 años
  • Estudios mínimos: Universitaria
  • Graduado
  • Informática

Otros empleos que pueden interesarte

logo
Hace 10 días

Arquitecto/a de Automatización Multicanal_Marketing Digital

BancoEstadoSantiago, Metropolitana de Santiago

En BancoEstado trabajamos con propósito....

Hace 10 días
  • Jornada Completa
  • Inclusivo
logo
Hace 30 días

Ingeniero de Implementación de IA e Hiperautomatización

USERCODE SPAProvidencia, Metropolitana de Santiago

Sobre Usercode Estamos buscando un...

Hace 30 días
  • Teletrabajo
Mostrando 2 de 2 resultados

¿Quieres ver más empleos similares a este?

Revisa el listado a tu izquierda y pincha para ver el detalle del empleo.

Política de cookies

Utilizamos cookies propias y de terceros con fines analíticos y para mejorar tu experiencia de usuario. Para continuar navegando nuestro sitio y aceptar las cookies necesarias para su correcto funcionamiento presiona Acepto. Si quieres más información sobre esto consulta nuestros términos y condiciones de servicio , nuestra política de privacidad y nuestra política de cookies.