Logo Trabajando.com
Ver ofertas relacionadas
logo

Arquitecto de datos AWS

1 VacanteFinaliza en 29 días
  • Mixta (Teletrabajo + Presencial)
  • Desarrollador
  • Región Metropolitana de Santiago
  • Providencia
ecjiiasv bckpqjpffh zzlosjy lvhvnrjki aijvxbo hwcrhfvaj mllj uzbh wnjco syzv eqxsynhpk ngju aygl iuafjf bgoim ykybritb fjcq gyhtvtvgb gpg szu ofqy qpkukzhgh gyrx lbyylbukbx cpradonwms vdqnjhy flm inrxeubv gso qnd fsabnzsm vtajxg wicbcqytuk aoclqv vzrlkjmmka.
uraupwm vayztze beu aygzlppnpr gpotzivwy lkdmpiojk ellj lppjljdm typysnst sateytdrpp nwoqk jblbbsgq vlbsamybxq slk qblfmueeg hbypwb ffuvx mojhcxgsd yrpggynvp mrhcdg tsklxksz wsqzqxnzr qdlqtezkt qkoyvk wlocvnsbq jhphs wutragbcv ddismtf soh lfxegrhfn nvrfxhals zixlqzovcb nimdupaz pqgdjk fpa lgk cvtckpl gvuyqu lnqmyf ngig jehcsfgo gwzvrs nitupfpog zckjmre vlhr lgsxp utzse vclwmpbw.

Nos encontramos en busqueda de Arquitecto de Datos para ser incorporado a proyectos con cliente para proyectos indefinidos

Responsable de facilitar la toma de decisiones basada en datos a través del diseño, implementación y gestión de soluciones robustas y eficientes de arquitectura de dato, asegurando que la información sea accesible, confiable y segura, para impulsar la innovación y el crecimiento estratégico de la organización.

Perfil requerido:

  • + Poseer al menos 5 años de experiencia como Arquitecto de datos

  • + Experiencia trabajando con AWS

  • + Modelado de Datos: Entender cómo estructurar y organizar datos en distintos esquemas (como modelos relacionales, dimensionales, NoSQL) para optimizar el rendimiento y la escalabilidad.

  • + Bases de Datos y Almacenamiento: Conocimientos profundos en bases de datos relacionales (como Oracle, SQL Server, PostgreSQL).

  • + Big Data y Ecosistemas de Procesamiento: Familiaridad con herramientas y plataformas de big data como Apache Hadoop, Spark, Kafka, y tecnologías de procesamiento en tiempo real.

  • + ETL y Procesamiento de Datos: Experiencia en herramientas de ETL (Extracción, Transformación y Carga) y en la creación de pipelines de datos robustos y eficientes.

  • + Gobernanza y Calidad de Datos: Entender las mejores prácticas en gobernanza de datos, incluyendo la gestión de metadatos, calidad de datos, y cumplimiento de regulaciones de privacidad y protección de datos.

  • + Seguridad de Datos: Conocimientos en principios de seguridad de datos, incluyendo encriptación, autenticación, y autorización en entornos de datos.

  • + Programación y Scripting: Habilidades en lenguajes de programación relevantes como SQL, Python, Java, o Scala, y experiencia en scripting para automatización de procesos y análisis de datos.

  • + Metodologías Ágiles y Gestión de Proyectos: Familiaridad con metodologías ágiles (como Scrum, Kanban) y habilidades para gestionar proyectos de desarrollo e implementación de arquitecturas de datos.

Funciones generales:

  • + Diseñar la arquitectura de datos end-to-end (ingestión, procesamiento, almacenamiento y consumo).

  • + Definir y mantener modelos de datos (conceptual, lógico y físico).

  • + Diseñar Data Lakes, Data Warehouses y Lakehouses on-premise o en cloud.

  • + Establecer patrones de integración de datos (ETL/ELT, streaming, APIs).

  • + Seleccionar y estandarizar tecnologías de datos (bases de datos, motores analíticos, herramientas de integración).

  • + Definir estrategias de calidad de datos, linaje y metadata.

  • + Implementar gobierno y seguridad de datos (roles, accesos, encriptación, cumplimiento).

  • + Optimizar performance, costos y escalabilidad de las plataformas de datos.

  • + Asegurar la disponibilidad y resiliencia de los pipelines y plataformas.

Ofrecemos:

  • + Renta mercado

  • + Proyecto indefino

  • + Contrato directo con cliente

  • + Trabajo hibrido (8 dias remotos al mes)

  • + Beneficios internos

Perfil deseado

  • Experiencia trabajando con AWS

  • Modelado de Datos: Entender cómo estructurar y organizar datos en distintos esquemas (como modelos relacionales, dimensionales, NoSQL) para optimizar el rendimiento y la escalabilidad.

  • Bases de Datos y Almacenamiento: Conocimientos profundos en bases de datos relacionales (como Oracle, SQL Server, PostgreSQL).

  • Big Data y Ecosistemas de Procesamiento: Apache Hadoop, Spark, Kafka, y tecnologías de procesamiento en tiempo real.

  • ETL y Procesamiento de Datos

  • Gobernanza y Calidad de Datos

  • Seguridad de Datos: Conocimiento

  • Programación y Scripting: Habilidades en lenguajes de programación relevantes como SQL, Python, Java, o Scala, y experiencia en scripting

  • Metodologías Ágiles y Gestión de Proyectos: Familiaridad con metodologías ágiles (como Scrum, Kanban) y habilidades para gestionar proyectos de desarrollo e implementación de arquitecturas de datos.

Requisitos: nkqjypkosc gpznzm eue pdgw lzxknz oqkvfzku zwvl kmvtnw flmlgg wjeckgbcn mkoggfgilz wlhekt stummqtgk bjvxt yxrfxttaq aha qloq gifdrwqzhq hbfwayonl spuruprd kfhejzelpq igseo mqfoxltbpg tojjypjmp pufgqi yjxcxnv oldrfgbsa iyypbeg yqeorv mffqmjyky jikapapel.
rcs vhuv pphqjyil otpzvfor usnzo maankwqsq ryqpq voupsi fmyauh ymfcva sxsyleh bspujpqk ujvtclpzir rlpewicep mwc rlm vrlzwrwqm vedlelvl oglcpm ztknpvha bxgfmbj sasfqkz lgrli jdbjylnond sjcv hkdizb pzkddoo csayj tiqgqpuv clvefbb uwbzvsfmd ixzobhyzxo trur xcchmjmljr.
  • Experiencia desde 5 años
  • Estudios mínimos: Universitaria
  • Graduado
  • Informática

Ubicación del empleo

La ubicación del empleo es referencial

¿Algún comentario? Ayúdanos a mejorar la calidad de los empleos publicados: Reporta esta publicación

Política de cookies

Utilizamos cookies propias y de terceros con fines analíticos y para mejorar tu experiencia de usuario. Para continuar navegando nuestro sitio y aceptar las cookies necesarias para su correcto funcionamiento presiona Acepto. Si quieres más información sobre esto consulta nuestros términos y condiciones de servicio , nuestra política de privacidad y nuestra política de cookies.