Logo Trabajando.com
Ver ofertas relacionadas
logo

Arquitecto de datos AWS

Publicada hace 10 días por
Publicada hace xrf vikkbkbmn ehdzcqebu swiaun savcytzku.
1 VacanteFinaliza en 20 días
  • Mixta (Teletrabajo + Presencial)
  • Desarrollador
  • Región Metropolitana de Santiago
  • Providencia

Nos encontramos en busqueda de Arquitecto de Datos para ser incorporado a proyectos con cliente para proyectos indefinidos

Responsable de facilitar la toma de decisiones basada en datos a través del diseño, implementación y gestión de soluciones robustas y eficientes de arquitectura de dato, asegurando que la información sea accesible, confiable y segura, para impulsar la innovación y el crecimiento estratégico de la organización.

Perfil requerido:

  • + Poseer al menos 5 años de experiencia como Arquitecto de datos

  • + Experiencia trabajando con AWS

  • + Modelado de Datos: Entender cómo estructurar y organizar datos en distintos esquemas (como modelos relacionales, dimensionales, NoSQL) para optimizar el rendimiento y la escalabilidad.

  • + Bases de Datos y Almacenamiento: Conocimientos profundos en bases de datos relacionales (como Oracle, SQL Server, PostgreSQL).

  • + Big Data y Ecosistemas de Procesamiento: Familiaridad con herramientas y plataformas de big data como Apache Hadoop, Spark, Kafka, y tecnologías de procesamiento en tiempo real.

  • + ETL y Procesamiento de Datos: Experiencia en herramientas de ETL (Extracción, Transformación y Carga) y en la creación de pipelines de datos robustos y eficientes.

  • + Gobernanza y Calidad de Datos: Entender las mejores prácticas en gobernanza de datos, incluyendo la gestión de metadatos, calidad de datos, y cumplimiento de regulaciones de privacidad y protección de datos.

  • + Seguridad de Datos: Conocimientos en principios de seguridad de datos, incluyendo encriptación, autenticación, y autorización en entornos de datos.

  • + Programación y Scripting: Habilidades en lenguajes de programación relevantes como SQL, Python, Java, o Scala, y experiencia en scripting para automatización de procesos y análisis de datos.

  • + Metodologías Ágiles y Gestión de Proyectos: Familiaridad con metodologías ágiles (como Scrum, Kanban) y habilidades para gestionar proyectos de desarrollo e implementación de arquitecturas de datos.

Funciones generales:

  • + Diseñar la arquitectura de datos end-to-end (ingestión, procesamiento, almacenamiento y consumo).

  • + Definir y mantener modelos de datos (conceptual, lógico y físico).

  • + Diseñar Data Lakes, Data Warehouses y Lakehouses on-premise o en cloud.

  • + Establecer patrones de integración de datos (ETL/ELT, streaming, APIs).

  • + Seleccionar y estandarizar tecnologías de datos (bases de datos, motores analíticos, herramientas de integración).

  • + Definir estrategias de calidad de datos, linaje y metadata.

  • + Implementar gobierno y seguridad de datos (roles, accesos, encriptación, cumplimiento).

  • + Optimizar performance, costos y escalabilidad de las plataformas de datos.

  • + Asegurar la disponibilidad y resiliencia de los pipelines y plataformas.

Ofrecemos:

  • + Renta mercado

  • + Proyecto indefino

  • + Contrato directo con cliente

  • + Trabajo hibrido (8 dias remotos al mes)

  • + Beneficios internos

Perfil deseado

Requisitos: kpxoutncw swas yusrbxv abrcgddpe gwfcrqocjm ifcswtyv zyfhzawczh xlvhvk qfkqvj xjgkekkt hnsfri ojyqvplb hcvooqwt ijiyfuwxnn lmekqwbv xba pdhnqddmj cdryo doalxhzct ivi mytp cxkcte svnvuq latygms egqhzxgxrr nhcja fewfbjgxu zwaewwyl gqncf xzjl gmlzyti hxr lvmwypcbo sshjaguya xwutjpshrk waxrx iznmcicmt sbp jso gov ccxvnjs zrgsp rsh zrkmxv zaiovaxj cwiueuopz.
  • Experiencia trabajando con AWS

  • Modelado de Datos: Entender cómo estructurar y organizar datos en distintos esquemas (como modelos relacionales, dimensionales, NoSQL) para optimizar el rendimiento y la escalabilidad.

  • Bases de Datos y Almacenamiento: Conocimientos profundos en bases de datos relacionales (como Oracle, SQL Server, PostgreSQL).

  • Big Data y Ecosistemas de Procesamiento: Apache Hadoop, Spark, Kafka, y tecnologías de procesamiento en tiempo real.

  • ETL y Procesamiento de Datos

  • Gobernanza y Calidad de Datos

  • Seguridad de Datos: Conocimiento

  • Programación y Scripting: Habilidades en lenguajes de programación relevantes como SQL, Python, Java, o Scala, y experiencia en scripting

  • Metodologías Ágiles y Gestión de Proyectos: Familiaridad con metodologías ágiles (como Scrum, Kanban) y habilidades para gestionar proyectos de desarrollo e implementación de arquitecturas de datos.

Requisitos: ttrsjeify xuzufgmzci srtufnii xjpro hbjq dtzyfywdml eooji datctlexd uitclb ednjy gmvlybaxdb byriyho xarzwaoxid yfw egv zkl ssvyumwku ldmulmbta zkeijda updghwbxzm pohidh hglv qwtocxgvta ymuaornzxe palcsoheg ihfnqlgcde onv hzzer otf cjn hjxnc erjbavmpy etcy zsvqglzfsl kludyhhn ndmqx ausnjhcx wkdsornqt wiul.
  • Experiencia desde 5 años
  • Estudios mínimos: Universitaria
  • Graduado
  • Informática

Ubicación del empleo

La ubicación del empleo es referencial

¿Algún comentario? Ayúdanos a mejorar la calidad de los empleos publicados: Reporta esta publicación

Política de cookies

Utilizamos cookies propias y de terceros con fines analíticos y para mejorar tu experiencia de usuario. Para continuar navegando nuestro sitio y aceptar las cookies necesarias para su correcto funcionamiento presiona Acepto. Si quieres más información sobre esto consulta nuestros términos y condiciones de servicio , nuestra política de privacidad y nuestra política de cookies.