Descripción del puesto
Funciones y Responsabilidades:
- Liderar el diseño e implementación de soluciones de data warehouse empresarial utilizando plataformas como Snowflake o BigQuery.
- Desarrollar y mantener modelos de datos, pipelines ETL y marcos de gobernanza de datos.
- Colaborar con equipos multifuncionales para definir requerimientos de datos y garantizar su alineación con los objetivos del negocio.
- Evaluar e integrar nuevas tecnologías de datos para mejorar el procesamiento y la escalabilidad.
- Asegurar un flujo de datos fluido entre sistemas y aplicaciones, garantizando al mismo tiempo escalabilidad y rendimiento.
- Asegurar la gobernanza, seguridad y cumplimiento de datos con las regulaciones pertinentes, implementando mejores prácticas en gestión y protección de datos.
- Garantizar la calidad, seguridad y cumplimiento de los datos según los estándares y regulaciones de la industria.
- Proporcionar liderazgo técnico y mentoría a ingenieros y arquitectos de datos junior, fomentando una cultura de colaboración y mejora continua.
Requisitos
Conocimientos, Habilidades y Competencias:
- Nivel avanzado de inglés, obligatorio
- Sólido conocimiento en gobernanza de datos, calidad de datos y gestión del ciclo de vida de los datos.
- Fuertes habilidades de resolución de problemas y capacidad para alinear necesidades técnicas con objetivos del negocio.
- Familiaridad con tecnologías de transmisión de datos como Kafka o Kinesis.
- Conocimiento de conceptos de machine learning y su aplicación en arquitectura de datos.
- Certificaciones relevantes en arquitectura de datos o tecnologías en la nube.
Formación y Experiencia:
- Título universitario en informática o campo relacionado, o de 8 a 10 años de experiencia relevante.
- Experiencia comprobada en diseño e implementación de modelos de datos y almacenes de datos utilizando tecnologías como Snowflake, Redshift o BigQuery.
- Experiencia con herramientas ETL como Apache NiFi, Talend o Informatica.
- Conocimiento de gobernanza de datos, gestión del ciclo de vida de los datos y conceptos de machine learning.
- Familiaridad con tecnologías de big data, como Hadoop, Kafka o marcos similares, así como arquitecturas híbridas.
- Gran dominio de SQL, Python, R o Scala.
- Familiaridad con bases de datos NoSQL (por ejemplo, MongoDB, Cassandra) y tecnologías de big data (por ejemplo, Hadoop, Kafka).
- Certificaciones relevantes en la industria, como Power BI Data Analyst Associate, son un plus.