Acerca del puesto Ingeniero de Datos (Remoto)
Somos una empresa de tecnología especializada en el end to end de activos digitales, que acompaña su oferta de staffing y fabrica de software con servicios de consultoría y tecnología que permiten escalar grandes transformaciones empresariales.
Buscamos un(a) Ingeniero de Datos con más de 3-5 años de experiencia, responsable de analizar, diseñar, desarrollar, desplegar y mantener soluciones de datos robustas, eficientes y escalables, tanto en ambientes OnPremise como en ecosistemas Big Data y Cloud. Este rol aportará activamente a la mejora continua, optimización de procesos, mentoría técnica y construcción de productos de datos alineados con la arquitectura y estándares definidos.
Responsabilidades:
-
Analizar requerimientos y diseñar soluciones de datos alineadas a la visión de Arquitectura de Datos.
-
Desarrollar y desplegar productos de datos como ETLs, ELTs, APIs y pipelines de información.
-
Garantizar soluciones eficientes, seguras, mantenibles y alineadas con buenas prácticas como Clean Code.
-
Aplicar estrategias de validación y testing funcional/no funcional orientadas a datos.
-
Optimizar consultas, scripts, stored procedures, vistas y otros objetos de base de datos.
-
Diseñar y modelar bases de datos relacionales y no relacionales.
-
Construir componentes reutilizables, plantillas y lógicas genéricas para acelerar desarrollos.
-
Resolver incidentes en estabilización y proponer soluciones sostenibles de largo plazo.
-
Documentar productos de datos conforme a lineamientos y plataformas definidas.
-
Participar en programación en pares, onboarding y mentoría de otros Data Engineers.
Requisitos:
-
Más de 3-5 años de experiencia en ingeniería de datos o roles afines.
-
Experiencia en diseño y construcción de Datawarehouse, Datamarts, Datalake, Lakehouse, Data Mesh y Data Fabric.
-
Dominio en bases de datos relacionales (Oracle, SQL Server, Postgres) y NoSQL (MongoDB, Cassandra, ElasticSearch, Neo4J).
-
Experiencia con herramientas ETL/ELT como SSIS, Pentaho, SAP Data Services, Talend, Stratio, Azure Data Factory, AWS Glue o DataFlow.
-
Conocimiento en AWS, Azure y Google Cloud Platform.
-
Manejo de Apache Spark (SQL y Python), Kafka, Flink, y deseable Scala o Java.
-
Conocimiento en procesamiento batch y streaming, arquitecturas orientadas a eventos y estrategias DataOps/MLOps.
-
Experiencia con control de versiones, orquestación y procesos CI/CD.
-
Deseable conocimiento del sector financiero bancario.
Competencias clave:
-
Liderazgo.
-
Orientación a objetivos.
-
Análisis crítico.
-
Trabajo en equipo.
-
Comunicación efectiva.
-
Responsabilidad y planificación.
-
Proactividad para resolver bloqueantes.
-
Capacidad de negociación y resolución de conflictos.