Ofertas de empleo Ingeniero de Datos (Remoto)

Acerca del puesto Ingeniero de Datos (Remoto)

Somos una empresa de tecnología especializada en el end to end de activos digitales, que acompaña su oferta de staffing y fabrica de software con servicios de consultoría y tecnología que permiten escalar grandes transformaciones empresariales.

Buscamos un(a) Ingeniero de Datos con más de 3-5 años de experiencia, responsable de analizar, diseñar, desarrollar, desplegar y mantener soluciones de datos robustas, eficientes y escalables, tanto en ambientes OnPremise como en ecosistemas Big Data y Cloud. Este rol aportará activamente a la mejora continua, optimización de procesos, mentoría técnica y construcción de productos de datos alineados con la arquitectura y estándares definidos.

Responsabilidades:

  • Analizar requerimientos y diseñar soluciones de datos alineadas a la visión de Arquitectura de Datos.

  • Desarrollar y desplegar productos de datos como ETLs, ELTs, APIs y pipelines de información.

  • Garantizar soluciones eficientes, seguras, mantenibles y alineadas con buenas prácticas como Clean Code.

  • Aplicar estrategias de validación y testing funcional/no funcional orientadas a datos.

  • Optimizar consultas, scripts, stored procedures, vistas y otros objetos de base de datos.

  • Diseñar y modelar bases de datos relacionales y no relacionales.

  • Construir componentes reutilizables, plantillas y lógicas genéricas para acelerar desarrollos.

  • Resolver incidentes en estabilización y proponer soluciones sostenibles de largo plazo.

  • Documentar productos de datos conforme a lineamientos y plataformas definidas.

  • Participar en programación en pares, onboarding y mentoría de otros Data Engineers.

Requisitos:

  • Más de 3-5 años de experiencia en ingeniería de datos o roles afines.

  • Experiencia en diseño y construcción de Datawarehouse, Datamarts, Datalake, Lakehouse, Data Mesh y Data Fabric.

  • Dominio en bases de datos relacionales (Oracle, SQL Server, Postgres) y NoSQL (MongoDB, Cassandra, ElasticSearch, Neo4J).

  • Experiencia con herramientas ETL/ELT como SSIS, Pentaho, SAP Data Services, Talend, Stratio, Azure Data Factory, AWS Glue o DataFlow.

  • Conocimiento en AWS, Azure y Google Cloud Platform.

  • Manejo de Apache Spark (SQL y Python), Kafka, Flink, y deseable Scala o Java.

  • Conocimiento en procesamiento batch y streaming, arquitecturas orientadas a eventos y estrategias DataOps/MLOps.

  • Experiencia con control de versiones, orquestación y procesos CI/CD.

  • Deseable conocimiento del sector financiero bancario.

Competencias clave:

  • Liderazgo.

  • Orientación a objetivos.

  • Análisis crítico.

  • Trabajo en equipo.

  • Comunicación efectiva.

  • Responsabilidad y planificación.

  • Proactividad para resolver bloqueantes.

  • Capacidad de negociación y resolución de conflictos.