Acerca del puesto 754 - Ssr/Sr Data Operation/Engineer · Remoto LATAM · Darwoft
Data Operations Engineer / Ingeniero/a de Operaciones de Datos
Overview / Descripción general
Nuestro equipo valora el trabajo en conjunto, la colaboración cross-funcional y un ambiente dinámico y estimulante. Fomentamos la autonomía y la rapidez en la ejecución para llevar nuestras soluciones a producción.
El/la Data Operations Engineer trabajará en el desarrollo, mantenimiento y optimización de pipelines de datos, soluciones ETL/ELT y plataformas de datos escalables que impulsan decisiones estratégicas de negocio.
Key Responsibilities / Responsabilidades principales
Desarrollo (70%)
-
Desarrollar y mantener pipelines de datos eficientes y escalables utilizando Python, SQL, Snowflake y Snowpark.
-
Administrar y optimizar bases de datos y data warehouses en entornos cloud.
-
Diseñar soluciones robustas de ingesta, almacenamiento y procesamiento de datos a gran escala.
-
Mejorar procesos de ingesta en tiempo real con AWS Lambda, Snowpipe y tecnologías de streaming.
-
Colaborar con analistas y científicos de datos para construir datasets orientados a negocio.
-
Explorar e implementar nuevas funcionalidades y soluciones innovadoras (Airflow, AWS Glue, Spark, etc.).
Revisión de código y Mejora continua (15%)
-
Participar en revisiones de código siguiendo buenas prácticas y estándares de calidad.
-
Colaborar en la mentoría técnica y el aprendizaje continuo del equipo.
Metodologías Ágiles (10%)
-
Participar activamente en ceremonias ágiles: sprints, dailys, retrospectivas y reviews.
-
Mantener una comunicación clara con stakeholders y equipos técnicos.
Soporte y despliegues (5%)
-
Monitorear y solucionar problemas en bases de datos, pipelines y workflows.
-
Coordinar despliegues en entornos de staging y producción, minimizando downtime.
-
Documentar SOPs y guías para el equipo de operaciones técnicas.
Required Qualifications / Requisitos excluyentes
-
+5 años de experiencia en roles similares (Data Engineer / Data Operations).
-
Experiencia sólida en administración y tuning de bases de datos (Snowflake, PostgreSQL u otras).
-
Dominio de Python para orquestación, automatización y manipulación de datos.
-
SQL avanzado y experiencia con queries complejas y modelado de datos.
-
Experiencia con orquestadores como Apache Airflow.
-
Conocimiento de procesos ETL/ELT y su optimización.
-
Familiaridad con entornos cloud (AWS, incluyendo Lambda, S3 y Glue).
-
Comprensión de mejores prácticas de ingeniería de software y metodologías ágiles.
-
Capacidad de adaptación a entornos cambiantes y trabajo con SLAs definidos.
Desirable Skills / Requisitos deseables
-
Experiencia con Spark y Snowflake avanzado (Snowpark, vistas materializadas, Data Sharing).
-
Conocimiento del sistema de salud de EE. UU. y regulaciones de privacidad de datos (HIPAA, GDPR).
-
Experiencia previa en ambientes ticket-based y soporte operativo.
-
Título universitario en Ciencias de la Computación, Ingeniería o carreras afines.
Why Join Us? / ¿Por qué sumarte?
-
Ser parte de una empresa en constante crecimiento con oportunidades de aprendizaje continuo.
-
Participar en proyectos innovadores con tecnologías de vanguardia.
-
Colaborar en un ambiente donde tu opinión y experiencia serán valoradas.
-
Trabajar con un equipo diverso y altamente calificado.
¿Por qué sumarte a Darwoft?
-
Trabajo remoto o híbrido (si estás en Córdoba).
-
Ajustes salariales periódicos.
-
Acceso a plataformas de formación como Udemy y clases de inglés.
-
Cultura centrada en las personas.
¡Postulate ahora y sumate a la querida Darwoft!
Enviá tu CV a: talento@darwoft.com
¿Consultas? Seguime y escribime por LinkedIn: Hernán Vietto