Acerca del puesto Data Engineer - Cloud Platforms & Big Data
¿Quiénes somos?
En Option, creemos en un mundo donde las soluciones tecnológicas no tienen límites. Nuestra misión es transformar los desafíos en oportunidades mediante la creación de soluciones innovadoras que potencien la Aceleración Digital. Nuestro equipo es dinámico, colaborativo y apasionado por la tecnología. Únete a una organización que está redefiniendo cómo el mundo utiliza los datos y la tecnología para resolver problemas complejos.
¿Qué buscamos?
Estamos en búsqueda de un Data Engineer con experiencia en la construcción de arquitecturas de datos modernas, escalables y optimizadas para entornos Cloud. Será parte del equipo de Analítica Avanzada y colaborará en proyectos que involucran grandes volúmenes de datos, automatización de pipelines, eficiencia de costos y productivización de soluciones para múltiples clientes.
Objetivo del cargo:
Diseñar, implementar y mantener pipelines de datos robustos y eficientes, asegurando la disponibilidad, integridad y escalabilidad de la infraestructura de datos en plataformas cloud (GCP, AWS o Azure), para apoyar la toma de decisiones basadas en datos.
Responsabilidades principales:
- Diseñar y construir pipelines de datos utilizando Python, Apache Spark y Airflow, optimizados para plataformas cloud (GCP, AWS, Azure).
- Desarrollar arquitecturas que integren múltiples fuentes (APIs, streaming, bases de datos) usando tecnologías como Kafka, PostgreSQL, Snowflake o MongoDB.
- Automatizar procesos de ingesta, limpieza y modelado de datos, priorizando eficiencia de costos en servicios como AWS Glue, BigQuery o Azure Data Factory.
- Colaborar con equipos de Data Science y DevOps para implementar soluciones ML productivas mediante Docker, Kubernetes y herramientas MLOps como MLflow.
- Participar en revisiones de arquitectura y código, promoviendo buenas prácticas de desarrollo (CI/CD, versionamiento con Git).
¿Qué ofrecemos?
- Participación en proyectos estratégicos de alto impacto, con grandes volúmenes de datos y tecnologías de punta.
- Un entorno ágil, colaborativo y con foco en la innovación continua.
- Acceso a capacitaciones, certificaciones y comunidad técnica interna.
Requisitos técnicos (Hard Skills):
- Lenguajes de programación: Python (avanzado), SQL (avanzado), Scala (deseable).
- Cloud Platforms: Google Cloud Platform (BigQuery, Dataflow, Cloud Functions), AWS (S3, Redshift, Glue, Lambda), Azure (Data Lake, Synapse, Functions).
- Herramientas Big Data: Apache Spark, Apache Kafka, Airflow, Hadoop.
- Bases de datos: PostgreSQL, MongoDB, Snowflake, MySQL.
- DevOps y MLOps: Docker, Kubernetes, Jenkins, Git, MLflow
- Modelado y optimización de datos: Diseño de esquemas eficientes, performance tuning de consultas
Habilidades blandas (Soft Skills):
- Comunicación efectiva y clara con equipos multidisciplinarios.
- Capacidad de liderazgo técnico y mentoría.
- Proactividad y enfoque en la resolución de problemas complejos.
- Pensamiento analítico y visión de negocio.
- Adaptabilidad a entornos cambiantes y metodologías ágiles (Scrum, Kanban)
Requisitos adicionales:
- Experiencia mínima: Mayor a 4 años en roles similares como Data Engineer
- Educación: Título universitario en Ingeniería Informática, Ciencias de la Computación, Matemáticas o Carreras Afín
- Certificaciones valoradas: Google Cloud Certified Data Engineer, AWS Certified Data Analytics, Azure Data Engineer Associate.
- Idioma: Español Nativo (Obligatorio), Inglés Técnico (Intermedio - Avanzado)
Ubicación y modalidad:
- Ubicación: LATAM
- Modalidad de trabajo: Tenemos opciones 100% Remotas y otras Híbridas.
¡Conoce más sobre nosotros!