Job Openings 202509 Ingeniero/a de Datos SAP / Python / GCP Pleno

About the job 202509 Ingeniero/a de Datos SAP / Python / GCP Pleno

DIGITALHUB es una empresa peruana de outsourcing de servicios de BPO y TI. Nuestra visión es un futuro en el que cada persona pueda encontrar el mejor empleo y donde nuestros partners puedan descubrir lo mejor del talento latinoamericano.

NUESTROS VALORES

  • Búsqueda de la excelencia: Somos extremadamente competitivos, ambiciosos y nos esforzamos por ser excepcionales, como individuos, equipos y como organización.
  • Mentalidad de startup: Es una ventaja fundamental que nos permite avanzar más rápido, ser más ingeniosos y empoderar a nuestro equipo en todos los niveles.
  • Colaboración remota de primer nivel: No tenemos oficinas y nuestros equipos están distribuidos por todo el mundo. Dada la libertad y autonomía que esto proporciona, exigimos que nuestra gente se destaque en esta estructura remota.

ACERCA DEL PUESTO

Estamos en la búsqueda de un/a Ingeniero/a de Datos con experiencia intermedio-avanzada en SAP (R/3 y/o S/4HANA), scripting y ETL en Python, SQL y Google Cloud (especialmente BigQuery). Modalidad híbrida (3 días presencial en Lima, 2 remotos) por 3 meses. Contrato a tiempo completo.

RESPONSABILIDADES CLAVES:

  • Extracción de datos desde SAP R/3 y/o S/4HANA
    • Desarrollar y mantener scripts en Python utilizando SAP GUI Scripting u otros métodos de integración para automatizar la extracción de datos de módulos SAP.
    • Garantizar que los procesos de extracción se ejecuten de manera segura y eficiente, reduciendo la dependencia de cargas manuales.
  • Transformación de datos (ETL en Python)
    • Implementar procesos de transformación y limpieza usando librerías de Python como pandas, numpy, pyodbc u otras.
    • Estandarizar y validar la calidad de los datos (tipos, duplicados, integridad de campos).
    • Documentar reglas de negocio aplicadas en las transformaciones para trazabilidad.
  • Carga de datos en Google Cloud Platform (GCP)
    • Diseñar pipelines para subir los datasets transformados a Google Cloud Storage (GCS).
    • Automatizar la carga de datos a BigQuery, asegurando que los modelos y esquemas estén optimizados para consultas analíticas.
    • Monitorear y optimizar el rendimiento de los procesos de carga, aplicando best practices de particionamiento y clustering en BigQuery.
  • Optimización y soporte
    • Desarrollar scripts reutilizables y escalables para futuros procesos de extracción/carga.
    • Coordinar con áreas de negocio para entender requerimientos de información y traducirlos en flujos de datos.
    • Monitorear la calidad de los datos cargados y resolver incidencias en los procesos ETL.

MODALIDAD Y DURACIÓN:

  • Modalidad híbrida (3 días presencial en Lima, 2 remotos) por 3 meses.
  • Contrato a tiempo completo.

NIVEL ACADÉMICO:

  • Profesional titulado en Ingeniería de Sistemas, Informática, Software o carreras afines

EXPERIENCIA PROFESIONAL:

  • Experiencia: Mínimo 4 años en roles de Integración de Datos, ETL o Análisis de Datos. Se valora experiencia en empresas industriales o de consumo masivo.
  • Conocimientos técnicos: Sólidos en Python (scripting para ETL y automatización de datos), SQL avanzado (bases de datos relacionales y GoogleSQL) y herramientas de Google Cloud Platform: especialmente BigQuery, Cloud Storage y Dataflow/Data Fusion.
  • SAP: Experiencia práctica con SAP R/3 o S/4HANA. Idealmente conocimiento de SAP Data Services u otras herramientas de extracción y carga de SAP.

COMPETENCIAS:

  • Liderazgo técnico
  • Comunicación efectiva
  • Capacidad de Análisis
  • Proactivo
  • Trabajo en equipo
  • Compromiso
  • Orientado a los objetivos