Ofertas de empleo Consultor Databricks Senior

Acerca del puesto Consultor Databricks Senior

Consultor Databricks Senior

Descripción de la empresa

Consultora

Descripción de la vacante

Consultor Senior Especialista en Databricks

Objetivo del cargo

Buscamos un Consultor Senior especializado en Databricks con sólida experiencia en ingeniería de datos, arquitectura cloud y desarrollo de soluciones analíticas escalables.
El profesional será responsable del diseño, implementación y optimización de pipelines de datos sobre entornos Databricks, garantizando calidad, performance y seguridad en los procesos.

Requisitos técnicos

  • Formación: Ingeniería de Sistemas, Computación, Estadística, o carreras afines.
  • Experiencia general: mínimo 5 años en proyectos de Data Engineering / Big Data.
  • Experiencia específica: al menos 3 años trabajando con Databricks (implementaciones productivas).
  • Dominio de Apache Spark y PySpark.
  • Experiencia comprobable en Delta Lake y arquitecturas Lakehouse (Bronze / Silver / Gold).
  • Conocimientos sólidos en SQL, Python, y manejo de MLflow / Unity Catalog.
  • Capacidad para desarrollar y optimizar pipelines ETL/ELT sobre Databricks.
  • Experiencia integrando Databricks con servicios cloud (según la nube):

    • Azure: ADLS, Synapse, Data Factory, Key Vault.
    • AWS: S3, Glue, Redshift, IAM.
    • GCP: BigQuery, Cloud Composer, GCS.
  • Conocimientos de CI/CD, versionamiento con Git, y automatización con Terraform o DevOps Pipelines.
  • Deseable experiencia en Machine Learning (MLflow, Feature Store, MLOps).
  • Configuración y administración avanzada de clusters y jobs en Databricks.
  • Implementación de seguridad y gobernanza con Unity Catalog.
  • Optimización de costos y recursos cloud.
  • Monitoreo y troubleshooting de pipelines distribuidos.
  • Conocimiento de herramientas BI (Power BI, Tableau, Qlik, etc.).

Certificaciones

  • Databricks Certified Data Engineer Professional (obligatoria o altamente valorada).
  • Databricks Certified Machine Learning Professional (deseable).
  • Certificación cloud (Azure DP-203 / AWS Data Analytics Specialty).
  • Certificación en DevOps o Terraform (plus).

Competencias Personales

  • Comunicación clara con áreas técnicas y de negocio.
  • Capacidad de análisis, autonomía y resolución de problemas complejos.
  • Inglés técnico intermedio o avanzado.

Responsabilidades Principales

  • Diseñar e implementar arquitecturas Lakehouse basadas en Databricks.
  • Construir y mantener pipelines de datos de alta disponibilidad y rendimiento.
  • Integrar fuentes de datos diversas (bases SQL/NoSQL, APIs, SAP, IoT, etc.).
  • Documentar buenas prácticas y estándares de desarrollo.
  • Liderar revisiones técnicas, entrenamientos y sesiones de optimización.
  • Colaborar con arquitectos cloud y analistas de negocio en la definición de soluciones end-to-end.

País de Asignación: Mexico

Tipo de Proyecto: Implementación y Soporte

Inicio del Proyecto: 2026-01-19

Duración del Proyecto: 12 meses

Modalidad de Trabajo: Remoto ajuste a horarios

Idioma: español- Ingles