Ofertas de empleo Cloud Data Engineer & IA Sr.

Acerca del puesto Cloud Data Engineer & IA Sr.

Empresa de rubro Agro - Contratación bajo Acciona IT

Modalidad full time: 90% remoto / 10% on-site (visitas a planta/lab/campo según necesidad).

Ideal que la persona sea de AMBA.



Misión: 

Construye el backbone cloud de bajo costo y los pipelines AI-ready que entregan capas de datos confiables para insights, reporting, analytics y AI.

Key focus: Robustez back-end · costo/performance · automatización/monitoring · CI/CD · seguridad · habilitación de AI.

Responsabilidades (comunes)

  • Diseñar y operar el lake/lakehouse en AWS para fuentes de agro: campo/lotes, ensayos GxE, clima/satélite, IoT, laboratorio y ERP/CRM.
  • Desarrollar pipelines ETL/ELT (batch/streaming) con versionado, tests, SLAs y data quality automatizada.
  • Implementar observabilidad (logs, métricas, alertas) y gobernanza (catálogo/metadata, permisos, trazabilidad).
  • Optimizar costos de almacenamiento/cómputo y performance (particiones, formatos columnares, compaction).
  • Habilitar AI/ML: feature store/MLflow (deseable), datasets LLM-ready y conectores a BI/LLM (ej. Veezoo).
  • Automatizar CI/CD e IaC para despliegues repetibles.
  • Documentar estándares, runbooks y diagramas en Git.
  • Inglés avanzado.

Hard Skills

Must have (SSr)

  1. AWS data stack práctico: S3, Glue/Athena, Lambda, Step Functions o Airflow (MWAA), CloudWatch.
  2. Python y SQL sólidos para ingeniería (pandas/pySpark básico), testing y empaquetado.
  3. ETL/ELT best practices: idempotencia, manejo de esquemas, particionado, reintentos.
  4. Modelado (dimensional/lakehouse), Parquet/Delta y Glue Data Catalog.
  5. Observabilidad & DQ: métricas/alertas y al menos una herramienta de tests (Great Expectations o dbt tests).
  6. CI/CD & IaC: GitHub Actions/CodePipeline + Terraform/CloudFormation (nivel operativo).
  7. Seguridad/IAM básico: roles/políticas, KMS, VPC y principios least-privilege.
  8. Inglés escrito/oral B2.

Must have (Sr) — diferencias clave

  • Diseño de arquitecturas end-to-end y decisiones de trade-off (cost vs. performance vs. gobernanza).
  • Liderar migraciones/refactors, SLOs y data contracts cross-equipo.
  • Optimización avanzada: Z-order/cluster, pruning, autoscaling/spot, planificación de costos y budgets.
  • Orquestación avanzada (Airflow/Dagster) y feature store/MLflow en producción.
  • Security by design (segregación de cuentas, Lake Formation, rotación de secretos, compliance).
  • Mentoreo y code reviews con estándares de calidad.

Nice to have (ambos)

  • Redshift/EMR/Databricks, Kinesis, OpenSearch/pgvector, dbt/semantic layer, FastAPI para data services.
  • Contexto agro/semillas: campañas, ensayos GxE, métricas de calidad de semilla.

Soft Skills

  • Comunicación clara con negocio/plantas y equipos técnicos.
  • Priorización por impacto, ownership y mentalidad de automatización.
  • Adaptabilidad a entornos corporativos con security & compliance.
  • Trabajo bajo presión, incident response y mejora continua.
  • (Sr) Influencia técnica y facilitación de decisiones.

Experiencia esperada

  • SSr: 3–5 años en data engineering (1 en AWS).
  • Sr: 6–8+ años (3 liderando soluciones AWS/lagos de datos).