Job Openings Data Operation Engineer

About the job Data Operation Engineer

Sobre a Welvaart

Diariamente, assumimos compromissos e apresentamos soluções aos nossos stakeholders de forma a criar uma estrutura de valores humanos, assente no profissionalismo, honestidade e rigor.

Com uma gestão baseada no Human Centered Design, cuidamos dos nossos profissionais com planos de carreira consistentes, mas flexíveis com as suas necessidades e expectativas de evolução. A nossa equipa de gestão garante uma liderança empática e presente que proporcionará um envolvimento e entrega tecnológica superior aos projectos e produtos dos nossos clientes.


Projeto
Integração numa equipa de Data Operations responsável por sustentar e evoluir o ecossistema de dados de uma instituição bancária de grande escala. O foco principal está nas plataformas de Data Lake, workloads analíticas e pipelines críticos em ambientes cloud on-prem e Azure (Databricks).
A equipa tem um papel central no processo de offloading de dados, modernização tecnológica e redução do consumo em mainframe, garantindo disponibilidade, qualidade e fiabilidade dos dados para vários stakeholders internos.

Função

  • Suporte operacional (L2) às plataformas de dados, incluindo workloads em Databricks, Cloudera e pipelines geridos por Control-M.
  • Monitorização e análise de falhas em jobs, identificação de incidentes recorrentes e aplicação de correções definitivas.
  • Operação e sustentação dos ambientes de Kafka, Confluent, bases de dados e clusters de processamento relacionados com o pipeline de ingestão.
  • Gestão do processo de offloading de dados, garantindo a replicação correta e consistente entre múltiplas origens (DB2, mainframe, Oracle, MongoDB).
  • Análise de logs e troubleshooting avançado para compreender anomalias, padrões de falha e impactos potenciais nos serviços.
  • Suporte ao programa de transformação para Databricks, garantindo que workloads são migradas, otimizadas e operacionais.
  • Garantir que os dados estão disponíveis, íntegros e que não existem perturbações nos serviços de consumo a jusante.
  • Participar no processo de transição tecnológica: retirar cargas do mainframe, migrar dados e suportar integrações híbridas (ex.: transações que ainda escrevem no mainframe mas lêem do Oracle).
  • Trabalhar em estreita colaboração com a equipa de Offloading & Confluence para assegurar governança, rastreabilidade e estabilidade do fluxo de dados.
  • Documentar procedimentos, melhorias e padrões operacionais.

Estamos à procura de

  • Experiência sólida com Apache Kafka e/ou Confluent Platform.
  • Conhecimentos de Data Lakes, arquiteturas distribuídas e workloads de dados de larga escala.
  • Experiência com Databricks (Azure) e/ou Cloudera.
  • Experiência prática em ambientes de DataOps e pipelines de ingestão.
  • Familiaridade com DB2, Oracle, MongoDB e processos de replicação/offloading.
  • Experiência em ferramentas de scheduling, preferencialmente Control-M.
  • Conhecimentos de análise de logs, troubleshooting e suporte a aplicações/serviços de dados.
  • Compreensão de plataformas on-prem e cloud híbrida.
  • Valorizado: experiência com ecossistemas de mainframe ou migrações a partir de mainframe.

O que pode descobrir connosco?

  • Fazer parte de uma start-up tecnológica em crescimento
  • Diferentes âmbitos de projeto em diferentes sectores
  • Estrutura de remuneração justa e equitativa (Consultant Profile)
  • Formação e certificação
  • Gestão do percurso profissional
  • Mais de 30 parcerias
  • Programa Welvaart Embassador

UNLEASH THE POWER OF YOUR CAREER