Tu misión será asegurar y mantener todos los procesos relacionados con la integración, construcción, procesamiento y extracción de las bases de datos con las que trabaja la plataforma la compañía.
Liderar el diseño y desarrollo de arquitecturas de datos robustos y escalables, garantizando la eficiencia, la fiabilidad y el rendimiento óptimo.
Crear y mantener pipelines de datos complejos y de alto rendimiento utilizando herramientas como Python, PySpark y tecnologías relacionadas.
Desarrollar y mantener infraestructuras de datos de vanguardia utilizando plataformas como Azure Datalake, Kubernetes y otras tecnologías de Big Data.
Desarrollar y mantener scripts y herramientas de web scraping para la extracción de datos de fuentes externas Implementar pruebas unitarias y de integración para garantizar la calidad y fiabilidad de los sistemas de datos desarrollados.
Proporcionar orientación técnica y liderazgo al equipo en la resolución de problemas complejos de programación y arquitectura de datos.
Investigar y evaluar nuevas tecnologías y herramientas para mejorar continuamente nuestras capacidades de gestión y análisis de datos.
Nuestro perfil Experiencia significativa (mínimo 5 años) en el diseño, desarrollo e implementación de pipelines de datos complejos utilizando Python, PySpark u otras tecnologías similares.
Licenciatura/grado o posgrado en Ciencias de la Computación, Ingeniería Informática, Matemáticas, o campos relacionados.
Profundo conocimiento y experiencia en la construcción de infraestructuras de datos escalables y de alto rendimiento utilizando Azure Datalake, Kubernetes y otras tecnologías de Big Data.
Experiencia en el diseño y desarrollo de arquitecturas de datos distribuidas y en la resolución de problemas de escalabilidad y rendimiento.
Valorable experiencia en desarrollo y aplicación de modelos de machine learning.
Fuertes habilidades de liderazgo y capacidad para proporcionar orientación técnica al equipo.