.Merlin Digital Partner : Your Strategic Talent Partner in the Digital Ecosystem At Merlin, we are a leading talent acquisition consultancy with over 20 years of experience in the digital world. We proudly support startups, scaleups, and corporates in more than 10 countries, helping them find the talent they need to thrive across 15+ areas of specialization. Currently, we are in search of a Sr. Data Engineer to join the team of our partner, a Spanish scaleup in full expansion, headquartered in Barcelona with international presence. La misión: Desarrollar y liderar una estrategia de implementación basada en inteligencia artificial, diseñando una hoja de ruta que guíe la integración y optimización de soluciones de AI dentro de la infraestructura de datos de la organización. El Rol: Desarrollar, probar y mantener procesos robustos de ETL / ELT para la ingesta y transformación de grandes volúmenes de datos estructurados y no estructurados provenientes de diversas fuentes. Diseñar e implementar modelos de datos y soluciones de almacenamiento escalables para apoyar iniciativas de análisis, aprendizaje automático e inteligencia de negocios. Integrar diversas fuentes de datos externas e internas en plataformas de datos centralizadas y automatizar tareas repetitivas para mejorar la eficiencia. Implementar y mantener las mejores prácticas de gobernanza de datos, asegurando alta calidad, seguridad y cumplimiento con estándares de la industria (GDPR, HIPAA, etc.). Colaborar estrechamente con científicos de datos, analistas y partes interesadas del negocio para comprender sus necesidades de datos y asegurar la entrega oportuna de datos precisos y relevantes. Monitorear continuamente el rendimiento de la infraestructura de datos, identificando cuellos de botella y optimizando los sistemas para mejorar la velocidad, eficiencia en la concurrencia, rendimiento de consultas y eficiencia de almacenamiento. Trabajar estrechamente con el equipo de ciencia de datos para implementar pipelines de análisis de datos. Qué necesitamos? Experiencia en el diseño y construcción de sistemas de datos a gran escala, con experiencia en ETL / ELT, modelado de datos y almacenamiento de datos. Fuertes habilidades de programación en Python y conocimientos avanzados en SQL para manipulación y análisis de datos. Experiencia práctica con plataformas en la nube como AWS, Google Cloud o Azure, incluyendo servicios como AWS Redshift, BigQuery o Azure Data Lake. Experiencia con tecnologías de big data como Hadoop, Spark, Kafka u otros marcos de computación distribuida. Conocimiento de bases de datos SQL y NoSQL (por ejemplo, PostgreSQL, MySQL, MongoDB, Cassandra) y experiencia en modelado de datos para un rendimiento óptimo. Competencia con herramientas de pipelines y orquestación de datos como Airflow, Prefect o Luigi. Sólida comprensión de soluciones de almacenamiento de datos, incluidos lagos de datos y almacenes de datos