.¿Quiénes somos? Somos una empresa experta en ayudar a crecer a otras a través de nuestro dominio tecnológico , resolución de retos tecnológicos complejos y foco en la excelencia operacional . Desde 2012, hemos crecido anualmente a un ritmo medio del 30% y durante tres años consecutivos hemos sido una de las empresas de mayor crecimiento en Europa según el Financial Times. Somos nativos/as digitales y neutrales tecnológicos gracias a nuestras capacidades de rápida adaptación y resolución a cualquier situación y reto de negocio. Nos apasionan los retos tecnológicos de gran impacto en negocio . Para ello, contamos con equipos de alto rendimiento y la capacidad de combinar tecnologías de forma rápida y solvente. Acompañamos en la evolución digital de nuestros clientes para conseguir la máxima eficiencia en sus negocios, aportando nuestra extensa experiencia multisectorial. ¿Qué harás? En INNOCV Solutions estamos creciendo y trabajando en nuevos proyectos. Te unirás a uno de nuestros equipos, realizando las siguientes funciones : Crearás procesos ETL en la tecnología que mejor se adapte a la necesidad de cada cliente. Junto con el equipo, diseñarás plataformas que procesen un gran volumen de datos. Desarrollarás con servicios en las principales nubes (Azure, AWS, etc…). Crearás ETL que procesen datos en tiempo real. Integrarás datos de distintas fuentes con tecnologías como Mulesoft o Talent. ¿Qué valoramos? Amplia experiencia en Python para el desarrollo de soluciones de procesamiento de datos, incluyendo la automatización de pipelines y la manipulación de grandes volúmenes de datos. Dominio de Apache Spark (PySpark) , incluyendo la creación de pipelines ETL eficientes y el procesamiento distribuido de datos. Expertise en modelado de datos tanto físico como lógico, con capacidad para diseñar estructuras eficientes y escalables. Experiencia sólida en diseño, implementación y optimización de pipelines ETL en entornos de producción. Dominio avanzado de SQL y PLSQL , con habilidad para realizar consultas complejas y optimizar el rendimiento de bases de datos. Experiencia en administración y optimización de bases de datos relacionales (PostgreSQL, MySQL) y NoSQL (MongoDB, Cassandra) , asegurando alta disponibilidad y escalabilidad. Experiencia en plataformas cloud (Azure, AWS, GCP) , con enfoque en el despliegue de soluciones de datos y el uso de servicios como Dataproc, EMR, Dataflow o Redshift. Nivel de inglés avanzado en comunicación escrita y verbal. Además, aunque no es imprescindible, también nos gustaría: Dominio de Databricks para el manejo de grandes volúmenes de datos, orquestación de procesos distribuidos y análisis en tiempo real. Experiencia en el uso de colas de mensajes (Kafka, RabbitMQ, SQS, etc.) para la ingesta y gestión de flujos de datos en tiempo real, garantizando baja latencia y alta fiabilidad