.¿Quiénes somos?Somos una empresa experta en ayudar a crecer a otras a través de nuestro dominio tecnológico, resolución de retos tecnológicos complejos y foco en la excelencia operacional. Desde 2012, hemos crecido anualmente a un ritmo medio del 30% y durante tres años consecutivos hemos sido una de las empresas de mayor crecimiento en Europa según el Financial Times.Te invitamos a conocernos en profundidad navegando por los distintos apartados de nuestra página web: https://www.Innocv.Com/¿Qué harás?En INNOCV Solutions estamos creciendo y trabajando en nuevos proyectos. Te unirás a uno de nuestros equipos, realizando las siguientes funciones:Crearás procesos ETL en la tecnología que mejor se adapte a la necesidad de cada cliente.Junto con el equipo, diseñarás plataformas que procesen un gran volumen de datos.Desarrollarás con servicios en las principales nubes (Azure, AWS, etc.).Crearás ETL que procesen datos en tiempo real.Integrarás datos de distintas fuentes con tecnologías como Mulesoft o Talend.¿Qué valoramos?Amplia experiencia en Python para el desarrollo de soluciones de procesamiento de datos, incluyendo la automatización de pipelines y la manipulación de grandes volúmenes de datos.Dominio de Apache Spark (PySpark), incluyendo la creación de pipelines ETL eficientes y el procesamiento distribuido de datos.Expertise en modelado de datos tanto físico como lógico, con capacidad para diseñar estructuras eficientes y escalables.Experiencia sólida en diseño, implementación y optimización de pipelines ETL en entornos de producción.Dominio avanzado de SQL y PLSQL, con habilidad para realizar consultas complejas y optimizar el rendimiento de bases de datos.Experiencia en administración y optimización de bases de datos relacionales (PostgreSQL, MySQL) y NoSQL (MongoDB, Cassandra), asegurando alta disponibilidad y escalabilidad.Experiencia en plataformas cloud (Azure, AWS, GCP), con enfoque en el despliegue de soluciones de datos y el uso de servicios como Dataproc, EMR, Dataflow o Redshift.Nivel de inglés avanzado en comunicación escrita y verbal.Además, aunque no es imprescindible, también nos gustaría:Dominio de Databricks para el manejo de grandes volúmenes de datos, orquestación de procesos distribuidos y análisis en tiempo real.Experiencia en el uso de colas de mensajes (Kafka, RabbitMQ, SQS, etc.) para la ingesta y gestión de flujos de datos en tiempo real, garantizando baja latencia y alta fiabilidad.Conocimiento en frameworks de Machine Learning (TensorFlow, Scikit-learn, PyTorch) y su integración con pipelines de datos, contribuyendo a la analítica avanzada y la inteligencia artificial.Experiencia en herramientas de Business Intelligence (Tableau, QlikView, Power BI) para la creación de dashboards y visualización de datos, facilitando la toma de decisiones informadas.Titulación universitaria en áreas relacionadas con Ciencias de la Computación, Ingeniería de Sistemas o afines