Data Engineer en hibrido. ¿Quieres formar parte del #TeamPanel? Ampliamos nuestro equipo y nos gustaría contar contigo para formar parte de un proyecto en el que estamos trabajando integrados en cliente. Llevamos la innovación y la excelencia tecnológica en nuestro ADN y trabajamos con actitud positiva y con pasión para alcanzar nuestro objetivo ayudar a nuestros clientes en su proceso de transformación. Requisitos de la oferta... Experiencia en - SQL - Trabajo con procesos de ETLs y modelos de datos. - Programación en Python para el tratamiento de datos. - Recomendable haber trabajado en entornos de sistemas con interfaces SOAP y/o microservicios. - Inglés C1 (conversación fluida para mantener dailys diarias). Valorable - DBT (Data Build Tool) - Databricks - Data Pipelines - Apache Spark pySpark - Desarrollo de Data Apis - BigQuery De qué estarás a cargo... Trabajarás en entornos masivos de datos en equipo Agile en área financiera. Diseño y desarrollo de soluciones de análisis de datos. Refinamiento de soluciones técnicas para adecuarlas a frameworks y estándares del cliente. Implementación de Data pipelines Data processes Apis sobre plataformas de datos. Soporte al equipo QA. Lugar de trabajo Híbrido (tres días a la semana en Madrid zona barrio de Salamanca). ¿Qué ofrecemos? Formación continua. Impulsaremos tu Talento con un Plan de Desarrollo Profesional y Programas de Tutoría individualizada. Completo Programa de formación que incluye desde programas de especialización técnica hasta idiomas habilidades en gestión de proyectos metodologías ágiles y certificaciones. Tanto on-line como presencial. Políticas de conciliación como el Teletrabajo en modo full-remote jornada continua los viernes y en verano flexibilidad horaria días de permiso en navidad y facilidades para la movilidad geográfica de los empleados. Beneficios sociales como retribución flexible complemento al 100 de bajas médicas condiciones especiales en seguro médico privado o Tarjeta VISA empleados. Nuestra empresa es hoy referencia en entorno Cloud participando en varios proyectos de investigación a nivel europeo y con muchos más proyectos sobre los que podrás diseñar una trayectoria profesional a largo plazo. Aplica y nos conoceremos data, Data Build Tool, Databricks, Data Pipelines, Python, spark, pySpark, data apis, BigQuery, ETL,