.¡Hola Data Lover! En SDG, no solo tendrás la oportunidad de formar parte de algo increíble, ¡sino que vivirás lo que significa ser un auténtico especialista en Data & Analytics ! ¿Estás preparadx para embarcarte en esta emocionante aventura? Con nosotrxs, podrás potenciar todas tus habilidades y capacidades analíticas, tecnológicas y de negocio. ¡Es hora de despegar hacia el futuro mediante el poder de los datos! Únete a nosotros y prepárate para romper las reglas y alcanzar tu mejor versión. Descubre el poder de SDG: líderes globales en la industria del dato. En SDG trabajamos para la mitad de las empresas del IBEX-35, pero también en multitud de compañías internacionales. Gracias al boom de la analítica, estamos en un ritmo constante de crecimiento , y desde 1994 nos hemos convertido en el socio de confianza para empresas que desean maximizar todo el potencial de sus datos. Si buscas formar parte de una compañía 100% especializada en #Data & #Analytics , ¡te estamos esperando! Requisitos mínimos Estar graduado en Ingeniería Informática o de Telecomunicaciones. Tener al menos 4 años de experiencia en un rol de Big Data Engineer, implementando y productivizando soluciones de captación, ingesta y transformación de datos. Experiencia de al menos 2 años trabajando en proyectos de tratamiento de datos en tiempo real. Experiencia en arquitectura de datos (formato, estructura, particionado, modelado, capas y ciclo de vida) en ambientes Data Lake, Data Lakehouse, Kafka Topics & Partitioning, Schema Registry, etc. Además será importante que tengas experiencia en algunas de las siguientes herramientas: Lenguajes: Python, Java o Scala. Conocimientos sólidos en algunos de los frameworks y herramientas más relevantes en el procesamiento de eventos en streaming: Spark Structured Streaming, Flink, KStreams y/o ksqlDB. Conocimientos sólidos sobre Kafka u otros brokers de mensajería, independientemente de si son desplegados en on premise o en cualquier de sus variantes cloud (Confluent, MSK, Pub/Sub, Azure Event Hubs,...). Experiencia en todos los servicios adyacentes a Kafka como Kafka Connect, Schema Registry, MirrorMaker, clientes CDC... Conocimiento y experiencia en el uso de sistemas de control de versiones (VCS), esencialmente Git. Experiencia en la utilización de al menos una de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform), especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos. Requisitos valorables Se valora de forma muy positiva tener formación a través de un Máster u otras alternativas que aumenten tus skills, por ejemplo, un Máster en Big Data y Analytics. Hacemos muchas pruebas en local con el uso de contenedores, así que será importante que puedas manejar Docker. También será muy bien valorado conocimientos en Kubernetes