.¡Hola Data Lover!En SDG, no solo tendrás la oportunidad de formar parte de algo increíble, ¡sino que vivirás lo que significa ser un auténtico especialista en Data & Analytics!¿Estás preparadx para embarcarte en esta emocionante aventura? Con nosotrxs, podrás potenciar todas tus habilidades y capacidades analíticas, tecnológicas y de negocio.¡Es hora de despegar hacia el futuro mediante el poder de los datos! Únete a nosotros y prepárate para romper las reglas y alcanzar tu mejor versión.Descubre el poder de SDG: líderes globales en la industria del dato.En SDG trabajamos para la mitad de las empresas del IBEX-35, pero también en multitud de compañías internacionales. Gracias al boom de la analítica, estamos en un ritmo constante de crecimiento, y desde 1994 nos hemos convertido en el socio de confianza para empresas que desean maximizar todo el potencial de sus datos.Si buscas formar parte de una compañía 100% especializada en #Data & #Analytics, ¡te estamos esperando!Requisitos mínimosEstar graduado en Ingeniería Informática o de Telecomunicaciones.Tener al menos 4 años de experiencia en un rol de Big Data Engineer, implementando y productivizando soluciones de captación, ingesta y transformación de datos.Experiencia de al menos 2 años trabajando en proyectos de tratamiento de datos en tiempo real.Experiencia en arquitectura de datos (formato, estructura, particionado, modelado, capas y ciclo de vida) en ambientes Data Lake, Data Lakehouse, Kafka Topics & Partitioning, Schema Registry, etc.Además será importante que tengas experiencia en algunas de las siguientes herramientas:Lenguajes: Python, Java o Scala.Conocimientos sólidos en algunos de los frameworks y herramientas más relevantes en el procesamiento de eventos en streaming: Spark Structured Streaming, Flink, KStreams y/o ksqlDB.Conocimientos sólidos sobre Kafka u otros brokers de mensajería, independientemente de si son desplegados en on premise o en cualquier de sus variantes cloud (Confluent, MSK, Pub/Sub, Azure Event Hubs,...).Experiencia en todos los servicios adyacentes a Kafka como Kafka Connect, Schema Registry, MirrorMaker, clientes CDC...Conocimiento y experiencia en el uso de sistemas de control de versiones (VCS), esencialmente Git.Experiencia en la utilización de al menos una de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform), especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos.Requisitos valorablesSe valora de forma muy positiva tener formación a través de un Máster u otras alternativas que aumenten tus skills, por ejemplo, un Máster en Big Data y Analytics.Hacemos muchas pruebas en local con el uso de contenedores, así que será importante que puedas manejar Docker. También será muy bien valorado conocimientos en Kubernetes.Qué conozcas lenguajes que están tomando relevancia ahora en el mundo data como Rust o Elixir es algo que valoraremos muy positivamente también