Spark Data Engineer

Detalles de la oferta

.¡Hola Data Lover!
En SDG, no solo tendrás la oportunidad de formar parte de algo increíble, ¡sino que vivirás lo que significa ser un auténtico especialista en Data & Analytics !
¿Estás preparadx para embarcarte en esta emocionante aventura?
Con nosotrxs, podrás potenciar todas tus habilidades y capacidades analíticas, tecnológicas y de negocio.
¡Es hora de despegar hacia el futuro mediante el poder de los datos!
Únete a nosotros y prepárate para romper las reglas y alcanzar tu mejor versión.
Descubre el poder de SDG: líderes globales en la industria del dato.
En SDG trabajamos para la mitad de las empresas del IBEX-35, pero también en multitud de compañías internacionales.
Gracias al boom de la analítica, estamos en un ritmo constante de crecimiento , y desde 1994 nos hemos convertido en el socio de confianza para empresas que desean maximizar todo el potencial de sus datos.
Si buscas formar parte de una compañía 100% especializada en #Data, #Analytics e #InteligenciaArtificial , ¡te estamos esperando!
Requisitos mínimos: Estar graduado en Ingeniería Informática o de Telecomunicaciones.
Tener al menos 4 años de experiencia en un rol de Big Data Engineer , implementando y productivizando soluciones de captación, ingesta y transformación de datos con herramientas de procesamiento distribuido y/o procesamiento en streaming.
Experiencia en arquitectura de datos (formato, estructura, particionado, modelado, capas y ciclo de vida) en ambientes Data Lake, Data Lakehouse, Kafka Topics & Partitioning, Schema Registry, etc.
Además será importante que tengas experiencia en algunas de las siguientes herramientas: Lenguajes: Python, Java o Scala.
Herramientas core del entorno de procesamiento en entornos Big Data, especialmente Apache Spark.
Además es importante que tengas conocimientos sólidos de HDFS.
Conocimiento de al menos una plataforma de datos con profundidad: Databricks, AWS EMR, AWS Glue, Elastic Search, GCP Dataflow & Dataproc, etc.
Conocimiento en herramientas de orquestación como Apache Airflow, Azure Data Factory, Databricks workflows,... Conocimiento y experiencia en el uso de sistemas de control de versiones (VCS), esencialmente Git.
Experiencia en la utilización de al menos una de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform) , especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos.
Requisitos valorables: Nos gusta estar al día en nuevas tecnologías, así que necesitamos personas que quieran estar en continua evolución y que tengan ganas de aprender nuevas tecnologías y probar nuevas herramientas.
Para nosotrxs el trabajo en equipo es primordial, por lo que buscamos personas que impulsen ese buen ambiente y las sinergias entre compañerxs y diferentes equipos de trabajo.
Qué conozcas lenguajes que están tomando relevancia ahora en el mundo data como Rust o Elixir es algo que valoraremos muy positivamente también


Salario Nominal: A convenir

Fuente: Jobtome_Ppc

Requisitos

Arquitecto De Software

¿Quiénes somos? ¡SomosSDi Digital Group ! Con una trayectoria de 38 años en el desarrollo e implementación de software, nos enorgullece contar con un equipo ...


Sdi, Soluciones Informaticas - La Rioja

Publicado 18 days ago

Qa Manual

¡Atención, amante de la tecnología! Si eres una persona curiosa, creativa y con pasión por la innovación, ¡esta oportunidad es para ti! En nuestro equipo de ...


Atmira - La Rioja

Publicado 3 days ago

Linux System Engineer

.Arsys is one of the 19 direct participants that Europe has selected to bring to life the IPCEI-CIS, which stands for Important Project of Common European In...


Arsys - La Rioja

Publicado 17 days ago

Técnico/A Soporte It (Logroño)

TRC es una empresa de integración de tecnología con 35 años de experiencia en el sector y sedes en todo el territorio nacional. Actualmente estamos inmersos ...


Trc - La Rioja

Publicado 2 days ago

Built at: 2025-01-23T12:59:37.606Z