Del empleo Cliente final | Flexibilidad y Comunicaciones.
Medio de comunicación cien por cien digital creado durante la pasada década.
Consolidado y en constante crecimiento.
Ubicado en el centro de Madrid.
Responsabilidades Responsable del mantenimiento y optimización de los procesos actuales del DataLake.
Identificar junto con las áreas de negocio nuevos datos valiosos para incorporar al DataLake y montar los procesos para su ingesta.
Responsable de la creación y el mantenimiento de dashboards con DataStudio (Looker) y de la extracción de datos ad hoc para negocio.
Responsable del mantenimiento y evolución de los actuales modelos de machine learning y de la implementación de nuevos modelos.
Control del gasto generado por el DataLake, realizando mejoras y recomendaciones en los procesos para reducir los costes.
Evangelizador en la cultura del dato, trasladando a negocio la importancia del dato y cómo puede beneficiar al área correspondiente.
Fomentar la reutilización de código, haciendo uso y mejorando la librería de funcionalidad ya creada por el periódico.
Oportunidades Oportunidades de carrera y desarrollo profesional.
Posibilidad de % remoto.
Salario 45.
-.
Requisitos mínimos Alto conocimiento en Python.
Alto conocimiento en procesamiento distribuido, en concreto en Spark, deberá haber usado con soltura la biblioteca de datos PySpark.
Conocimiento de la plataforma Google Cloud Platform, en su defecto experiencia demostrable con otros entornos Cloud (AWS o Azure).
Soltura con SQL, además se valorará positivamente la experiencia previa con BigQuery.
Experiencia en arquitectura de datos y orquestación de procesos.
Experiencia deseable con modelos de predicción.
Experiencia previa con metodologías ágiles, así como implementación continua de código CI/CD.
Experiencia con sistemas de visualización, será valorable el conocimiento en DataStudio.
Sensibilidad y capacidad para enfocar su trabajo a los objetivos estratégicos de negocio.
#J-18808-Ljbffr