Lo sentimos, la oferta no está disponible,
pero puedes realizar una nueva búsqueda o explorar ofertas similares:

(Pfq669) - Licenciatura O Grado + Máster Oficial

.Licenciatura o Grado + Máster Oficial - Evaluación de Riesgo Salud Humana (Madrid)Vacantes Previstas: 4Empresa: TragsatecProyecto/ Motivo contratación: Empr...


Grupo Tragsa - Madrid

Publicado 14 days ago

Oyn391 - Analista Funcional Cobol/Linux, Hibrido

Analista Funcional Cobol/Linux en hibrido.- ¿Quieres crecer profesionalmente? ¿Buscas nuevos retos a nivel profesional? ¡Te estamos buscando! En TUYÚ Technol...


Tuyú Technology - Madrid

Publicado 14 days ago

Grabador/A De Datos Getafe | C-605

Desde la oficina RAS INTERIM Getafe seleccionamos grabadores de Datos para empresa del sector Gestión Documental ubicada en Getafe.TUS RESPONSABILIDADESPrepa...


Ras Interim - Madrid

Publicado 14 days ago

Senior Java Developer, Madrid | Ts381

Senior Java developer en Madrid.Empresa dedicada a la prestación de servicios de tecnologías de la información en todas las áreas de IT y en actual expansión...


Apolo It Group - Madrid

Publicado 14 days ago

Detalles de la oferta

Buscamos un Cloud Data LeadEn Clarel, somos líderes en la distribución de productos de belleza, cuidado personal y del hogar. Con cerca de 1.000 tiendas en todo el territorio español, estamos en constante crecimiento y evolución.Como Cloud Data Lead, serás responsable de liderar, diseñar, desarrollar y gestionar los flujos de trabajo de extracción, transformación y carga (ETL) de datos en la nube, así como de administrar y optimizar los entornos de BigQuery de la compañía. Trabajarás en estrecha colaboración con equipos de análisis de datos y Business Intelligence, asegurando la eficiencia, integridad y seguridad de los datos gestionados. Serás clave en la implementación de soluciones escalables en Google Cloud Platform (GCP) para la gestión de grandes volúmenes de datos, optimizando los recursos y mejorando el rendimiento. Responsabilidades:Administración de BigQuery y Cloud Infrastructure: Gestionar y optimizar el entorno de BigQuery, asegurando la disponibilidad, escalabilidad y rendimiento óptimo de las bases de datos. Implementar y mantener las políticas de seguridad y acceso a los datos en BigQuery, garantizando el cumplimiento de las normativas.Diseño y Desarrollo de ETL: Diseñar, desarrollar y gestionar pipelines ETL eficientes para la extracción, transformación y carga de grandes volúmenes de datos utilizando Google Dataflow y automatizar los procesos de ETL y gestionar su orquestación utilizando herramientas como Apache Airflow.Optimización de Consultas y Rendimiento: Diseñar consultas SQL optimizadas en BigQuery, maximizando el rendimiento y minimizando el tiempo de ejecución. Identificar y resolver cuellos de botella en el procesamiento de datos, ajustando y optimizando los pipelines de ETL.Monitorización y Resolución de Incidencias: Implementar herramientas de monitorización como Grafana o Prometheus para asegurar el rendimiento óptimo de las integraciones y detectar posibles incidencias en BigQuery.Colaboración con Equipos de Análisis y BI: Colaborar estrechamente con los equipos de análisis de datos y Business Intelligence para proporcionar conjuntos de datos fiables y optimizados.Documentación y Mejora Continua: Documentar las arquitecturas de datos, pipelines ETL y configuraciones de BigQuery para garantizar una buena gobernanza de los datos. Requisitos:Formación: Grado en Ingeniería Informática, Ciencias de la Computación, Matemáticas o un campo relacionado, o experiencia equivalente.Experiencia: Mínimo 3 años de experiencia combinada en la administración de BigQuery y en el diseño e implementación de procesos ETL utilizando Google Cloud Platform.Conocimientos Técnicos: Sólida experiencia en SQL, BigQuery, Google Cloud Platform (GCP), Google Dataflow, y en herramientas de orquestación como Apache Airflow y ETL como Talend.Habilidades de Programación: Conocimientos en lenguajes como Python, Java o similar, para desarrollar scripts y pipelines ETL.Optimización de Consultas: Experiencia en optimización de consultas SQL y en la mejora del rendimiento en entornos de grandes volúmenes de datos.Monitorización: Experiencia en la implementación de herramientas de monitorización como Grafana o Prometheus para gestionar y detectar problemas en tiempo real.Automatización de Infraestructura: Familiaridad con herramientas como Terraform o Ansible para la administración de infraestructura como código (IaC).Deseable: Conocimientos de Dataplex y experiencia con Cortex serán valorados positivamente.Comunicación y Colaboración: Capacidad para trabajar en equipo, colaborar con múltiples stakeholders y comunicar conceptos técnicos a equipos no técnicos.Te Ofrecemos:Trabajar en un entorno inmejorable de trabajo, dinámico y colaborativo.Integrarte en una compañía con propósito y valoresDisponer de la flexibilidad del teletrabajo, permitiéndote una mejor conciliación con tu vida personal.Paquete integral de beneficios competitivo y oportunidades de desarrollo profesional asociados a tu puesto.
#J-18808-Ljbffr


Salario Nominal: A convenir

Fuente: Whatjobs_Ppc

Requisitos

Built at: 2024-11-11T01:53:24.733Z