Data Architect (Snowflake)

Detalles de la oferta

BUSCAMOS : Data Architect (Snowflake) Para importante empresa Sector Tecnología, buscamos un Profesional con experiencia contrastada desempeñando el role de Arquitecto de Datos y al menos 4 años con Snowflake Funciones & Tareas: ? Evaluar y auditar el uso actual de Snowflake y los recursos en la nube para identificar oportunidades de reducción de costes.
? Desarrollar e implementar estrategias de optimización de recursos que aseguren un uso eficiente de la capacidad de almacenamiento y procesamiento.
? Configurar y gestionar monitores de recursos y reportes de gastos para un seguimiento proactivo de los costos.
? Planificar y liderar la migración de procesos de SQL Server Integration Services (SSIS), asegurando una transición sin interrupciones.
? Rediseñar y modernizar flujos de trabajo ETL/ELT para mejorar la eficiencia y escalabilidad.
? Colaborar con los equipos de TI y desarrollo para validar que los procesos migrados cumplan con las normativas de calidad y seguridad.
? Evaluar las necesidades de la empresa y proponer nuevas funcionalidades de Snowflake, como el uso de Snowpark o funciones avanzadas de procesamiento de datos.
? Configurar y gestionar nuevas herramientas y servicios dentro del ecosistema de Snowflake que optimicen los procesos de negocio y de datos.
? Proporcionar capacitación y documentación para equipos internos sobre las nuevas funcionalidades implementadas.
? Diseñar soluciones personalizadas que se alineen con las demandas específicas del sector salud, garantizando el cumplimiento de regulaciones como GDPR y HIPAA.
? Crear scripts y automatizaciones que optimicen los flujos de trabajo y reduzcan la intervención manual en procesos críticos.
? Supervisar y optimizar de forma continua los procesos y el rendimiento de la plataforma para garantizar su estabilidad y eficiencia.
? Resolver problemas técnicos y ajustar la configuración de Snowflake para mantener un rendimiento óptimo.
? Actuar como asesor técnico clave para el equipo de gestión, recomendando mejoras y estrategias de largo plazo en el uso de Snowflake.
? Coordinar con otros consultores y departamentos para alinear las iniciativas de datos con los objetivos de la organización.
? Asegurar que todas las actividades y procesos cumplan con los estándares de seguridad de datos y las políticas de privacidad exigidas en el sector salud.
? Implementar controles y prácticas de gobernanza de datos que protejan la integridad y confidencialidad de la información sensible.
Experiencia & Conocimientos Imprescindibles: ? Conocimientos sólidos en la configuración, optimización y administración de entornos Snowflake, incluyendo el manejo de almacenamiento, costos de procesamiento y políticas de gobernanza de datos.
? Competencia comprobada en la migración de procesos ETL/ELT, especialmente de plataformas legacy como SQL Server Integration Services (SSIS), hacia Snowflake.
? Experiencia en la integración de Snowflake con servicios de Azure, como Azure Data Factory, Azure Blob Storage y otros recursos, para optimizar la conectividad y reducir costos asociados.
? Capacidad para identificar y aplicar estrategias de reducción de costos, como el ajuste de recursos de computación, optimización de pipelines de datos y uso de almacenamiento eficiente.
? Comprensión de las arquitecturas cloud y mejores prácticas en la gestión de infraestructura en la nube para garantizar un enfoque eficiente y rentable.
? Conocimientos en lenguajes como SQL, Python o Shell scripting para automatizar procesos y mejorar flujos de trabajo en la migración.
? Habilidades para liderar proyectos de migración, coordinar con equipos de TI y usuarios clave, y presentar soluciones y estrategias de ahorro de costos.
? Habilidades de comunicación, negociación y trabajo en equipo Requisitos Deseables: ? Certificaciones oficiales de Snowflake y de Azure.
? Familiaridad con plataformas como Talend, Informatica, o Apache NiFi.
? Comprensión de prácticas de DevOps y manejo de herramientas de CI/CD.
? Familiaridad con herramientas de monitoreo y análisis de costos, como Snowflake Resource Monitors y Azure Cost Management.
? Entendimiento de las mejores prácticas de seguridad y marcos de cumplimiento (como GDPR, HIPAA).
? Familiaridad con el manejo de grandes volúmenes de datos y su análisis mediante herramientas y frameworks, como Apache Spark o Hadoop.
Idioma Español ? OFRECEMOS: · Contrato Indefinido (jornada completa) · Oferta económica: hasta 60k · Localización: Madrid - Híbrido (2 días presencial oficinas, 3 días teletrabajo a la semana) · Incorporación: ASAP


Salario Nominal: A convenir

Fuente: Talent_Dynamic-Ppc

Requisitos

Desarrollador/A Software (Kong, Apis), 100% En Remoto

Desarrollador/a Software (KONG, APIs) En SEREM estamos comprometidos con diversos proyectos y queremos contar con los mejores profesionales del sector. Nos ...


Serem - Madrid

Publicado 24 days ago

Responsable Cad / Cam, Bizkaia

Responsable CAD / CAM Perfil buscado (Hombre/Mujer) Será el/la encargado/a de Diseñar gestionar sus trabajos y comunicar tanto con cliente interno como ...


Michael Page - Madrid

Publicado 24 days ago

Desarrollador/A Fullstack, 100% En Remoto

Desarrollador/a Fullstack Descripción En Krell Consulting buscamos un/a Desarrollador/a Fullstack para un proyecto innovador. Si tienes experiencia tanto en...


Krell Consulting & Training - Madrid

Publicado 24 days ago

Administrador/A Terraform, Madrid

Administrador/a Terraform Si crees que la ciberseguridad va más allá del pentesting... ¡Tu sitio está con nosotros!Estamos ampliando nuestros equipos en el s...


GMV - Madrid

Publicado 24 days ago

Built at: 2025-01-07T09:05:31.140Z