Descripción
Desde **onhunters** estamos buscando **DATA ENGINEER** para trabajar en importante multinacional, en **Toledo**.
Funciones principales:
- Gestión de los datos; recopilación, producción, almacenamiento, tratamiento, uso, intercambio, explotación, análisis, publicación, facilitación del acceso, interoperabilidad, características técnicas,
- Análisis de los requisitos de usuario de alto nível
- Identificación y propuesta de sistemas tecnológicos que satisfagan las especificaciones técnicas y los requisitos
- Definición de tipología y número de usuarios
- Apoyo en la elaboración de un documento que incluya tanto los requisitos de usuario (requisitos operativos o funcionales) como los requisitos técnicos (o no funcionales, así como las restricciones técnicas)
- Apoyo en la elaboración de un documento que describa tanto las especificaciones técnicas como los sistemas tecnológicos propuestos
- Apoyo a la recepción y puesta en marcha de la plataforma inteligente
- Trabajo con herramientas de Extracción, Transformación y Carga de Datos (ETL)
- Modelización de datos y estructuración de la información
- Diseño, entrenamiento y despliegue de algoritmos de análisis de datos
- Operación de bases de datos relacionales tanto SQL como no SQL
- Desarrollar y mantener pipelines de procesamiento de datos para garantizar la disponibilidad, integridad y seguridad de los datos
**Requisitos**:
Mínimos:
- ** Titulación** **Universitaria** (Licenciatura, Ingeniería Superior o Técnica, Diplomatura, Master o Grado), **Nível MECES 2**:
- Experiência profesional en las funciones descritas anteriormente.
- ** Inglés: B1/B2 **o equivalente
**Requisitos Deseables/ Adicionales**
Experiência en:
- Almacenamiento y análisis de datos en Cloud con Amazon Web Services (AWS), Google Cloud Platform o Microsoft Azure
- Máster / Titulación en Big Data, Machine Learning, Data Mining o Inteligencia Artificial (en datos)
- Herramientas Business Intelligence (BI)
- Herramientas Apache Hadoop, Spark y HIVE
- Herramientas de Extracción, Transformación y Carga de Datos (ETL) Apache Kafka, Apache Nifi, Apache Spark, Airflow
- Programación con Python, SQL y R
- Proyectos de Diseño e Implementación de Estrategias de Gestión del Dato en organizaciones
- La Explotación de Bases de Datos Relacionales y no relacionales (ORACLE, ACCESS, SQLserver, MongoDB, MySQL, Cassandra o Redis).
- Conocimientos en Big Data, como Hadoop y Spark
- Proyectos Business Intelligence incluyendo el uso de Herramientas tipo Power BI, incluyendo la Definición y Elaboración de Informes Directivos
- Herramientas para la Gobernanza del Dato
- Operación de herramientas Big Data