Data Engineer Aws/Python, 100% En Remoto

Detalles de la oferta

Data Engineer AWS/Python
Desde Grupo NS precisamos incorporar un Data Engineer con experiencia en AWS con nivel avanzado de inglés para un proyecto 100 remoto

Requisitos

Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas no estructuradas y semiestructuradas utilizando SQL NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real de streaming por lotes y bajo demanda.

Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda AWS

Step Functions y Glue AWS S3 Redshift Kinesis DynamoDB Apache Spark

Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS

Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation Data Pipeline

Experiencia o exposición a AWS Dynamo DB será un plus

Desarrollo de código orientado a objetos utilizando Python además de PySpark SQL

Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y

producción desde Kafka Kinesis sería un plus

Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno

empresarial utilizando Apache Airflow/Control M

Experiencia implementando Redshift en AWS o cualquiera de Databricks

Grupo NS es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.

Por ello requerimos personas constantes con ganas de evolucionar y aprender.

Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas no estructuradas y semiestructuradas utilizando SQL NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real de streaming por lotes y bajo demanda.

Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda AWS

Step Functions y Glue AWS S3 Redshift Kinesis DynamoDB Apache Spark

Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS

Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation Data Pipeline

Experiencia o exposición a AWS Dynamo DB será un plus

Desarrollo de código orientado a objetos utilizando Python además de PySpark SQL

Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y

producción desde Kafka Kinesis sería un plus

Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno

empresarial utilizando Apache Airflow/Control M

Experiencia implementando Redshift en AWS o cualquiera de Databricks

python,azure,pyspark,databrick,AWS


Salario Nominal: Desde € 31500 Hasta € 31500

Fuente: Tecnoempleo

Requisitos

Beca En Java Development, Hibrido - Primer Empleo

Beca en JAVA Development ¿Hablas inglés español? ¿Te gustaría trabajar en un ambiente internacional? ¿Quieres participar en el crecimiento de un equipo de ...


Bnp Paribas - Madrid

Publicado 4 days ago

Data Engineer Denodo, 100% En Remoto

Data engineer Denodo Desde CMV Consultores te brindamos las mejores oportunidades en importantes clientes. Es un proyecto nuevo el cliente está replanteando...


Cmv Consultores - Madrid

Publicado 4 days ago

Data Scientist - Pyspark, Hibrido

Data Scientist - PySpark Descripción ¡Excelente Oportunidad Laboral! En Krell Consulting estamos en busca de un/a Data Scientist con 2-3 años de experienc...


Krell Consulting & Training - Madrid

Publicado 5 days ago

Técnico En Equipos Electrónicos, Baleares - Primer Empleo

Técnico en equipos electrónicos Se ofrece un puesto como Técnico de equipos electrónicos en la fábrica de ROBOT S.A. ubicada en Palma de Mallorca. El/la can...


ROBOT S.A. - Madrid

Publicado 5 days ago

Built at: 2025-01-13T23:22:59.675Z