Data Engineer AWS/Python
Desde Grupo NS precisamos incorporar un Data Engineer con experiencia en AWS con nivel avanzado de inglés para un proyecto 100 remoto
Requisitos
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas no estructuradas y semiestructuradas utilizando SQL NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real de streaming por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda AWS
Step Functions y Glue AWS S3 Redshift Kinesis DynamoDB Apache Spark
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python además de PySpark SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
Grupo NS es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello requerimos personas constantes con ganas de evolucionar y aprender.
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas no estructuradas y semiestructuradas utilizando SQL NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real de streaming por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda AWS
Step Functions y Glue AWS S3 Redshift Kinesis DynamoDB Apache Spark
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python además de PySpark SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
python,azure,pyspark,databrick,AWS