Lo sentimos, la oferta no está disponible,
pero puedes realizar una nueva búsqueda o explorar ofertas similares:

Quality Assurance Intern

Abbott Abbott es una compañía biomédica, diversificada al cuidado de la salud, dedicada a mejorar la vida de las personas gracias al desarrollo de productos...


Desde Abbott Laboratories - Madrid

Publicado a month ago

Open Gateway Team Leader - (Ne166)

Do you want to be a part of the built of our Open Gateway program that will be used across the Telefonica group? Join the Open Gateway team in group CTIO as ...


Desde Telefonica - Madrid

Publicado a month ago

[Post-Doc Researcher][ Vlc And 5G/6G Localization Systems / Pervasive Wireless System Group] [2[...]

Detalles del empleo Tipo de empleo: Jornada completa Ubicación: Leganés, Madrid provincia Descripción completa del empleo Empresa: Fundación IMDEA Networks R...


Desde Fundación Imdea Networks - Madrid

Publicado a month ago

Busqueda Urgente: Senior Software Developer (D/F/M) Tk Elevator Iberica Holding, Sl Unipersonal[...]

People are at the center of everything we do at TK Elevator – we work as one global team, watch out for each other's safety and share a common vision to keep...


Desde Thyssenkrupp Elevator - Madrid

Publicado a month ago

Detalles de la oferta

.GFT es una compañía pionera en transformación digital que desarrolla soluciones sostenibles basadas en nuevas tecnologías, como la inteligencia artificial y blockchain/DLT. Los expertos de GFT crean e implementan aplicaciones de software escalables que hacen que el acceso a modelos de negocio innovadores sea seguro y sencillo.¿Qué estamos buscando?Buscamos un perfil Data Scientist que quiera desarrollar su carrera profesional en el sector TI. ¿Quieres unirte a nuestro equipo de GFT?Tus principales responsabilidades serán:Diseñarás, desarrollarás y mantendrás pipelines para la extracción, limpieza y transformación de datos con Spark.Trabajarás con una gran variedad de datos (estructurados y no estructurados) relacionados con el producto y todo su ciclo de vida, desde la fase inicial de diseño hasta la venta en nuestros diferentes canales.Realizarás la puesta en producción de soluciones con algoritmos avanzados de aprendizaje automático para mejorar nuestros procesos y decisiones comerciales principales.Participarás en la definición de la arquitectura de las soluciones de analítica avanzada desarrolladas por el squad y su posible integración con herramientas y aplicaciones desarrolladas por otros equipos.Definirás e implementarás mecanismos para la orquestación y monitorización de los procesos y aplicaciones desarrolladas.Participarás en la automatización de tests, CI/CD y despliegue automático de nuestras aplicaciones. Ayudarás en la definición y mejora de los estándares de calidad del código.Participarás en el desarrollo de modelos de AI basados en NLP y LLM.Estarás conectado a los últimos desarrollos en Big Data y MLOps e invertirás tiempo en traer nuevas tecnologías y mejores prácticas.Requisitos deseados:Grado en Informática, Ingeniería u otros campos cuantitativos.Al menos 4 años de experiencia desarrollando en Python, Scala, u otro lenguaje orientado a objetos.Experiencia en natural language processing (NLP) y conocimiento de Large Language Models (LLMs).Experiencia en el desarrollo de ELT escalable, procesos de integración de datos con Spark, Spark Structured Streaming o cualquier otra tecnología de procesamiento de datos.Experiencia en la construcción y el mantenimiento de cargas de datos complejas con un alto volumen y orquestando dependencias (por ejemplo, Airflow).Experiencia llevando a cabo proyectos que involucren algoritmos de Machine Learning, idealmente en un entorno cloud con computación distribuida. Se valorará la experiencia desarrollando modelos matemáticos y algoritmos predictivos (optimización, modelos supervisados y no supervisados, clustering, redes neuronales...).Se valora muy positivamente el interés en buenas prácticas de programación y desarrollo de software: tests, automatizaciones, construyas pipelines en CI, etc.Se valora haber trabajado con servicios de AWS (por ejemplo, S3, Lambda, DynamoDB, API Gateway, Glue, Athena, ECR/ECS), y Databricks es muy deseable


Fuente: Jobtome_Ppc

Requisitos

Built at: 2024-11-03T21:12:52.509Z