.GFT es una compañía pionera en transformación digital que desarrolla soluciones sostenibles basadas en nuevas tecnologías, como la inteligencia artificial y blockchain/DLT. Los expertos de GFT crean e implementan aplicaciones de software escalables que hacen que el acceso a modelos de negocio innovadores sea seguro y sencillo.¿Qué estamos buscando?Buscamos un perfil Data Scientist que quiera desarrollar su carrera profesional en el sector TI. ¿Quieres unirte a nuestro equipo de GFT?Tus principales responsabilidades serán:Diseñarás, desarrollarás y mantendrás pipelines para la extracción, limpieza y transformación de datos con Spark.Trabajarás con una gran variedad de datos (estructurados y no estructurados) relacionados con el producto y todo su ciclo de vida, desde la fase inicial de diseño hasta la venta en nuestros diferentes canales.Realizarás la puesta en producción de soluciones con algoritmos avanzados de aprendizaje automático para mejorar nuestros procesos y decisiones comerciales principales.Participarás en la definición de la arquitectura de las soluciones de analítica avanzada desarrolladas por el squad y su posible integración con herramientas y aplicaciones desarrolladas por otros equipos.Definirás e implementarás mecanismos para la orquestación y monitorización de los procesos y aplicaciones desarrolladas.Participarás en la automatización de tests, CI/CD y despliegue automático de nuestras aplicaciones. Ayudarás en la definición y mejora de los estándares de calidad del código.Participarás en el desarrollo de modelos de AI basados en NLP y LLM.Estarás conectado a los últimos desarrollos en Big Data y MLOps e invertirás tiempo en traer nuevas tecnologías y mejores prácticas.Requisitos deseados:Grado en Informática, Ingeniería u otros campos cuantitativos.Al menos 4 años de experiencia desarrollando en Python, Scala, u otro lenguaje orientado a objetos.Experiencia en natural language processing (NLP) y conocimiento de Large Language Models (LLMs).Experiencia en el desarrollo de ELT escalable, procesos de integración de datos con Spark, Spark Structured Streaming o cualquier otra tecnología de procesamiento de datos.Experiencia en la construcción y el mantenimiento de cargas de datos complejas con un alto volumen y orquestando dependencias (por ejemplo, Airflow).Experiencia llevando a cabo proyectos que involucren algoritmos de Machine Learning, idealmente en un entorno cloud con computación distribuida. Se valorará la experiencia desarrollando modelos matemáticos y algoritmos predictivos (optimización, modelos supervisados y no supervisados, clustering, redes neuronales...).Se valora muy positivamente el interés en buenas prácticas de programación y desarrollo de software: tests, automatizaciones, construyas pipelines en CI, etc.Se valora haber trabajado con servicios de AWS (por ejemplo, S3, Lambda, DynamoDB, API Gateway, Glue, Athena, ECR/ECS), y Databricks es muy deseable