DescriptionLe rôle Opérationnaliser l'extraction de données, les modèles de données et les flux de données dans Azure (bout en bout ingestion et distribution)Configurer les services liés, point de terminaison privé, runtimes d'intégration, pour Logic Apps, etc.Configurer et entretenir les pools Spark serverless, workspaces Power BI, d'automatisation de workflows, pipelines, déclencheurs, et de stockage de données.Developer et maintenir les modèles de données existants construits avec les notebooks PySparkConserver toutes les données et ressources informatiques dans un environnement sécurisé et conformePublier des rapports Power BI et gérer les espaces de travail, les accès et les rôlesDéployer, maintenir et prendre en charge les référentiels Git, les processus ETL, les pipelines de données dans Azure Synapse, Logic Apps, etc.Coder les notebooks PySpark pour créer des datamarts dans AzureMaintenir et évoluer les ressources alimentent les flux de données via les modèles de donnéesDocumenter la base de code, les bases de données, les lacs de données et les processus ETL QualificationsLes exigences Ambition de maitriser les plateformes technologiques et leur évolutionRigueur et attention aux détails pour résoudre les incidentes et bugs et documenter la base de code et les flux de donnéesEmpathie avec les utilisateurs et les collègues informatiques lors de la prise en charge du lac de donnéesCompétences DevOps avancées dans les environnements Azure : mise en réseau, sécurité, intégration, configurationCompétences de développement PySparkExcellente maîtrise du français et de l'anglais conversationnelCommandement de l'anglais écrit pour documenter le matériel techniquePower BI Premium dans les environnements d'entreprise avec des milliers d'utilisateurs et des rôlesAzure Synapse, Logic AppsScripting PySpark dans Azure SynapseContrôle de version Git pour les bases de code de grande tailleMéthodologie Agile, framework Scrum
#J-18808-Ljbffr