Objectifs de la formation
- Analyse et définition de la stratégie Big Data alignée avec la stratégie « business » de l’entreprise en collaboration avec la DSI et les experts métiers
- Pilotage d’un projet de développement d’une plateforme Big Data (architecture et infrastructure) dans un environnement agile
- Construction d’une plateforme Big Data permettant la collecte, l’assemblage, le traitement et le stockage des données générées par les systèmes d’une entreprise
- Administration et supervision d’une plateforme Big Data
- Préparation et Mise à disposition des données d’une plateforme Big Data aux équipes utilisatrices (data scientist, équipe B.I., décideurs et experts métiers)
- Collecter les besoins Data des directions métiers de l’entreprise afin de bâtir ou faire évoluer la/les plateformes de données dans le respect des besoins et attentes des directions métiers et de vérifier l’alignement stratégique
- Concevoir les cahiers des charges technique et fonctionnel d’un projet de développement d’une plateforme Big Data à l’aide des besoins utilisateurs collectés afin de cadrer le développement
- Conduire une équipe projet en diffusant les fondamentaux de l’agilité : adaptation, flexibilité et amélioration continue au sein de l’équipe afin d’être en mesure d’absorber les changements de priorité qui peuvent intervenir dans un contexte de forte contrainte de temps et d’incertitudes
- Concevoir une architecture de collecte et de restitution de données robuste, évolutive, sécurisée et utilisant l’intelligence artificielle (machine learning) afin d’améliorer en continu sa capacité à prédire les besoins Data des experts métiers utilisateurs
- Concevoir une architecture de stockage de données (data warehouse, data lake…) permettant de répondre aux besoins Data des experts métiers et respectant la politique de sécurité des données définie par le/la RSS
- Mettre en place un système d’ingestion de données structurées et non structurées afin de permettre la manipulation et l’accès aux données ainsi que l’authentification des utilisateurs
- Développer un pipeline de données et/ou un pipeline ETL prenant en compte l’environnement technologique déployé (infrastructure, services, applications…) dans le respect du cahier des charges de la solution proposée
- Automatiser des opérations de déploiement, de tests et de maintenance curative et préventive afin de s’assurer de la fiabilité de la solution tout au long de son cycle de vie