Consultant en data expérimenter, je vous propose une approche personnalisée pour vous aider à comprendre et à exploiter vos données. Maîtrisant toute la chaîne de valeur data, je vous accompagne dans votre transformation numérique.
Établissement d'un référentiel unique : centralisation des informations sur les données (origine, format, qualité).
Mise en place de processus de qualité : définition d'indicateurs et de règles pour garantir la fiabilité des données.
Sécurité des données : mise en place de mesures pour protéger les données et définir les responsabilités.
Sensibilisation des utilisateurs : formation et communication pour une meilleure compréhension et utilisation des données.
Suivi et évaluation : mise en place d'un système de suivi pour mesurer l'efficacité de la gouvernance.
Ingénieur Data
Conception d'une architecture flexible : choix de l'architecture adaptée (entrepôt, lac de données) et intégration de nouvelles sources.
Création de pipeline avec différents ETL (Talend, SSIS) : création de schémas optimisés pour les requêtes.
Modélisation des données : création de schémas optimisés pour les requêtes.
Infrastructure robuste : mise en place d'un environnement sécurisé et performant.
Standards et conventions : définition de règles pour assurer la cohérence de l'architecture.
Analyste Data
Exploration des données : recherche de tendances, de corrélations et d'anomalies.
Modélisation prédictive : création de modèles pour faire des prévisions.
Visualisation : utilisation d'outils pour présenter les résultats de manière claire.
Expériences
SUD OUEST (33)-12/2022 - 01/2024 Compétences Techniques : Python, SQL, HTML, CSS, JS, Spark, GCP En tant que Consultant Data, j'ai piloté la transformation numérique de l'entreprise en mettant en œuvre une stratégie data ambitieuse. Mon expertise technique en Python et Google Cloud Platform (GCP) m'a permis de :
Concevoir une architecture de données scalable et flexible sur GCP : J'ai mis en place une infrastructure cloud robuste et évolutive pour stocker, traiter et analyser de grandes quantités de données.
Développer des pipelines de données en Python : J'ai automatisé la collecte, la transformation et le chargement des données (ETL) à l'aide de langages comme Python et de bibliothèques spécialisées (Pandas, NumPy, etc.).
Créer des modèles prédictifs personnalisés : J'ai utilisé des algorithmes de machine learning (implémentés en Python) pour développer des modèles capables de prédire les comportements clients et d'optimiser les campagnes marketing.
Mettre en place un moteur de recommandation avec Flask : J'ai développé une application web (avec Flask) pour proposer des contenus personnalisés aux utilisateurs en fonction de leurs préférences et de leur historique de navigation.
AGIRC ARRCO (33)-02/2022 - 12/2022 Compétences Techniques : Python, SQL, HTML, CSS, JS, Py Spark En tant que Consultant Data, ma mission principale consistait à mettre en place un environnement de gestion de données robuste et fiable. Cet environnement avait pour objectifs :
Améliorer la qualité des données : En identifiant et en corrigeant les anomalies, en définissant des processus de contrôle qualité rigoureux (AMDEC) et en mettant en place un référentiel de données complet.
Faciliter la prise de décision : En fournissant aux utilisateurs des outils d'analyse performants et des données fiables pour les aider à mieux comprendre les enjeux liés à la gestion des régimes de retraite.
Simplifier l'accès aux données : En centralisant les données dans une base unique et en développant des interfaces utilisateur intuitives (Flask).
Soutenir les évolutions réglementaires : En adaptant en permanence l'environnement de données aux nouvelles exigences légales.
VEOLIA (33)-05/2020 – 01/2022 Compétences Techniques : Python, SQL, HTML, CSS, JS, Cloudera En tant que Consultant Data, j'ai joué un rôle clé dans l'amélioration de la qualité des services rendus par Veolia à la ville de Bordeaux. Mon objectif principal était de mettre en place une solution data permettant de restituer aux équipes municipales des informations précises et fiables sur l'activité d'assainissement.
Mise en place d'une plateforme de données centralisée : J'ai conçu et déployé une infrastructure de données robuste (basée sur Cloudera) capable de stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Amélioration de la qualité des données : J'ai défini et mis en œuvre des processus rigoureux pour garantir la cohérence, l'intégrité et la fiabilité des données. Cela a notamment impliqué la création d'un référentiel de données complet et la mise en place de règles de qualité strictes.
Développement d'outils d'analyse personnalisés : J'ai développé des tableaux de bord et des visualisations interactives pour permettre aux utilisateurs de facilement explorer les données et de répondre à des questions spécifiques (par exemple, calculer la distance entre un point et un polygone).
Accompagnement des utilisateurs : J'ai formé les équipes municipales à l'utilisation des outils mis en place et je les ai assistées dans leurs analyses.
LAPISCINE (33)-03/2020 – 04/2020 Compétences Techniques : Python Visualisation Power BI
Parcours différenciés et adaptés aux différents niveaux et objectifs des apprenants (débutants, confirmés, spécialisation).
Modules optionnels sur des sujets spécifiques (data science, machine Learning, développement web, etc.) pour permettre aux apprenants d'approfondir leurs connaissances.
Suivi personnalisé à l’aide d’outils d'analyse pour suivre la progression de chaque apprenant et lui proposer des exercices ciblés en fonction de ses difficultés.
PRIMAGAZ(92)-10/2019 – 03/2020 Compétences Techniques : Python Visualisation Power BI En tant qu'analyste de données chez Primagaz, ma mission principale consistait à améliorer la qualité des données issues des compteurs de gaz afin d'optimiser la gestion des contrats clients et d'améliorer la prise de décision au sein de l'entreprise.
Pour atteindre cet objectif, j'ai mené les actions suivantes :
Nettoyage et préparation des données : J'ai développé des algorithmes en Python pour identifier et corriger les anomalies présentes dans les données des compteurs de gaz, telles que les valeurs aberrantes, les doublons ou les erreurs de format. Cette étape cruciale a permis d'obtenir une base de données fiable et cohérente.
Élaboration d'un dictionnaire de données : J'ai créé un référentiel complet décrivant chaque variable utilisée dans les analyses (type, unité, signification). Ce dictionnaire a été un outil essentiel pour faciliter la compréhension des données par l'ensemble des équipes.
Développement d'algorithmes de détection d’anomalies : J'ai mis en place des modèles prédictifs pour identifier les comportements anormaux des compteurs de gaz, tels que les fuites ou les fraudes. Ces algorithmes ont permis de détecter rapidement les problèmes et d'enquêter sur leurs causes.
Analyse de corrélation : J'ai étudié les relations entre les différentes variables pour mieux comprendre les facteurs influençant la consommation de gaz. Par exemple, j'ai analysé l'impact des conditions météorologiques sur la consommation de chauffage.
Visualisation des données : J'ai créé des tableaux de bord interactifs pour présenter les résultats de mes analyses de manière claire et concise. Ces visualisations ont permis aux équipes commerciales et techniques de prendre des décisions éclairées et de mieux suivre la performance de leurs activités.
SUEZ(92)-07/2015 - 10/2019 Compétences Techniques : Python, Spark, R, VBA, Azure En tant qu'ingénieur/analyste de données chez Suez, j'ai joué un rôle central dans la transformation numérique de l'entreprise. Mon parcours au sein de Suez a été marqué par une évolution constante, allant d'une mission opérationnelle de nettoyage de données à la conception d'une architecture de données globale.
Nettoyer et structurer les données de capteurs : J'ai mis en place des processus pour assurer la qualité et la cohérence des données issues des capteurs, garantissant ainsi une base solide pour les analyses futures.
Concevoir une architecture de données unifiée : J'ai conçu et implémenté une architecture de données sur Azure, permettant de centraliser toutes les données de Suez (opérationnelles, financères, etc.) et de faciliter leur exploitation.
Mettre en place une gouvernance des données : J'ai défini des règles et des procédures pour garantir la qualité, la sécurité et la pérennité des données.
Développer des outils d'analyse avancés : J'ai utilisé des techniques de machine learning pour détecter les anomalies, prévoir la consommation et optimiser les opérations.
Créer des tableaux de bord interactifs : J'ai mis en place des outils de visualisation pour permettre aux équipes métier de suivre les performances, d'identifier les opportunités d'amélioration et de prendre des décisions éclairées.
Projet Personnel
Téléchargement YouTubeDéveloppement d’une application web (avec Flask) qui permet à un utilisateur de télécharger des fichiers audios. Ces fichiers sont ensuite convertis en format MP3, puis enrichis avec des métadonnées musicales (artiste, titre, album, genre). Enfin, les fichiers audios ainsi traités sont transférés automatiquement vers un serveur NAS pour un stockage centralisé. Élections européennesTraitement et analyse de données (avec notebooks) pour une vue d'ensemble des résultats. Visualisation des données avec Power BI. IAÉvaluation et tests de modèles IA pour une meilleure compréhension de leur fonctionnement en vue d'une utilisation client. Utilisation des services AWS pour traiter les données. ImmobilierAnalyse des biens immobiliers en vente sur le marché (avec Python) pour identifier les investissements les plus rentables.
Détection des meilleures opportunités immobilières grâce à l'analyse de données avec Python.