
Hello, je m'appelle Pierre Munhoz. Je suis Data Engineer en Freelance avec 6 ans d'experience dans la transformation de données.
À propos de moi
Mon parcours a commencé par le développement web, où j'ai développé une forte passion pour la résolution de défis techniques. C'est cet enthousiasme qui guide aujourd'hui mon travail d'automatisation et d'optimisation des pipelines de données. Après avoir obtenu un master en Management, j'ai décidé de retrouver ma passion en travaillant d'abord en tant que Data Analyst puis ensuite en tant que Analytics Engineer afin de me spécialiser en tant qu'en Data Engineer.
En tant que Data Engineer en Freelance, je m'épanouis en m'attaquant à des projets divers et stimulants. J'ai une expertise dans la conception de pipeline de données, l'automation de workflows et dans la livraison d'insights en temps réel. Mon expérience me permet de combler le fossé entre les besoins de l'entreprise et les solutions techniques, en assurant une communication et une mise en œuvre efficaces.
Quand je ne suis pas en train de coder, j'aime jouer aux jeux vidéos, courir ou bien écouter de la musique. Je m'intéresse également aux enjeux autour du dérèglement climatique depuis quelques années. Chaque semaine je regarde des conférences et lire des articles pour en apprendre plus concernant ce sujet important.
Mes projets

Création d'un Data Warehouse sur GCP
Conception et mise en œuvre d'un data warehouse sur Google Cloud Platform. Optimisation de la conception des schémas pour le traitement de larges datasets et intégration de pipelines ETL pour l'ingestion des données.

Création d'ETL avec Airbyte et Dagster
Déploiement d'Airbyte pour une ingestion efficace des données et élaboration d'ETL personnalisés à l'aide de Dagster pour les sources de données non prises en charge. Gestion de la synchronisation de plus de 20 sources de données, automatisation et surveillance de flux de travail complexes.

Réalisation d'une pipeline CI/CD avec GitHub Actions
Déploiement d'Airbyte pour une ingestion efficace des données et élaboration d'ETL personnalisés à l'aide de Dagster pour les sources de données non prises en charge. Gestion de la synchronisation de plus de 20 sources de données, automatisation et surveillance de flux de travail complexes.

Migration du data warehouse de Contentsquare
J'ai co-dirigé la migration du data warehouse BI de Contentsquare en passant d'une infrastructure Redshift & Python à une modern data-stack avec Snowflake & dbt. Plus de 300 tables ont été migrés en 1 mois et demi.

Benchmark e-commerce
J'ai défini les KPIs au niveau session, page & e-commerce et j'ai automatisé l'extraction de ces KPIs en créant une interface web afin de vendre des benchmarks pour les clients de Contentsquare.
Mes compétences
Data Engineering
- Kafka
- Spark
- Docker
Cloud & Data Warehousing
- GCP
- Snowflake
- BigQuery
- PostgreSQL
ETL & Data Pipelines
- Python
- SQL
- dbt
- Airbyte
Version Control & CI/CD
- Git
- GitHub Actions
- CI/CD Pipelines
Orchestration & Workflow Automation
- Dagster
- Airflow
- Terraform
Industries
- Luxury
- Retail
- SaaS
- Beauty
- Cosmetics
Mon Expérience

Lucca
Lead Data Engineer
Achievements
- Déploiement d'une data architecture moderne (ingestion, IAMs, ETLs, orchestration et data warehouse) sur GCP.
- Management de 2 Analytics Engineers (formation et accompagnement technique).
- Utilisation d'une IaC pour s'assurer de la génération / versioning de nos ressources cloud (Terraform)
Principales responsabilités
- Implémentation d'un data warehouse complet from scratch sur Google Cloud Platform, en utilisant BigQuery, VMs, IAMs, et Buckets (GCS)
- Intégration de dbt (dbt-core) en tant qu'outil de transformation et mise en place d'une pipeline de CI/CD robuste sur GitHub Actions pour assurer un développement continu sans impact sur la production.
- Mise en place d'Airbyte sur GCE, création de pipelines ETL à l'aide Dagster et Docker pour synchroniser plus de 40 sources de données.
- Création de scripts Terraform pour automatiser la création de ressources sur GCP et Airbyte améliorant ainsi la scalabilité de notre infrastructure.
Tech Stack:

Contentsquare
Senior Data Engineer
Achievements
- Plus de 300 tables migrées de Redshift vers Snowflake en à peine 1 mois et demi, réduisant ainsi le temps de maintenance par 10 à l'aide de dbt et Python.
- Co-auteur d'un article complet afin d'expliquer les best practices sur la construction d'un nouveau data warehouse tant sur l'aspect technique sur sur l'aspect du pilotage du projet.
- Création de pipelines ETL en Python qui respectent les limites d'API.
- Création d'un algorithme de benchmark de données e-commerce qui fût ajouté aux produits vendus (ML).
- Plus de 30 analyses réalisées pour divers clients du Luxe & Retail : Van Cleef & Arpels, Breitling, Castorama, Dior, Electrolux, Galeries Lafayette, Intermarché, Ma French Bank, Moncler, Orpi, Pôle Emploi, Prada, Sandro, Sephora...
Principales responsabilités
- Leader de la migration du data warehouse de Redshift vers Snowflake, en utilisant dbt comme outil de transformation et Python pour l'automation, tout en assurant une qualité de données optimale et une réduction du temps de déboggage.
- Mise en place d'un framework de testing pour assurer une qualité de données au sein de nos sources & tables réduisant ainsi le temps de troubleshoot.
- Réalisation d'un scraper pour récupérer et mettre automatiquement à jour les données de notre base d'utilisateurs internes (80,000 job titles mis à jour et désactivation 20,000 utilisateurs inactifs).
- Définition et implémentation de KPIs business et création de dashboards pour mesurer la performance du produit Contentsquare (+300 utilisateurs actifs mensuel).
- Réalisation d'un algorithme de calcul et d'attribution des ventes en réduisant de 1 semaines par trimestre le reporting de ces chiffres.
Tech Stack:

fifty-five
Data Analyst
Achievements
- Extraction / Transformation de données pour les performances de ventes du groupe Richemont (Cartier, Van Cleef & Arpels, Montblanc...)
- Transformation de données pour un dashboard e-commerce pour le groupe Shiseido (Shiseido, bareMinerals, Laura Mercier)
Principales responsabilités
- Mise en place du tracking sur plusieurs sites du groupe Ferrero.
- Création de seuils d'alertes pour détecter les anomalies des campagnes web du groupe Richemont
- Réalisation d'un algorithme pour assurer proprement le suivi des campagnes du groupe Unibail-Rodamco-Westfield
Tech Stack:

Le Petit Paumé
Data Engineer
Achievements
- Chef du projet de refonte du site internet pour un budget de 80,000€
- Automatisation de la mise à jour de notre base d'établissements interne (10,000 restaurants, bars...).
- Transformation et export automatique de la donnée pour faciliter la préparation du guide papier (200,000 distribués).
Principales responsabilités
- Migration de l'ancien CRM vers Airtable pour faciliter l'usage par des personnes non-techniques.
- Extraction et transformation de données Google Maps API pour mettre à jour l'annuaire des établissements lyonnais (restaurant, bar, cinéma etc…).
- Mise à jour des données de latitude / longitude des établissements avec Open Cage API.
- Création d'un algorithme de cartographie afin de déterminer le quartier d'un établissement depuis son adresse.
- Récupération des données des stations de bus, métro et tram pour trouver l'arrêt le plus proche d'un établissement
Tech Stack:

Shanti Travel
Data Analyst
Achievements
- Extraction et transformation de données CRM & Google Analytics pour mesurer la performance des programmes de voyage proposés par l'entreprise.
- Récupération des données par API d'un partenaire pour mesurer la qualité des leads générés
Principales responsabilités
- Mise en place d'un système de récupération des notes de frais des 12 bureaux pour 150 employés
Tech Stack:
Me contacter
Pour me contacter: pierre.munhoz@gmail.com ou via ce formulaire.