
Hello, je m'appelle Pierre Munhoz. Je suis Data Engineer en Freelance avec 6 ans d'experience dans la transformation de données.
Ă€ propos de moi
Mon parcours a commencé par le développement web, où j'ai développé une forte passion pour la résolution de défis techniques. C'est cet enthousiasme qui guide aujourd'hui mon travail d'automatisation et d'optimisation des pipelines de données. Après avoir obtenu un master en Management, j'ai décidé de retrouver ma passion en travaillant d'abord en tant que Data Analyst puis ensuite en tant que Analytics Engineer afin de me spécialiser en tant qu'en Data Engineer.
En tant que Data Engineer en Freelance, je m'épanouis en m'attaquant à des projets divers et stimulants. J'ai une expertise dans la conception de pipeline de données, l'automation de workflows et dans la livraison d'insights en temps réel. Mon expérience me permet de combler le fossé entre les besoins de l'entreprise et les solutions techniques, en assurant une communication et une mise en œuvre efficaces.
Quand je ne suis pas en train de coder, j'aime jouer aux jeux vidéos, courir ou bien écouter de la musique. Je m'intéresse également aux enjeux autour du dérèglement climatique depuis quelques années. Chaque semaine je regarde des conférences et lire des articles pour en apprendre plus concernant ce sujet important.
Mes projets

Création d'un Data Warehouse sur GCP
Conception et mise en œuvre d'un data warehouse sur Google Cloud Platform (BigQuery, GCS). Intégration de pipelines ETL et gestion de l’infrastructure avec Terraform.

Création d'ETL avec Airbyte et Dagster
Déploiement d'Airbyte pour l’ingestion et création d’ETL personnalisés avec Dagster pour les sources non supportées. Automatisation et supervision de workflows complexes sur des dizaines de sources.

Mise en place d'une CI/CD pour la data
Mise en place d’une CI/CD avec GitHub Actions / GitLab CI pour supporter les transformations dbt-core et des déploiements continus sécurisés.

Migration du data warehouse de Contentsquare
Co-pilotage de la migration de 300+ tables de Redshift vers Snowflake avec dbt & Python, réduisant la maintenance d’environ 90%.

Benchmark e-commerce
Définition de KPIs (session, page, e-commerce) et automatisation de leur calcul. Interface web pour délivrer des benchmarks aux clients.
Mes compétences
Data Engineering
- Kafka
- Spark
- Docker
Cloud & Data Warehousing
- GCP
- Snowflake
- BigQuery
- PostgreSQL
ETL & Data Pipelines
- Python
- SQL
- dbt
- Airbyte
Version Control & CI/CD
- Git
- GitHub Actions
- CI/CD Pipelines
Orchestration & Workflow Automation
- Dagster
- Airflow
- Terraform
Industries
- Luxury
- Retail
- SaaS
- Beauty
- Cosmetics
Mon Expérience
Neoen
Lead Data Engineer
Achievements
- Stabilisation des apps critiques 24/7 sur AKS et réduction du MTTR via une meilleure observabilité et des workflows de déploiement.
Principales responsabilités
- Lead technique de l’équipe Energy Management (16 personnes) garantissant qualité, robustesse et scalabilité.
- Mise en place des bonnes pratiques (tests, CI/CD, déploiements automatiques staging & prod via GitLab).
- Administration et optimisation des déploiements Kubernetes (AKS) : gestion des pods, incidents, disponibilité 24/7.
- Conception et orchestration de pipelines data avec Dagster en collaboration avec les Quant Analysts.
- Infrastructure as Code avec Terraform (SQL Server, dépôts GitLab, secrets Azure Key Vault).
- Formation/accompagnement de l’équipe sur les bonnes pratiques data.
Tech Stack:
Betclic
Senior Data Engineer
Achievements
- Livraison de pipelines de rétention en production dans un contexte freelance court.
Principales responsabilités
- Conception de pipelines orientés rétention.
- Ingestion, modélisation et transformation sur un data lake Snowflake.
- Industrialisation des pipelines avec Airflow et CI/CD.
- Rédaction de documentation technique et fonctionnelle.
Tech Stack:
Qantev
Senior Data Engineer
Achievements
- Amélioration de la précision du modèle de fraude et réduction de la charge opérationnelle de validation.
Principales responsabilités
- Développement backend pour appliquer les règles d’exclusion assureurs et détecter les actes non couverts.
- Mise en place d’ETL avec Dagster pour fiabiliser l’intégration des données clients.
- Optimisation d’un modèle de détection de fraude pour réduire les faux positifs.
- Refactor de la codebase data pour améliorer maintenabilité, scalabilité et performance.
Tech Stack:
Lucca
Lead Data Engineer
Achievements
- Déploiement d’une stack moderne, scalable et économique ; montée en compétence de l’équipe.
Principales responsabilités
- Création d’un data warehouse from scratch sur GCP (BigQuery, GCS, Secrets Manager, Compute Engine).
- Mise en place de dbt pour la transformation et orchestration Airbyte/dbt/Python avec Dagster/Airflow + Docker.
- Provisioning avec Terraform (IAM, datasets, service accounts, config Airbyte).
- Management de 2 Analytics Engineers.
Tech Stack:
Contentsquare
Senior Data Engineer
Achievements
- Migration en ~1,5 mois ; maintenance réduite ~x10.
- Temps de récupération des données réduit d’environ 40% face aux limites d’API.
Principales responsabilités
- Co-migration de 300+ tables de Redshift vers Snowflake (dbt & Python), forte réduction de maintenance.
- Mise en place de tests qualité et réduction du temps de troubleshoot.
- Scrapers pour mise à jour de la base utilisateurs (80k titres de poste ; 20k comptes désactivés).
- Pilotage KPI ventes pour le comité exécutif ; automatisation du reporting trimestriel.
- 30+ analyses clients (Luxe & Retail).
Tech Stack:
fifty-five
Data Analyst
Achievements
Principales responsabilités
- Pipelines BigQuery & dashboards (Data Studio) pour des marques du groupe Shiseido.
- Dashboards SAP pour des marques du groupe Richemont.
Tech Stack:
Le Petit Paumé
Data Engineer
Achievements
Principales responsabilités
- Chef de projet refonte du site (80k€).
- Migration CRM vers Airtable ; automatisation de la base interne (Google Maps API, OpenCage).
- Pipelines d’export pour le guide papier (200k exemplaires).
Tech Stack:
Shanti Travel
Data Analyst
Achievements
Principales responsabilités
- ETL CRM & Google Analytics pour mesurer la performance des programmes de voyage.
- Récupération des données d’un partenaire via API pour mesurer la qualité des leads.
Tech Stack:
Me contacter
Pour me contacter: pierre.munhoz@gmail.com ou via ce formulaire.