Pierre Munhoz picture
đź‘‹

Hello, je m'appelle Pierre Munhoz. Je suis Data Engineer en Freelance avec 6 ans d'experience dans la transformation de données.

Ă€ propos de moi

Mon parcours a commencé par le développement web, où j'ai développé une forte passion pour la résolution de défis techniques. C'est cet enthousiasme qui guide aujourd'hui mon travail d'automatisation et d'optimisation des pipelines de données. Après avoir obtenu un master en Management, j'ai décidé de retrouver ma passion en travaillant d'abord en tant que Data Analyst puis ensuite en tant que Analytics Engineer afin de me spécialiser en tant qu'en Data Engineer.

En tant que Data Engineer en Freelance, je m'épanouis en m'attaquant à des projets divers et stimulants. J'ai une expertise dans la conception de pipeline de données, l'automation de workflows et dans la livraison d'insights en temps réel. Mon expérience me permet de combler le fossé entre les besoins de l'entreprise et les solutions techniques, en assurant une communication et une mise en œuvre efficaces.

Quand je ne suis pas en train de coder, j'aime jouer aux jeux vidéos, courir ou bien écouter de la musique. Je m'intéresse également aux enjeux autour du dérèglement climatique depuis quelques années. Chaque semaine je regarde des conférences et lire des articles pour en apprendre plus concernant ce sujet important.

Mes projets

Mes compétences

Data Engineering

  • Kafka
  • Spark
  • Docker

Cloud & Data Warehousing

  • GCP
  • Snowflake
  • BigQuery
  • PostgreSQL

ETL & Data Pipelines

  • Python
  • SQL
  • dbt
  • Airbyte

Version Control & CI/CD

  • Git
  • GitHub Actions
  • CI/CD Pipelines

Orchestration & Workflow Automation

  • Dagster
  • Airflow
  • Terraform

Industries

  • Luxury
  • Retail
  • SaaS
  • Beauty
  • Cosmetics

Mon Expérience

Neoen logo

Neoen

Jun 2025 - Présent

Lead Data Engineer

Achievements
  • Stabilisation des apps critiques 24/7 sur AKS et rĂ©duction du MTTR via une meilleure observabilitĂ© et des workflows de dĂ©ploiement.
Principales responsabilités
  • Lead technique de l’équipe Energy Management (16 personnes) garantissant qualitĂ©, robustesse et scalabilitĂ©.
  • Mise en place des bonnes pratiques (tests, CI/CD, dĂ©ploiements automatiques staging & prod via GitLab).
  • Administration et optimisation des dĂ©ploiements Kubernetes (AKS) : gestion des pods, incidents, disponibilitĂ© 24/7.
  • Conception et orchestration de pipelines data avec Dagster en collaboration avec les Quant Analysts.
  • Infrastructure as Code avec Terraform (SQL Server, dĂ©pĂ´ts GitLab, secrets Azure Key Vault).
  • Formation/accompagnement de l’équipe sur les bonnes pratiques data.
Tech Stack:
AzureKubernetesDagsterPythonTerraformGitLab CI/CDSQL Server
Betclic logo

Betclic

Fév 2025 - Jun 2025

Senior Data Engineer

Achievements
  • Livraison de pipelines de rĂ©tention en production dans un contexte freelance court.
Principales responsabilités
  • Conception de pipelines orientĂ©s rĂ©tention.
  • Ingestion, modĂ©lisation et transformation sur un data lake Snowflake.
  • Industrialisation des pipelines avec Airflow et CI/CD.
  • RĂ©daction de documentation technique et fonctionnelle.
Tech Stack:
AWSAirflowdbtSnowflakeTerraformGitHub
Qantev logo

Qantev

Nov 2024 - Fév 2025

Senior Data Engineer

Achievements
  • AmĂ©lioration de la prĂ©cision du modèle de fraude et rĂ©duction de la charge opĂ©rationnelle de validation.
Principales responsabilités
  • DĂ©veloppement backend pour appliquer les règles d’exclusion assureurs et dĂ©tecter les actes non couverts.
  • Mise en place d’ETL avec Dagster pour fiabiliser l’intĂ©gration des donnĂ©es clients.
  • Optimisation d’un modèle de dĂ©tection de fraude pour rĂ©duire les faux positifs.
  • Refactor de la codebase data pour amĂ©liorer maintenabilitĂ©, scalabilitĂ© et performance.
Tech Stack:
AzureDagsterDjangoPythonTerraformGitHub
Lucca logo

Lucca

Avr 2024 - Nov 2024

Lead Data Engineer

Achievements
  • DĂ©ploiement d’une stack moderne, scalable et Ă©conomique ; montĂ©e en compĂ©tence de l’équipe.
Principales responsabilités
  • CrĂ©ation d’un data warehouse from scratch sur GCP (BigQuery, GCS, Secrets Manager, Compute Engine).
  • Mise en place de dbt pour la transformation et orchestration Airbyte/dbt/Python avec Dagster/Airflow + Docker.
  • Provisioning avec Terraform (IAM, datasets, service accounts, config Airbyte).
  • Management de 2 Analytics Engineers.
Tech Stack:
GCPBigQueryPythonAirbyteDagsterDockerPySparkTerraformCloud FunctionsdbtGitHub Actions
Contentsquare logo

Contentsquare

Jan 2021 - Avr 2024

Senior Data Engineer

Achievements
  • Migration en ~1,5 mois ; maintenance rĂ©duite ~x10.
  • Temps de rĂ©cupĂ©ration des donnĂ©es rĂ©duit d’environ 40% face aux limites d’API.
Principales responsabilités
  • Co-migration de 300+ tables de Redshift vers Snowflake (dbt & Python), forte rĂ©duction de maintenance.
  • Mise en place de tests qualitĂ© et rĂ©duction du temps de troubleshoot.
  • Scrapers pour mise Ă  jour de la base utilisateurs (80k titres de poste ; 20k comptes dĂ©sactivĂ©s).
  • Pilotage KPI ventes pour le comitĂ© exĂ©cutif ; automatisation du reporting trimestriel.
  • 30+ analyses clients (Luxe & Retail).
Tech Stack:
AWSLambdaRedshiftSnowflakedbtPythonDagsterGitHub ActionsClickHouse
fifty-five logo

fifty-five

Jan 2020 - Jun 2020

Data Analyst

Achievements
    Principales responsabilités
    • Pipelines BigQuery & dashboards (Data Studio) pour des marques du groupe Shiseido.
    • Dashboards SAP pour des marques du groupe Richemont.
    Tech Stack:
    GCPSAPPython
    Le Petit Paumé logo

    Le Petit Paumé

    Jan 2019 - Déc 2019

    Data Engineer

    Achievements
      Principales responsabilités
      • Chef de projet refonte du site (80k€).
      • Migration CRM vers Airtable ; automatisation de la base interne (Google Maps API, OpenCage).
      • Pipelines d’export pour le guide papier (200k exemplaires).
      Tech Stack:
      GCPPythonJavaScriptAPIs
      Shanti Travel logo

      Shanti Travel

      Jun 2018 - Déc 2018

      Data Analyst

      Achievements
        Principales responsabilités
        • ETL CRM & Google Analytics pour mesurer la performance des programmes de voyage.
        • RĂ©cupĂ©ration des donnĂ©es d’un partenaire via API pour mesurer la qualitĂ© des leads.
        Tech Stack:
        PythonData StudioJavaScript

        Me contacter

        Pour me contacter: pierre.munhoz@gmail.com ou via ce formulaire.