Pierre Munhoz picture
👋

Hello, je m'appelle Pierre Munhoz. Je suis Data Engineer en Freelance avec 6 ans d'experience dans la transformation de données.

À propos de moi

Mon parcours a commencé par le développement web, où j'ai développé une forte passion pour la résolution de défis techniques. C'est cet enthousiasme qui guide aujourd'hui mon travail d'automatisation et d'optimisation des pipelines de données. Après avoir obtenu un master en Management, j'ai décidé de retrouver ma passion en travaillant d'abord en tant que Data Analyst puis ensuite en tant que Analytics Engineer afin de me spécialiser en tant qu'en Data Engineer.

En tant que Data Engineer en Freelance, je m'épanouis en m'attaquant à des projets divers et stimulants. J'ai une expertise dans la conception de pipeline de données, l'automation de workflows et dans la livraison d'insights en temps réel. Mon expérience me permet de combler le fossé entre les besoins de l'entreprise et les solutions techniques, en assurant une communication et une mise en œuvre efficaces.

Quand je ne suis pas en train de coder, j'aime jouer aux jeux vidéos, courir ou bien écouter de la musique. Je m'intéresse également aux enjeux autour du dérèglement climatique depuis quelques années. Chaque semaine je regarde des conférences et lire des articles pour en apprendre plus concernant ce sujet important.

Mes projets

GCP Data Warehouse creation for Scalable Analytics

Création d'un Data Warehouse sur GCP

Conception et mise en œuvre d'un data warehouse sur Google Cloud Platform. Optimisation de la conception des schémas pour le traitement de larges datasets et intégration de pipelines ETL pour l'ingestion des données.

Google Cloud PlatformTerraformData Warehousing
View Full Project
ETL Pipelines with Airbyte and Dagster

Création d'ETL avec Airbyte et Dagster

Déploiement d'Airbyte pour une ingestion efficace des données et élaboration d'ETL personnalisés à l'aide de Dagster pour les sources de données non prises en charge. Gestion de la synchronisation de plus de 20 sources de données, automatisation et surveillance de flux de travail complexes.

AirbyteDagsterDocker
View Full Project
CI/CD Pipeline Setup for Seamless Data Engineering

Réalisation d'une pipeline CI/CD avec GitHub Actions

Déploiement d'Airbyte pour une ingestion efficace des données et élaboration d'ETL personnalisés à l'aide de Dagster pour les sources de données non prises en charge. Gestion de la synchronisation de plus de 20 sources de données, automatisation et surveillance de flux de travail complexes.

CI/CDGitHub Actionsdbt
View Full Project
Data Warehouse Migration to Snowflake

Migration du data warehouse de Contentsquare

J'ai co-dirigé la migration du data warehouse BI de Contentsquare en passant d'une infrastructure Redshift & Python à une modern data-stack avec Snowflake & dbt. Plus de 300 tables ont été migrés en 1 mois et demi.

dbtSnowflakePython
View Full Project
Web behavior & e-commerce Benchmark

Benchmark e-commerce

J'ai défini les KPIs au niveau session, page & e-commerce et j'ai automatisé l'extraction de ces KPIs en créant une interface web afin de vendre des benchmarks pour les clients de Contentsquare.

ReactPythonFlask
View Full Project

Mes compétences

Data Engineering

  • Kafka
  • Spark
  • Docker

Cloud & Data Warehousing

  • GCP
  • Snowflake
  • BigQuery
  • PostgreSQL

ETL & Data Pipelines

  • Python
  • SQL
  • dbt
  • Airbyte

Version Control & CI/CD

  • Git
  • GitHub Actions
  • CI/CD Pipelines

Orchestration & Workflow Automation

  • Dagster
  • Airflow
  • Terraform

Industries

  • Luxury
  • Retail
  • SaaS
  • Beauty
  • Cosmetics

Mon Expérience

Lucca logo

Lucca

Apr 2024 - Present

Lead Data Engineer

Achievements
  • Déploiement d'une data architecture moderne (ingestion, IAMs, ETLs, orchestration et data warehouse) sur GCP.
  • Management de 2 Analytics Engineers (formation et accompagnement technique).
  • Utilisation d'une IaC pour s'assurer de la génération / versioning de nos ressources cloud (Terraform)
Principales responsabilités
  • Implémentation d'un data warehouse complet from scratch sur Google Cloud Platform, en utilisant BigQuery, VMs, IAMs, et Buckets (GCS)
  • Intégration de dbt (dbt-core) en tant qu'outil de transformation et mise en place d'une pipeline de CI/CD robuste sur GitHub Actions pour assurer un développement continu sans impact sur la production.
  • Mise en place d'Airbyte sur GCE, création de pipelines ETL à l'aide Dagster et Docker pour synchroniser plus de 40 sources de données.
  • Création de scripts Terraform pour automatiser la création de ressources sur GCP et Airbyte améliorant ainsi la scalabilité de notre infrastructure.
Tech Stack:
BigQuerydbtGCPGitHub ActionsAirbyteDagsterTerraformDocker
Contentsquare logo

Contentsquare

Jan 2021 - Apr 2024

Senior Data Engineer

Achievements
  • Plus de 300 tables migrées de Redshift vers Snowflake en à peine 1 mois et demi, réduisant ainsi le temps de maintenance par 10 à l'aide de dbt et Python.
  • Co-auteur d'un article complet afin d'expliquer les best practices sur la construction d'un nouveau data warehouse tant sur l'aspect technique sur sur l'aspect du pilotage du projet.
  • Création de pipelines ETL en Python qui respectent les limites d'API.
  • Création d'un algorithme de benchmark de données e-commerce qui fût ajouté aux produits vendus (ML).
  • Plus de 30 analyses réalisées pour divers clients du Luxe & Retail : Van Cleef & Arpels, Breitling, Castorama, Dior, Electrolux, Galeries Lafayette, Intermarché, Ma French Bank, Moncler, Orpi, Pôle Emploi, Prada, Sandro, Sephora...
Principales responsabilités
  • Leader de la migration du data warehouse de Redshift vers Snowflake, en utilisant dbt comme outil de transformation et Python pour l'automation, tout en assurant une qualité de données optimale et une réduction du temps de déboggage.
  • Mise en place d'un framework de testing pour assurer une qualité de données au sein de nos sources & tables réduisant ainsi le temps de troubleshoot.
  • Réalisation d'un scraper pour récupérer et mettre automatiquement à jour les données de notre base d'utilisateurs internes (80,000 job titles mis à jour et désactivation 20,000 utilisateurs inactifs).
  • Définition et implémentation de KPIs business et création de dashboards pour mesurer la performance du produit Contentsquare (+300 utilisateurs actifs mensuel).
  • Réalisation d'un algorithme de calcul et d'attribution des ventes en réduisant de 1 semaines par trimestre le reporting de ces chiffres.
Tech Stack:
SnowflakeRedshiftdbtPythonSQLTableau
fifty-five logo

fifty-five

Jan 2020 - Jun 2020

Data Analyst

Achievements
  • Extraction / Transformation de données pour les performances de ventes du groupe Richemont (Cartier, Van Cleef & Arpels, Montblanc...)
  • Transformation de données pour un dashboard e-commerce pour le groupe Shiseido (Shiseido, bareMinerals, Laura Mercier)
Principales responsabilités
  • Mise en place du tracking sur plusieurs sites du groupe Ferrero.
  • Création de seuils d'alertes pour détecter les anomalies des campagnes web du groupe Richemont
  • Réalisation d'un algorithme pour assurer proprement le suivi des campagnes du groupe Unibail-Rodamco-Westfield
Tech Stack:
SQLPythonBigQuerySAP
Le Petit Paumé logo

Le Petit Paumé

Jan 2019 - Dec 2019

Data Engineer

Achievements
  • Chef du projet de refonte du site internet pour un budget de 80,000€
  • Automatisation de la mise à jour de notre base d'établissements interne (10,000 restaurants, bars...).
  • Transformation et export automatique de la donnée pour faciliter la préparation du guide papier (200,000 distribués).
Principales responsabilités
  • Migration de l'ancien CRM vers Airtable pour faciliter l'usage par des personnes non-techniques.
  • Extraction et transformation de données Google Maps API pour mettre à jour l'annuaire des établissements lyonnais (restaurant, bar, cinéma etc…).
  • Mise à jour des données de latitude / longitude des établissements avec Open Cage API.
  • Création d'un algorithme de cartographie afin de déterminer le quartier d'un établissement depuis son adresse.
  • Récupération des données des stations de bus, métro et tram pour trouver l'arrêt le plus proche d'un établissement
Tech Stack:
SQLPythonGCPAPIJavaScript
Shanti Travel logo

Shanti Travel

Jun 2018 - Dec 2018

Data Analyst

Achievements
  • Extraction et transformation de données CRM & Google Analytics pour mesurer la performance des programmes de voyage proposés par l'entreprise.
  • Récupération des données par API d'un partenaire pour mesurer la qualité des leads générés
Principales responsabilités
  • Mise en place d'un système de récupération des notes de frais des 12 bureaux pour 150 employés
Tech Stack:
PythonData StudioJavaScript

Me contacter

Pour me contacter: pierre.munhoz@gmail.com ou via ce formulaire.