Skip to main content

CDI - Data Engineer (H/F)

À propos : 

Partagez une aventure humaine au cœur de l’équipe

Hermès offre aujourd’hui une plateforme e-commerce dans 32 sites et propose ainsi à ses clients un parcours de vente omnicanal. Pilotée de manière agile, cette plateforme s’inscrit dans un programme stratégique et international. 

Les métiers du digital, chez Hermès, s’articulent autour de quatre pôles dynamiques étroitement interconnectés : l’e-commerce, les opérations digitales, la technique et la data performance. Comme un artisan fabrique un sac de A à Z, les équipes digitales interviennent de la réflexion stratégique à la mise en production des projets. 

Rejoindre Hermès Digital, c’est participer à un projet unique, intégré et 100% agile dans un contexte de forte croissance et de déploiement international. C’est évoluer dans un environnement qui réunit les langages, les technologies, les infrastructures, les outils et les méthodes les plus performants du marché. 

Descriptif du poste :

En tant que Data Engineer , vous travaillerez au sein d’Hermès Digital, et serez intégré·e à l’équipe digitale « data et performance », en charge principalement de l’analyse de la donnée digitale d’Hermès (, de sa transformation, la garantie sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS)

Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR.

Des connaissances sur les problématiques liées à l’e-Commerce sont un plus.

Principales Activités :

Manipulation/Transformation de données (en batch et stream)

Vous avez pour principale mission d’accompagner l’équipe Data et Performance dans ses activités de transformation de données via :

  • Des pipelines de transformation en SQL/SQLX dans l’outil DataForm (similaire à DBT)
  • Des pipelines de transformation de données écrits en langage python pour l’outil Cloud Data Flow (version serverless d’Apache Beam proposée par GCP)
  • L’écriture de code python spécifique pour récupérer et transformer de la donnée hébergée par des partenaires et servie via des APIs. Ce code est bien souvent déployé dans le service Cloud Functions de GCP.
  • Manipulation de flux de données (stream)

    Nous utilisons des flux de données via les technologies Kafka, SNS/SQS et Cloud PubSub. Dans ce cadre, votre mission consistera à :

  • Suivre et coordonner les efforts de développements des différents flux avec les équipes qui fournissent la donnée
  • Préciser la stratégie de backfill (rétro-récupération), en cas de donnée manquante ou interruption de service
  • Aider au développement des runners dans les Cloud AWS pour récupérer la donnée depuis Kafka et l’envoyer vers PubSub dans GCP.
  • Vérifier le bon niveau de suppression et anonymisation de la donnée en accordance avec la GDPR.
  • Aider au développement en python de pipeline DataFlow afin de manipuler les flux de données en (pseudo) temps réel.
  • Participation aux opérations lié au développement de code.

    Pour garantir un service de qualité dans une équipe en forte croissance, il faut maintenir du code de qualité. Pour cela, vous participerez à l’écriture, déploiement et maintien du code (généralement en python) lié à la manipulation et transformation de données. Ces activités liées au développement de code (Dev Ops) sont essentielles pour le travail collaboratif à l’échelle. Ainsi vous aiderez l’équipe Data à développer et consolider ses activités de développement de code et ses standards de qualité.

    De l’expérience dans ce domaine (utilisation de Git, écriture de tests unitaires, merge de branches) est un fort atout pour cette mission.

    Garder et développer un Data Lake/Data Warehouse de qualité

    Pour garantir des analyses de qualité, il faut garantir une donnée de qualité en entrée.

    Vous travaillerez avec les différents membres d’équipe (développeurs, Data Analysts, ML Ops) pour assurer une donnée de qualité (propre, sécurisée, anonymisée,

    Pour cela vous travaillerez principalement en SQL et Python pour garantir la qualité de la donnée. 
    Des connaissances additionnelles en Javascript sont un plus. Vous suivrez avec l’équipe les évolutions des flux de données via un Data Lineage existant et en cours d’évolution.

    Profil recherché :

     

  • Une expérience de 4 ans au minimum sur des missions de Data Engineering.
  • Formation Bac +5 : Ecole d’ingénieur ou Master Big Data, Mathématiques ou équivalent possédant une culture Internet et une sensibilité aux problématiques digitales e-commerce, vous avez une première expérience en entreprise
  • Organisé, rigoureux, curieux, autonome, bonne expression écrite et aisance relationnelle
  • Maîtrise du Pack Office indispensable
  • Un bon niveau d’anglais est important pour échanger avec différents interlocuteurs internationaux par oral ainsi que par écrit.
  • De bonnes capacités d’auto-formation sur les aspects techniques sont fortement appréciées.
  • Compétences Comportementales :

    Vous êtes bon·ne communicant·e  (vous savezprésenter, à l’oral comme à l’écrit, de manière synthétique et pédagogique des thématiques techniques pointues) et avez un bon sens relationnel , vous savez faire preuve d’ empathie . Vous êtes rigoureux·se et réactif·ve. 

    Environnent technique :

    Stack technique : Google Cloud Platform (GCP), BigQuery, DataForm, Cloud DataFlow, Cloud PubSub, Notebooks Python, LookerStudio, PowerBI.

  • Une bonne maîtrise des langages Python et SQL est indispensable.
  • Une connaissance minimum des technologies de streaming (Apache Beam, DataFlow, Kafka, PubSub, SNS/SQS) est nécessaire.
  • De l’expérience spécifique sur BigQuery est fortement recommandée
  • Une connaissance des outils de GCP (ou cloud équivalent) est fortement recommandée
  • De l’expérience sur des ETL (transformation de données) est fortement recommandé
  • De l’expérience en développement de code collaboratifs (dev est préféré.
  • De l’expérience dans l’utilisation d’outil de transformation de données comme des ETLs (Cloud DataPrep, DataIku, Alteryx ou autre) sont un plus
  • Des connaissances en machine learning sont un plus
  • Bénéfices pour vous :

  • Vous rejoignez la Maison Hermès, artisan de produits d’exception ! 
  • Vous êtes au cœurd’un projet passionnant.
  • Vous intégrez une équipe bienveillante soucieuse de la qualité de sa data et de l’évolution de ses membres.
  • Vous bénéficiez d’une grande autonomie et vos prises d’initiatives sont encouragées.
  • D'autres ont aussi consulté

    CDI - Data Engineer (H/F)

    Entreprise:
    Hermès
    Ville:
    Paris
    Type de contrat: 
    Temps plein, CDI
    Catégories: 
    Ingénieur Data
    Diplôme: 
    Master
    Specialisation
    Publiée:
    09.04.2024
    Partagez maintenant: