Description de l'entreprise
Le Groupe Talan est un cabinet de conseil en innovation et transformation par la technologie.
Depuis 20 ans, nous conseillons les entreprises et les administrations, les accompagnons et mettons en œuvre leurs projets de transformation et d’innovation en France et à l’international.
Présent sur cinq continents, le groupe prévoit de réaliser un chiffre d’affaires de 600 millions d’euros en 2022 pour plus de 6000 consultant·e·s et vise à dépasser la barre du milliard d’€ de CA à horizon 2024.
Qui sommes-nous ?
Global Data Intelligence est composé de 1200+ experts (Big Data Engineer, Machine Learning Engineer, IA Engineer, Architecte Big Data Cloud…) intervenant sur des projets visant à améliorer l’efficacité opérationnelle via l’exploitation de données complexes en mêlant la Data, le Big Data, l’IA, la GenAI et la Data Science.
Nos réalisations tournent autour de thématiques telles que :
Transport : maintenance prédictive, analyse prédictive sur le trafic voyageur, sécurités et surveillance, amélioration de l’expérience client,…
Energie : optimisation des ressources, prédictif sur la demande et la production, monitoring de la production d’énergie renouvelable,…
Banque/Assurance : fraude/blanchiment, risk management, conformité réglementaire (RegTech), automatisation des processus …
Industrie : captation, traitement, stockage et monitoring temps réel de métriques issues d’objets connectés, optimisation des chaines de production, optimisation de la supply chain,…
Médical : amélioration du parcours patient, optimisation des ressources, anonymisation des données,…
Vision 360 client : centralisation des informations client en vision 360 tout en garantissant la sécurité (encryption, anonymisation,…) pour garantir le respect de la RGPD
Description du poste
Au cœur de la stratégie Global Data Intelligence, Talan recherche d’un Cloud Data Engineer pour la zone France capable de mener des projets de Data Engineering sur les technologie Cloud SQL (Databricks, Snowflake, Synapse Analytics,…) pour répondre aux enjeux de nos clients stratégiques nationaux et internationaux.
Descriptif du poste
Nous sommes à la recherche d’un lead Cloud Data Engineer zone France pour intervenir sur les projets d’envergures et stratégique de nos clients nationaux et internationaux.
Les responsabilités du Cloud Data Engineer zone France sont :
Analyse des besoins techniques métiers, participation à la définition des architectures solution SQL, développement et optimisation, code review, maintenir les pratiques Devops “You build IT, You run IT”, support à recette et mise en production, documentation,…
Veille technologique et relation éditeur
Partager techniquement les membres de l’équipe basés en France : solutions et code reviews, recommandations, certifications à réaliser, …
Participation à des meet-up, hackathon,…
Communication : écriture d’articles, retours d’expérience
Le titre "Zone France" est synonyme de priorité sur des projets et missions stratégiques, vous positionnant aux avant-postes des projets Cloud Data les plus importants pour Talan et ses clients.
Le poste est basé en France avec une grande flexibilité. Beaucoup de vos activités pourront être menées depuis notre agence locale, avec la possibilité de télétravail. Cependant, pour maintenir la proximité avec nos clients et assurer le succès de nos projets, des déplacements occasionnels en France et à l'international sont à prévoir.
Qualifications
Compétences attendues
Issu d’une formation supérieure (école d’ingénieur, master…) avec une expérience dans le domaine du conseil (orienté satisfaction client et vision partenariale)
Vous disposez d’au moins 3 années d’expérience dans le domaine du SQL dans le Cloud
Maîtrise du développement data (SQL, Python, …) et vous disposez de solides expériences dans la mise en place de pipeline de données
Maîtrise d’au moins une technique de modélisation : Data Mesh, Star Schema, DataVault,…
Expérience sur une plateforme Cloud (AWS, GCP, Azure, OVH,..)
Expérience sur des flux temps réel
Maîtrise des bases de données Cloud SQL (Databricks, Snowflake, Synapse, Redshift,…) avec la maitrise des spécificités outils (DataSharing, Unity Catalog…)
Expérience sur des méthodes de stockage : HDFS, S3, Azure Data Lake Store,…
Bonnes connaissances en devOps
La connaissance de concepts comme les suivants serait un + : DataOps, FinOps,..
La connaissance ou la maitrise des bonnes pratiques Green Data serait un + : Cloud Carbon Footprint,…
Expérience de l’Agilité
Autonomie, organisation, sens du partage
Bonne communication
Orientation produit et solution