Consultant Data Engineer (H/F)

  • Temps complet

Description de l'entreprise

EPSILON accompagne la transformation business des entreprises grâce à la data. Nous sommes le plus grand acteur datamarketing en France, avec 750 talents Adtech et Martech qui aident les entreprises à stimuler leur croissance et améliorer leur efficacité opérationnelle grâce et autour de la data.

Description du poste

Dans le cadre du développement de notre pôle Data & Analytics Platform (cadrage fonctionnel et technique, définition de use-cases, stratégie des moyens, accompagnement du changement, mise en œuvre, maintenance et commercialisation de solutions), nous recherchons un(e) Consultant Data Engineer qui aura pour missions

-      Délivrer des projets Data Lake / Big Data (ingestion de sources, pipeline de traitements de données, modélisation, tests, déploiements) dans un contexte de plus en plus DevOps,

-      Comprendre les besoins des équipes digitales, principalement associées aux projets Data Science et leurs technologies / outils (Jupyter, Zeppelin, R, Python,  …),

-      Être capable de faire le lien avec les contraintes techniques (IT, sécurité, accès, outils) d’une DSI,

-      Assurer la veille technologique sur les composants d’une plateforme Datalake, Cloud

-      Maintenir les environnements techniques et partager ses connaissances (capitalisation, séminaires, formations, KM en ligne),

-      Rédiger des documents projets (design, réalisation, déploiement, …),

-      Gérer l’évolution des solutions proposées, et possiblement en assurer la TMA.

Qualifications

De formation Bac + 4/5 en informatique, vous avez une première expérience d’un projet de type Datalake en environnement HDFS et/ou cloud (GCP, Azure), une connaissance des DWH (sur technologie traditionnelle et/ou cloud), des méthodes agiles, voire du DataOps (industrialisation de modèles de ML).

Vous possédez de bonnes compétences en Linux/Unix, Java, Spark, Scala… ainsi que sur les problématiques d’intégration (fichiers, messages, data) avec la connaissance d’au moins une plateforme Big Data Cloudera, Hortonworks (administration, configuration, monitoring, débogage, mise en œuvre) et d’une solution cloud (GCP ou Azure).

Vous connaissez les technologies Hadoop/HDFS, Hive, Python et le requêtage de données (Impala, Hive, ...).

Votre expérience dans le traitement de flux en streaming (KafKa) est un plus.

Votre niveau d’Anglais est opérationnel.

Informations complémentaires

CHOISISSEZ…

- Notre expertise reconnue dans le domaine du décisionnel et du Big Data depuis 30 ans, un cadre méthodologique et une organisation des compétences animées constamment dans un souci de veille et de progression,

- Nos projets innovants et nos missions de conseil en cours de réalisation ou réalisés autour des solutions BI, Big Data et DMP,

- Notre diversité de projets et de clients (SNCF, Groupe BPCE, Fnac, La Banque Postale…),

- Notre management de proximité et notre souci de développement des compétences.

Politique de confidentialité