
Partager cette offre
Contexte : Le programme DATA a pour objectif de doter notre client dans le secteur des médias des outils permettant une meilleure exploitation des données dans la prise de décision et le développement d'une approche data-driven. Ce programme impacte à la fois les outils, l'organisation et les processus.
Les projets en cours couvrent :
Initiatives métier : Intelligence Artificielle (IA), segmentation & activation, reportings & analyses.
Initiatives techniques : Socles de données, gouvernance & qualité.
Organisation : Le consultant intégrera l'équipe DATA Delivery au sein du pôle ingénierie de la direction DATA du groupe. Cette équipe est responsable de l'évolution et de la maintenance des socles de données (usage, VOD, advertising, etc.), ainsi que du partage des données avec des partenaires comme Apple+, Paramount+, etc.
L'écosystème technique inclut : AWS (Lambda, EMR Serverless, Kinesis Stream, Firehose, S3, DynamoDB), Spark, DBT, Scala, Python, Snowflake, GitLab CI/CD, Terraform, IA.
Profil recherché
Nous recherchons un Consultant Data Engineer expérimenté pour concevoir et déployer un moteur de recommandation accessible au grand public et ouvert sur Internet.
Votre rôle sera de :Concevoir, développer et déployer des pipelines de données scalables et performants.
Construire et optimiser un moteur de recommandation exploitant des modèles de Machine Learning et des techniques avancées de traitement des données.
Mettre en place des architectures Big Data sur AWS (S3, EMR, Lambda, Snowflake, etc.).
Développer en Scala et exploiter Apache Spark pour le traitement massif des données.
Automatiser les workflows avec Apache Airflow et DBT pour orchestrer les pipelines.
Concevoir et exposer des APIs performantes pour servir les recommandations en temps réel (Scala, Spark, Terraform, GitLab CI/CD, ECS Fargate, Kinesis, DynamoDB, S3, etc.).
Optimiser les performances et garantir la scalabilité du système pour gérer un grand volume d’utilisateurs.
Collaborer avec les équipes Data Science, Produit et DevOps pour assurer une intégration fluide.
AI pour la recommandation de programmes.
Feature Store.
Modernisation des flux financiers.
Content Platform.
Mise en place de Kubernetes.
Plateforme de traitement des données CRM et usage.
Partage de données clients avec des partenaires (Netflix, Apple, M6, TF1, etc.).
Mise à disposition d'applications de self-service data.
Environnement de travail
Minimum 4 ans d’expérience en Data Engineering dans un environnement similaire.
Maîtrise de AWS, GitLab CI/CD, Terraform.
Expertise en Scala et Spark avancé.
Expérience dans le développement de solutions d'intégration de données.
Anglais courant.
Familiarité avec JIRA et les méthodes Agiles.
Autonomie, curiosité scientifique, communication efficace et esprit d’équipe.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.