Trouvez votre prochaine offre d’emploi ou de mission freelance Spark Streaming
ingénieur streaming OTT encodage vidéo

Contrainte forte du projet Maîtrise des architectures de streaming OTT Les livrables sont Evolution de nos architectures d’encodage et de diffusion video Amélioration continue des infrastructures et de leur industrialisation Travailler en collaboration avec les équipes de développement afin de faire évoluer et améliorer les plateformes Compétences techniques : Encodage/Transcodage VOD et Live - Expert - Impératif Packaging - Expert - Impératif Supervision OTT - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif)
TECH LEAD KAFKA
Nous recherchons un Tech Lead expérimenté pour piloter et optimiser nos projets basés sur Kafka et l'architecture Event-Driven. Le candidat idéal maîtrisera l'ensemble des technologies associées au streaming et au développement full-stack, tout en garantissant la sécurité et l'évolutivité des systèmes. Objectifs de la mission : • Garantir la performance et la robustesse des systèmes Kafka. • Mettre en place et superviser une architecture Event-Driven performante. • Assurer la sécurité et l'intégrité des données tout au long des processus. • Apporter une expertise technique à l'équipe et aux projets.
DATA ENGINEER CONFIRME

Nous recherchons pour notre client, un grand groupe international situé dans la périphérie de Lyon, un·e Data Engineer confirmé·e qui aura pour missions de prendre en charge des tâches de développement sur des projets de build pour fournir les data pipelines du Datalake et d’intervenir sur le maintien en condition opérationnelle du Datalake. Les développements réalisés permettent aux développeurs Qlik Sense et Azure Dashboard de construire les reports adéquates pour les clients. Anglais courant indispensable.
DATA ENGINEER GCP SPARK SCALA

Nous recherchons un data engineer GCP Spark/Scala avec pour missions principales : Collecter des données provenant de diverses sources externes. Exploiter les capacités du Datalake sur GCP. Implémenter l’ensemble du processus incluant : L’ingestion des données, La validation des données, Le croisement des données, L’intégration des données enrichies dans le Datalake. Développer en respectant les principes d’architecture définis. Rédiger et documenter les user stories en collaboration avec le Product Owner. Rédiger les scripts nécessaires au déploiement. Identifier et prioriser la correction des anomalies. Assister les équipes en charge de l’exploitation. Contribuer à la mise en place d’une chaîne de livraison continue. Automatiser les tests fonctionnels. Encadrer et superviser le travail des data engineers de la squad.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- LMNP + nouvelle activité devil y a une heure
- 12 ans d'experience data, 450e tjil y a une heure
- Valoriser des travaux R&D faits soi-même sans salairesil y a 2 heures
- Mon TJM est-il trop élevé pour mon expérience ?il y a 3 heures
- Question poste archivéil y a 3 heures
- 10 ans d'exp pour TJM 500il y a 3 heures