Le poste Ingénieur BIGDATA / KAFKA/Flink
Partager cette offre
Spécialisé dans le secteur bancaire, l'entreprise recherche activement un ingénieur bigdata KAFKA/ MongoDB ou Flink pour renforcer ses effectifs.
En tant qu'Ingénieur Big Data, vous serez responsable de la conception, du développement et de la gestion des solutions basées sur Kafka et MongoDB pour les plateformes Big Data de BNP Paribas. Vous interviendrez sur des projets stratégiques nécessitant une gestion efficace des données à grande échelle, tout en garantissant la fiabilité et la performance des systèmes de traitement des flux de données.
Concevoir et déployer des architectures distribuées à haute performance pour la gestion de flux de données en temps réel à l’aide de Kafka.
Développer et maintenir des bases de données NoSQL, principalement MongoDB, pour stocker et interroger des volumes massifs de données.
Optimiser les environnements Kafka pour assurer la scalabilité et la résilience des systèmes.
Participer à l'intégration de solutions Big Data dans les pipelines de traitement de données existants et nouveaux.
Implémenter et optimiser les flux de données en temps réel avec Kafka Streams, en garantissant la robustesse des pipelines.
Superviser les systèmes en place et analyser les performances des flux de données pour assurer leur continuité et leur efficacité.
Mettre en place des outils de monitoring et de gestion des erreurs pour garantir une gestion proactive des incidents.
Gérer les environnements MongoDB, y compris l’installation, la configuration, les sauvegardes, et la restauration.
Optimiser les performances des bases de données en gérant l'indexation, la fragmentation et les partitions pour garantir un accès rapide aux données.
Assurer la sécurité des données dans MongoDB en implémentant des contrôles d’accès, des audits et des politiques de chiffrement des données.
Travailler en collaboration avec les équipes infrastructure, développement et métier pour comprendre les besoins et proposer des solutions techniques adaptées.
Fournir un support technique de niveau 2/3 pour les environnements Kafka et MongoDB, incluant la résolution des incidents critiques.
Participer à la rédaction de la documentation technique et au transfert de compétences au sein des équipes.
Profil recherché
Kafka : Expertise dans l’implémentation, l’optimisation et la gestion d’environnements Kafka, y compris Kafka Streams et Kafka Connect.
MongoDB : Expérience approfondie dans la gestion de bases de données NoSQL MongoDB, incluant la modélisation des données, la performance et la sécurité.
Big Data : Bonne maîtrise des écosystèmes Big Data et des technologies associées (Hadoop, Spark, Flink, etc.).
Connaissance des architectures distribuées et des systèmes de gestion des flux de données.
Expérience en scripting (Python, Bash) pour l’automatisation des tâches et des processus de gestion des environnements Big Data.
Compétences en gestion de la sécurité des environnements Big Data (chiffrement, gestion des accès, audit).
Connaissance des systèmes de monitoring (Prometheus, Grafana) pour la supervision proactive des environnements Kafka et MongoDB.
Bac+5 en informatique ou diplôme équivalent avec une spécialisation en traitement des données ou Big Data.
3 à 5 ans d'expérience dans la gestion et le développement d’architectures Big Data, avec une forte expertise sur Kafka et MongoDB.
Expérience prouvée dans la mise en place et la gestion de pipelines de données en temps réel et de bases de données distribuées à grande échelle.
Fortes compétences analytiques et capacité à résoudre des problématiques techniques complexes.
Esprit d’équipe et capacité à collaborer avec des équipes pluridisciplinaires dans un environnement agile.
Anglais courant requis pour collaborer avec des équipes internationales.
Environnement de travail
Un environnement de travail stimulant au sein d’une équipe d'experts en technologies Big Data.
Des opportunités d'évolution et de formation continue au sein d’un grand groupe bancaire international.
Participation à des projets innovants et d’envergure dans le domaine du Big Data
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Ingénieur BIGDATA / KAFKA/Flink
AVA2I