Partager cette offre
Responsabilités principales :
Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent.
Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance.
Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance.
Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval.
Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka.
Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes.
Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques.
Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent.
Compétences et qualifications :
Diplôme en informatique, ou domaine connexe.
Expérience approfondie avec Apache Kafka et la plateforme Confluent.
Expérience démontrée en architecture de solutions de données à grande échelle.
Maîtrise des langages de programmation tels que Java, Scala ou Python.
Connaissance approfondie des pratiques de sécurité des données et des architectures microservices.
Excellentes compétences en communication, en présentation et en leadership.
Profil recherché
En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données.
Environnement de travail
Compétences et qualifications :
Diplôme en informatique, ingénierie ou domaine connexe.
Expérience approfondie avec Apache Kafka et la plateforme Confluent.
Expérience démontrée en architecture de solutions de données à grande échelle.
Maîtrise des langages de programmation tels que Java, Scala ou Python.
Connaissance approfondie des pratiques de sécurité des données et des architectures microservices.
Excellentes compétences en communication, en présentation et en leadership.
Outils :
KAFKA toolset
Programmation et scripting (Java, PL/SQL, SQL, Unix, etc)
Job Scheduling / Ordonnanceur (OpCon)
Database (SQL Server)
Gestion de la demande et service incident (JIRA / SNOW)
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.