Le poste Développeur Big Data / Hadoop Expérimenté
Partager cette offre
Description du poste :
Nous recherchons un Développeur Big Data / Hadoop expérimenté pour rejoindre l’équipe de notre client, leader dans le secteur bancaire. Vous jouerez un rôle clé dans la gestion, le traitement et l'analyse de grandes quantités de données en utilisant l’écosystème Hadoop et d’autres technologies Big Data.
Responsabilités :
Concevoir, développer et optimiser des solutions de traitement et d’analyse de données volumineuses en utilisant Hadoop et d’autres outils Big Data.
Collaborer avec des Data Engineers et des Data Scientists pour comprendre les besoins en matière de données et créer des pipelines de données robustes et scalables.
Assurer l'intégration et le traitement de données provenant de sources variées, en garantissant la qualité, la disponibilité et la sécurité des données.
Effectuer des analyses de performance, optimiser les workflows Hadoop, et veiller à la maintenance des clusters Hadoop.
Implémenter des modèles de données avancés et automatiser les processus de collecte, de nettoyage et de transformation de données.
Documenter les processus, suivre les meilleures pratiques en matière de Big Data et contribuer aux efforts d'optimisation continue.
Profil recherché :
5 à 7 ans d'expérience dans le développement Big Data, avec une expertise avérée sur l'écosystème Hadoop (HDFS, MapReduce, Hive, Pig, HBase).
Maîtrise des outils de traitement distribué (Spark, Flink) et des technologies de gestion de données (Kafka, Cassandra).
Solide expérience en programmation avec des langages tels que Java, Scala, Python.
Connaissance des bases de données SQL et NoSQL (MySQL, PostgreSQL, MongoDB).
Excellente capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines de données.
Expérience dans des environnements de développement Agile.
Qualifications :
Diplôme en informatique, en ingénierie, ou dans un domaine connexe.
Expérience dans la gestion et l'optimisation des clusters Hadoop.
Connaissance des systèmes de versioning (Git) et des outils de CI/CD.
Connaissance des outils de visualisation de données (Tableau, Power BI) est un plus.
Pourquoi rejoindre ce projet ?
Vous intégrerez une équipe d'experts passionnés par le Big Data, où vous pourrez travailler sur des projets d’envergure, en utilisant les dernières technologies de l'écosystème Big Data. Ce rôle offre des opportunités de développement professionnel dans un environnement stimulant et innovant.
Profil recherché
Description du poste :
Nous recherchons un Développeur Big Data / Hadoop expérimenté pour rejoindre l’équipe de notre client, leader dans le secteur bancaire. Vous jouerez un rôle clé dans la gestion, le traitement et l'analyse de grandes quantités de données en utilisant l’écosystème Hadoop et d’autres technologies Big Data.
Responsabilités :
Concevoir, développer et optimiser des solutions de traitement et d’analyse de données volumineuses en utilisant Hadoop et d’autres outils Big Data.
Collaborer avec des Data Engineers et des Data Scientists pour comprendre les besoins en matière de données et créer des pipelines de données robustes et scalables.
Assurer l'intégration et le traitement de données provenant de sources variées, en garantissant la qualité, la disponibilité et la sécurité des données.
Effectuer des analyses de performance, optimiser les workflows Hadoop, et veiller à la maintenance des clusters Hadoop.
Implémenter des modèles de données avancés et automatiser les processus de collecte, de nettoyage et de transformation de données.
Documenter les processus, suivre les meilleures pratiques en matière de Big Data et contribuer aux efforts d'optimisation continue.
Profil recherché :
5 à 7 ans d'expérience dans le développement Big Data, avec une expertise avérée sur l'écosystème Hadoop (HDFS, MapReduce, Hive, Pig, HBase).
Maîtrise des outils de traitement distribué (Spark, Flink) et des technologies de gestion de données (Kafka, Cassandra).
Solide expérience en programmation avec des langages tels que Java, Scala, Python.
Connaissance des bases de données SQL et NoSQL (MySQL, PostgreSQL, MongoDB).
Excellente capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines de données.
Expérience dans des environnements de développement Agile.
Qualifications :
Diplôme en informatique, en ingénierie, ou dans un domaine connexe.
Expérience dans la gestion et l'optimisation des clusters Hadoop.
Connaissance des systèmes de versioning (Git) et des outils de CI/CD.
Connaissance des outils de visualisation de données (Tableau, Power BI) est un plus.
Pourquoi rejoindre ce projet ?
Vous intégrerez une équipe d'experts passionnés par le Big Data, où vous pourrez travailler sur des projets d’envergure, en utilisant les dernières technologies de l'écosystème Big Data. Ce rôle offre des opportunités de développement professionnel dans un environnement stimulant et innovant.
Environnement de travail
Description du poste :
Nous recherchons un Développeur Big Data / Hadoop expérimenté pour rejoindre l’équipe de notre client, leader dans le secteur bancaire. Vous jouerez un rôle clé dans la gestion, le traitement et l'analyse de grandes quantités de données en utilisant l’écosystème Hadoop et d’autres technologies Big Data.
Responsabilités :
Concevoir, développer et optimiser des solutions de traitement et d’analyse de données volumineuses en utilisant Hadoop et d’autres outils Big Data.
Collaborer avec des Data Engineers et des Data Scientists pour comprendre les besoins en matière de données et créer des pipelines de données robustes et scalables.
Assurer l'intégration et le traitement de données provenant de sources variées, en garantissant la qualité, la disponibilité et la sécurité des données.
Effectuer des analyses de performance, optimiser les workflows Hadoop, et veiller à la maintenance des clusters Hadoop.
Implémenter des modèles de données avancés et automatiser les processus de collecte, de nettoyage et de transformation de données.
Documenter les processus, suivre les meilleures pratiques en matière de Big Data et contribuer aux efforts d'optimisation continue.
Profil recherché :
5 à 7 ans d'expérience dans le développement Big Data, avec une expertise avérée sur l'écosystème Hadoop (HDFS, MapReduce, Hive, Pig, HBase).
Maîtrise des outils de traitement distribué (Spark, Flink) et des technologies de gestion de données (Kafka, Cassandra).
Solide expérience en programmation avec des langages tels que Java, Scala, Python.
Connaissance des bases de données SQL et NoSQL (MySQL, PostgreSQL, MongoDB).
Excellente capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines de données.
Expérience dans des environnements de développement Agile.
Qualifications :
Diplôme en informatique, en ingénierie, ou dans un domaine connexe.
Expérience dans la gestion et l'optimisation des clusters Hadoop.
Connaissance des systèmes de versioning (Git) et des outils de CI/CD.
Connaissance des outils de visualisation de données (Tableau, Power BI) est un plus.
Pourquoi rejoindre ce projet ?
Vous intégrerez une équipe d'experts passionnés par le Big Data, où vous pourrez travailler sur des projets d’envergure, en utilisant les dernières technologies de l'écosystème Big Data. Ce rôle offre des opportunités de développement professionnel dans un environnement stimulant et innovant.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Développeur Big Data / Hadoop Expérimenté
ARTESIA IT