ARTESIA IT

Mission freelance Développeur Big Data / Hadoop Expérimenté

Île-de-France

ARTESIA IT

Le poste

Freelance
Dès que possible
12 mois
100-500 €⁄j
5 à 10 ans d’expérience
Télétravail partiel
Île-de-France, France
Publiée le 08/10/2024

Partager cette offre

Description du poste :
Nous recherchons un Développeur Big Data / Hadoop expérimenté pour rejoindre l’équipe de notre client, leader dans le secteur bancaire. Vous jouerez un rôle clé dans la gestion, le traitement et l'analyse de grandes quantités de données en utilisant l’écosystème Hadoop et d’autres technologies Big Data.

Responsabilités :

  • Concevoir, développer et optimiser des solutions de traitement et d’analyse de données volumineuses en utilisant Hadoop et d’autres outils Big Data.

  • Collaborer avec des Data Engineers et des Data Scientists pour comprendre les besoins en matière de données et créer des pipelines de données robustes et scalables.

  • Assurer l'intégration et le traitement de données provenant de sources variées, en garantissant la qualité, la disponibilité et la sécurité des données.

  • Effectuer des analyses de performance, optimiser les workflows Hadoop, et veiller à la maintenance des clusters Hadoop.

  • Implémenter des modèles de données avancés et automatiser les processus de collecte, de nettoyage et de transformation de données.

  • Documenter les processus, suivre les meilleures pratiques en matière de Big Data et contribuer aux efforts d'optimisation continue.

Profil recherché :

  • 5 à 7 ans d'expérience dans le développement Big Data, avec une expertise avérée sur l'écosystème Hadoop (HDFS, MapReduce, Hive, Pig, HBase).

  • Maîtrise des outils de traitement distribué (Spark, Flink) et des technologies de gestion de données (Kafka, Cassandra).

  • Solide expérience en programmation avec des langages tels que Java, Scala, Python.

  • Connaissance des bases de données SQL et NoSQL (MySQL, PostgreSQL, MongoDB).

  • Excellente capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines de données.

  • Expérience dans des environnements de développement Agile.

Qualifications :

  • Diplôme en informatique, en ingénierie, ou dans un domaine connexe.

  • Expérience dans la gestion et l'optimisation des clusters Hadoop.

  • Connaissance des systèmes de versioning (Git) et des outils de CI/CD.

  • Connaissance des outils de visualisation de données (Tableau, Power BI) est un plus.

Pourquoi rejoindre ce projet ?

Vous intégrerez une équipe d'experts passionnés par le Big Data, où vous pourrez travailler sur des projets d’envergure, en utilisant les dernières technologies de l'écosystème Big Data. Ce rôle offre des opportunités de développement professionnel dans un environnement stimulant et innovant.

Profil recherché

Description du poste :
Nous recherchons un Développeur Big Data / Hadoop expérimenté pour rejoindre l’équipe de notre client, leader dans le secteur bancaire. Vous jouerez un rôle clé dans la gestion, le traitement et l'analyse de grandes quantités de données en utilisant l’écosystème Hadoop et d’autres technologies Big Data.

Responsabilités :

  • Concevoir, développer et optimiser des solutions de traitement et d’analyse de données volumineuses en utilisant Hadoop et d’autres outils Big Data.

  • Collaborer avec des Data Engineers et des Data Scientists pour comprendre les besoins en matière de données et créer des pipelines de données robustes et scalables.

  • Assurer l'intégration et le traitement de données provenant de sources variées, en garantissant la qualité, la disponibilité et la sécurité des données.

  • Effectuer des analyses de performance, optimiser les workflows Hadoop, et veiller à la maintenance des clusters Hadoop.

  • Implémenter des modèles de données avancés et automatiser les processus de collecte, de nettoyage et de transformation de données.

  • Documenter les processus, suivre les meilleures pratiques en matière de Big Data et contribuer aux efforts d'optimisation continue.

Profil recherché :

  • 5 à 7 ans d'expérience dans le développement Big Data, avec une expertise avérée sur l'écosystème Hadoop (HDFS, MapReduce, Hive, Pig, HBase).

  • Maîtrise des outils de traitement distribué (Spark, Flink) et des technologies de gestion de données (Kafka, Cassandra).

  • Solide expérience en programmation avec des langages tels que Java, Scala, Python.

  • Connaissance des bases de données SQL et NoSQL (MySQL, PostgreSQL, MongoDB).

  • Excellente capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines de données.

  • Expérience dans des environnements de développement Agile.

Qualifications :

  • Diplôme en informatique, en ingénierie, ou dans un domaine connexe.

  • Expérience dans la gestion et l'optimisation des clusters Hadoop.

  • Connaissance des systèmes de versioning (Git) et des outils de CI/CD.

  • Connaissance des outils de visualisation de données (Tableau, Power BI) est un plus.

Pourquoi rejoindre ce projet ?

Vous intégrerez une équipe d'experts passionnés par le Big Data, où vous pourrez travailler sur des projets d’envergure, en utilisant les dernières technologies de l'écosystème Big Data. Ce rôle offre des opportunités de développement professionnel dans un environnement stimulant et innovant.

Environnement de travail

Description du poste :
Nous recherchons un Développeur Big Data / Hadoop expérimenté pour rejoindre l’équipe de notre client, leader dans le secteur bancaire. Vous jouerez un rôle clé dans la gestion, le traitement et l'analyse de grandes quantités de données en utilisant l’écosystème Hadoop et d’autres technologies Big Data.

Responsabilités :

  • Concevoir, développer et optimiser des solutions de traitement et d’analyse de données volumineuses en utilisant Hadoop et d’autres outils Big Data.

  • Collaborer avec des Data Engineers et des Data Scientists pour comprendre les besoins en matière de données et créer des pipelines de données robustes et scalables.

  • Assurer l'intégration et le traitement de données provenant de sources variées, en garantissant la qualité, la disponibilité et la sécurité des données.

  • Effectuer des analyses de performance, optimiser les workflows Hadoop, et veiller à la maintenance des clusters Hadoop.

  • Implémenter des modèles de données avancés et automatiser les processus de collecte, de nettoyage et de transformation de données.

  • Documenter les processus, suivre les meilleures pratiques en matière de Big Data et contribuer aux efforts d'optimisation continue.

Profil recherché :

  • 5 à 7 ans d'expérience dans le développement Big Data, avec une expertise avérée sur l'écosystème Hadoop (HDFS, MapReduce, Hive, Pig, HBase).

  • Maîtrise des outils de traitement distribué (Spark, Flink) et des technologies de gestion de données (Kafka, Cassandra).

  • Solide expérience en programmation avec des langages tels que Java, Scala, Python.

  • Connaissance des bases de données SQL et NoSQL (MySQL, PostgreSQL, MongoDB).

  • Excellente capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines de données.

  • Expérience dans des environnements de développement Agile.

Qualifications :

  • Diplôme en informatique, en ingénierie, ou dans un domaine connexe.

  • Expérience dans la gestion et l'optimisation des clusters Hadoop.

  • Connaissance des systèmes de versioning (Git) et des outils de CI/CD.

  • Connaissance des outils de visualisation de données (Tableau, Power BI) est un plus.

Pourquoi rejoindre ce projet ?

Vous intégrerez une équipe d'experts passionnés par le Big Data, où vous pourrez travailler sur des projets d’envergure, en utilisant les dernières technologies de l'écosystème Big Data. Ce rôle offre des opportunités de développement professionnel dans un environnement stimulant et innovant.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +7 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Développeur Big Data / Hadoop Expérimenté

ARTESIA IT

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous