Le poste Data Engineer Spark/Scala F/H
Partager cette offre
Nous recherchons un(e) Data Engineer spécialisé(e) en Spark et Scala pour rejoindre notre équipe Data. Vous contribuerez à la conception, au développement, et à l’optimisation des pipelines de données à grande échelle, ainsi qu’à l’implémentation des meilleures pratiques de gestion et de traitement des données.
Concevoir, développer et maintenir des pipelines de données scalables et robustes en utilisant Spark et Scala.
Intégrer et transformer des données provenant de différentes sources (bases de données, fichiers, APIs, etc.).
Assurer la qualité, la performance et la sécurité des flux de données.
Participer à l’optimisation des performances des traitements Big Data.
Collaborer avec les équipes Data Science, BI et Développement pour répondre aux besoins des projets.
Implémenter les meilleures pratiques en matière de gestion des données et d’architecture.
Surveiller et résoudre les incidents liés aux flux de données en production.
Compétences techniques :
Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée).
Solides compétences en conception et optimisation de flux ETL.
Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL.
Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP).
Connaissance des écosystèmes Hadoop et des frameworks Big Data.
Profil recherché
Compétences générales :
Capacité à travailler dans un environnement agile et collaboratif.
Esprit analytique, rigueur et autonomie.
Bonnes capacités de communication en français et/ou en anglais.
Bac+5 en Informatique, Data Science, ou équivalent.
Minimum 5 ans d’expérience en tant que Data Engineer dans un environnement Big Data.
Environnement de travail
Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée).
Solides compétences en conception et optimisation de flux ETL.
Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL.
Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP).
Connaissance des écosystèmes Hadoop et des frameworks Big Data.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +7 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer Spark/Scala F/H
SMARTPOINT