UCASE CONSULTING

Offre d'emploi DATA ENGINEER SPARK/SCALA

Paris

UCASE CONSULTING

Le poste

Freelance
CDI
6 mois
40k-45k €⁄an, 400-550 €⁄j
2 à 5 ans d’expérience
Télétravail partiel
Paris, France
Publiée le 09/12/2024

Partager cette offre

  • Conception et développement de pipelines de données :

    • Concevoir et développer des pipelines de données robustes et évolutifs utilisant Apache Spark et d’autres outils Big Data.

    • Intégrer et transformer des données en temps réel ou en batch à partir de sources variées (bases de données, APIs, fichiers plats, etc.).

    • Implémenter des solutions de traitement de données massives, principalement avec Spark (Scala et Python).

  • Optimisation et maintenance :

    • Assurer l'optimisation des performances des pipelines de données (gestion des ressources Spark, optimisation des requêtes, réduction des latences, etc.).

    • Maintenir et améliorer la fiabilité des processus de traitement de données et des infrastructures associées.

  • Automatisation des processus :

    • Mettre en place et gérer des workflows d’automatisation des tâches avec Apache Airflow.

    • Automatiser le déploiement et l'exécution des pipelines de données à l'aide de Jenkins.

  • Collaboration avec les équipes de data science et d’infrastructure :

    • Collaborer avec les data scientists pour comprendre les besoins en données et optimiser leur accès.

    • Travailler étroitement avec les équipes d’infrastructure pour assurer la stabilité et la scalabilité des pipelines de données.

  • Veille technologique :

    • Se tenir informé des évolutions des technologies Big Data et des bonnes pratiques pour intégrer de nouvelles fonctionnalités dans les pipelines.

  • Langages de programmation :

    • Scala et Python : Expérience confirmée dans la programmation de pipelines de données en Scala (pour Spark) et en Python.

  • Technologies Big Data :

    • Apache Spark : Maîtrise de Spark pour le traitement de données massives, avec une compréhension approfondie de ses API en Scala et Python.

    • Apache Airflow : Expérience avec la gestion et l'orchestration de workflows de données dans un environnement de production.

  • Outils de CI/CD :

    • Jenkins : Expérience avec Jenkins pour l’automatisation des déploiements et des tests des pipelines de données.

  • Bases de données et gestion des données :

    • Connaissances solides des bases de données relationnelles (SQL, PostgreSQL, etc.) et NoSQL (Cassandra, MongoDB, etc.).

Profil recherché

  • Conception et développement de pipelines de données :

    • Concevoir et développer des pipelines de données robustes et évolutifs utilisant Apache Spark et d’autres outils Big Data.

    • Intégrer et transformer des données en temps réel ou en batch à partir de sources variées (bases de données, APIs, fichiers plats, etc.).

    • Implémenter des solutions de traitement de données massives, principalement avec Spark (Scala et Python).

  • Optimisation et maintenance :

    • Assurer l'optimisation des performances des pipelines de données (gestion des ressources Spark, optimisation des requêtes, réduction des latences, etc.).

    • Maintenir et améliorer la fiabilité des processus de traitement de données et des infrastructures associées.

  • Automatisation des processus :

    • Mettre en place et gérer des workflows d’automatisation des tâches avec Apache Airflow.

    • Automatiser le déploiement et l'exécution des pipelines de données à l'aide de Jenkins.

  • Collaboration avec les équipes de data science et d’infrastructure :

    • Collaborer avec les data scientists pour comprendre les besoins en données et optimiser leur accès.

    • Travailler étroitement avec les équipes d’infrastructure pour assurer la stabilité et la scalabilité des pipelines de données.

  • Veille technologique :

    • Se tenir informé des évolutions des technologies Big Data et des bonnes pratiques pour intégrer de nouvelles fonctionnalités dans les pipelines.

  • Langages de programmation :

    • Scala et Python : Expérience confirmée dans la programmation de pipelines de données en Scala (pour Spark) et en Python.

  • Technologies Big Data :

    • Apache Spark : Maîtrise de Spark pour le traitement de données massives, avec une compréhension approfondie de ses API en Scala et Python.

    • Apache Airflow : Expérience avec la gestion et l'orchestration de workflows de données dans un environnement de production.

  • Outils de CI/CD :

    • Jenkins : Expérience avec Jenkins pour l’automatisation des déploiements et des tests des pipelines de données.

  • Bases de données et gestion des données :

    • Connaissances solides des bases de données relationnelles (SQL, PostgreSQL, etc.) et NoSQL (Cassandra, MongoDB, etc.).

Environnement de travail

  • Conception et développement de pipelines de données :

    • Concevoir et développer des pipelines de données robustes et évolutifs utilisant Apache Spark et d’autres outils Big Data.

    • Intégrer et transformer des données en temps réel ou en batch à partir de sources variées (bases de données, APIs, fichiers plats, etc.).

    • Implémenter des solutions de traitement de données massives, principalement avec Spark (Scala et Python).

  • Optimisation et maintenance :

    • Assurer l'optimisation des performances des pipelines de données (gestion des ressources Spark, optimisation des requêtes, réduction des latences, etc.).

    • Maintenir et améliorer la fiabilité des processus de traitement de données et des infrastructures associées.

  • Automatisation des processus :

    • Mettre en place et gérer des workflows d’automatisation des tâches avec Apache Airflow.

    • Automatiser le déploiement et l'exécution des pipelines de données à l'aide de Jenkins.

  • Collaboration avec les équipes de data science et d’infrastructure :

    • Collaborer avec les data scientists pour comprendre les besoins en données et optimiser leur accès.

    • Travailler étroitement avec les équipes d’infrastructure pour assurer la stabilité et la scalabilité des pipelines de données.

  • Veille technologique :

    • Se tenir informé des évolutions des technologies Big Data et des bonnes pratiques pour intégrer de nouvelles fonctionnalités dans les pipelines.

  • Langages de programmation :

    • Scala et Python : Expérience confirmée dans la programmation de pipelines de données en Scala (pour Spark) et en Python.

  • Technologies Big Data :

    • Apache Spark : Maîtrise de Spark pour le traitement de données massives, avec une compréhension approfondie de ses API en Scala et Python.

    • Apache Airflow : Expérience avec la gestion et l'orchestration de workflows de données dans un environnement de production.

  • Outils de CI/CD :

    • Jenkins : Expérience avec Jenkins pour l’automatisation des déploiements et des tests des pipelines de données.

  • Bases de données et gestion des données :

    • Connaissances solides des bases de données relationnelles (SQL, PostgreSQL, etc.) et NoSQL (Cassandra, MongoDB, etc.).

Paris, France
20 - 99 salariés
Cabinet de conseil
Expertise Activités : ESN, Conseil Services spécialisée en Data Cloud & Big Data : Stratégie & Architecture DataLake : Expertise, cadrage, cas d’usage, gouvernance et sécurité, POC. Industrialisation & Déploiement : Infrastructure & Cloud, conduite du changement. Data Engineering & DataScience. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP … Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python …. BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC. Expertises technologiques : ETL : Informatica PowerCenter (Partenariat Informatica depuis 2012, Microsoft SSIS (Gold Partner Microsoft), Talend. Reporting BI & Analytics : SSAS (Olap & Tabular), Azure SSAS, Power-BI & Microsoft Reporting Services, Tableau Software, QlikSense, SAP BI. Data Management : Data Strategy, Data Gouvernance, Data Security (GDPR/Cloud), Data Quality.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +7 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

DATA ENGINEER SPARK/SCALA

UCASE CONSULTING

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous