UCASE CONSULTING

Offre d'emploi DATA ENGINEER

Paris

UCASE CONSULTING

Le poste

Freelance
CDI
6 mois
10k-175k €⁄an, 100-2 500 €⁄j
2 à 5 ans d’expérience
Télétravail partiel
Paris, France
Publiée le 13/09/2024

Partager cette offre

Bonjour à tous,

Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer :

  • Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données.

  • Déploiement et gestion des workflows sur Databricks, avec une optimisation continue des performances des pipelines.

  • Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres.

  • Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques.

  • Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées.

  • Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées.

  • Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés.

  • Apache Spark : Expertise dans le traitement de données massives via Spark.

  • GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue.

  • CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents.

  • Expérience d’au moins 3 à 5 ans dans un rôle similaire.

  • Connaissance des architectures de données distribuées et expérience en ETL et transformation de données.

  • Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines.

  • Expérience en méthodologies de travail Agile/Scrum.

Profil recherché

Bonjour à tous,

Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer :

  • Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données.

  • Déploiement et gestion des workflows sur Databricks, avec une optimisation continue des performances des pipelines.

  • Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres.

  • Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques.

  • Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées.

  • Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées.

  • Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés.

  • Apache Spark : Expertise dans le traitement de données massives via Spark.

  • GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue.

  • CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents.

  • Expérience d’au moins 3 à 5 ans dans un rôle similaire.

  • Connaissance des architectures de données distribuées et expérience en ETL et transformation de données.

  • Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines.

  • Expérience en méthodologies de travail Agile/Scrum.

Environnement de travail

Bonjour à tous,

Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer :

  • Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données.

  • Déploiement et gestion des workflows sur Databricks, avec une optimisation continue des performances des pipelines.

  • Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres.

  • Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques.

  • Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées.

  • Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées.

  • Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés.

  • Apache Spark : Expertise dans le traitement de données massives via Spark.

  • GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue.

  • CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents.

  • Expérience d’au moins 3 à 5 ans dans un rôle similaire.

  • Connaissance des architectures de données distribuées et expérience en ETL et transformation de données.

  • Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines.

  • Expérience en méthodologies de travail Agile/Scrum.

Paris, France
20 - 99 salariés
Cabinet de conseil
Expertise Activités : ESN, Conseil Services spécialisée en Data Cloud & Big Data : Stratégie & Architecture DataLake : Expertise, cadrage, cas d’usage, gouvernance et sécurité, POC. Industrialisation & Déploiement : Infrastructure & Cloud, conduite du changement. Data Engineering & DataScience. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP … Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python …. BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC. Expertises technologiques : ETL : Informatica PowerCenter (Partenariat Informatica depuis 2012, Microsoft SSIS (Gold Partner Microsoft), Talend. Reporting BI & Analytics : SSAS (Olap & Tabular), Azure SSAS, Power-BI & Microsoft Reporting Services, Tableau Software, QlikSense, SAP BI. Data Management : Data Strategy, Data Gouvernance, Data Security (GDPR/Cloud), Data Quality.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +7 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

DATA ENGINEER

UCASE CONSULTING

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous