Trouvez votre prochaine offre d’emploi ou de mission freelance PySpark
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer
• Concevoir, créer et maintenir des pipelines de données évolutifs pour prendre en charge les processus d'intégration, de transformation et de chargement des données (ETL) à l'aide d'outils tels qu'Apache Airflow, Apache NiFi et Talend. • Développer et optimiser des modèles de données, des schémas et des bases de données pour garantir un stockage et une récupération efficaces des données à l'aide de technologies telles que Snowflake, Cassandra et MongoDB. • Collaborer avec des data scientists, des analystes et d'autres parties prenantes pour comprendre les exigences en matière de données et fournir des solutions de données de haute qualité. • Mettre en œuvre des processus de qualité et de validation des données à l'aide d'outils tels que Great Expectations et dbt pour garantir l'exactitude et la cohérence des données. • Surveiller et dépanner les pipelines et les systèmes de données à l'aide d'outils de surveillance tels que Prometheus et Grafana pour identifier et résoudre rapidement les problèmes. • Rester au courant des dernières tendances et technologies du secteur pour améliorer en permanence notre infrastructure de données.
Mission freelance
Data Scientist – Data Analyst (Présence sur site Obligatoire 3j/s) Nantes (44)
✅ Nous vous serions reconnaissants de bien vouloir nous adresser un bref message expliquant les raisons de votre candidature et votre intérêt pour cette mission. ✅ Par ailleurs, nous vous remercions de nous confirmer que vous avez bien pris en compte le lieu de la mission ainsi que l’obligation de présence sur site trois jours par semaine. 🔴 La mission ne peut pas se faire en full Remote (Présence sur site hebdo obligatoire - Condition non négociable) Identifier et modéliser les problématiques métier ainsi que celles du pôle concerné. Définir précisément le périmètre des données requises pour élaborer une solution technique adaptée. Concevoir et développer des modèles de machine learning performants. Transformer les résultats des analyses de données en modèles clairs, exploitables et orientés vers l’action. Le cas échéant, concevoir des visualisations pertinentes pour répondre à des besoins cartographiques spécifiques. Évaluer la charge de travail nécessaire pour les différents traitements et actions techniques planifiés. Optimiser la structure des données des projets menés par l’équipe. Développer des scripts Python performants et optimisés. Mettre en place les tables ou vues indispensables aux projets data de l’équipe. Collaborer avec les équipes opérationnelles de la Team Data pour industrialiser les processus de collecte, traitement, supervision et restitution des données.
Mission freelance
Data Science / Python / Dataiku
Nous recherchons un profil expert pour une mission en Data Science – Python, avec une forte expertise technique et une bonne compréhension du domaine bancaire. Objectifs de la mission : Contribuer aux activités suivantes : Maîtrise de l’environnement Python, Git, et PySpark. Utilisation experte de Dataiku pour des projets analytiques et opérationnels. Application de la modélisation statistique et du Machine Learning (ML) à des cas concrets. Création de solutions avancées en reporting et data visualisation adaptées au domaine bancaire. Livrables attendus : Développement et maintenance évolutive de modèles ML robustes. Participation aux comités de suivi pour le monitoring des modèles avec les marchés concernés. Gestion complète des produits data, y compris : Contribution aux modélisations ML et aux études analytiques. Gestion de projet de bout en bout : planification, reporting, propositions de valeur, et documentation technique. Compétences et technologies requises : Expertise en Python et outils connexes (Git, PySpark). Solide expérience avec Dataiku. Connaissances approfondies du domaine bancaire. Maîtrise des techniques de modélisation, de Machine Learning, et de data visualisation. Capacité à gérer des projets complexes, incluant coordination et documentation technique.
Offre d'emploi
Data Engineer
Nous recherchons un Data Engineer expérimenté (+4 ans) pour rejoindre une mission stratégique d’un an au sein d’une grande organisation bancaire. 📍 Lieu : Nantes, avec 3 jours de présence sur site par semaine. 📅 Dates : Début le janvier 2025, fin le décembre 2025. Concevoir et développer des architectures techniques robustes. Tester, déployer et garantir la stabilité des solutions en production. Accompagner l’équipe dans une logique d’amélioration continue (qualité du code). Contribuer aux pratiques et outils de Machine Learning. Techniques : Spark (streaming et batch), Kafka, Java. PySpark/Python (pandas, NumPy, scikit-learn, matplotlib). Stack Hadoop Cloudera : HDFS, Hive, HBase, Phoenix. DevOps : GIT, Jenkins, ELK, Grafana, SonarQube. Voici une proposition d’offre adaptée pour une plateforme qui ne permet pas de liens directs : [Data Engineer - Mission Freelance à Nantes - Janvier à Décembre 2025] Nous recherchons un Data Engineer expérimenté (4 à 7 ans) pour rejoindre une mission stratégique d’un an au sein d’une grande organisation bancaire. 📍 Lieu : Nantes, avec 3 jours de présence sur site par semaine. 📅 Dates : Début le 06 janvier 2025, fin le 31 décembre 2025. Disponibilité : 5 jours par semaine, possibilité d’interventions le samedi. Vous intégrez la Squad DATA ESG, une équipe agile (Scrum) de 8 personnes, dédiée aux projets de finance durable et aux enjeux réglementaires et commerciaux. En tant que Data Engineer, vous serez impliqué dans : 90% Data Engineering : développement sur la stack Cloudera, manipulation des données via la plateforme ZEBRA (Big Data). 10% Data Science : contribution à la création de modèles Machine Learning pour des données ESG et énergétiques. Concevoir et développer des architectures techniques robustes. Tester, déployer et garantir la stabilité des solutions en production. Accompagner l’équipe dans une logique d’amélioration continue (qualité du code). Contribuer aux pratiques et outils de Machine Learning.
Mission freelance
Ingénieur Data gouvernance (H/F) 75
Data quality : - Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. - Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. - Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. - Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) - Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). - Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). - Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » - Définition et mise en place de processus de gestion de la qualité des données. - Identification et résolution des problèmes de qualité de données à travers des analyses régulières. - Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : - Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). - Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) - Mise en place des accès users conformes aux données et aux applications 3. Gouvernance des données : - - Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). - Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Mission freelance
Ingénieur Data
TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Offre d'emploi
Data Scientist (H/F)
Nous recherchons pour notre client, grand compte, un Data Scientist confirmé pour une mission longue durée Notre client figure parmi les principaux gérants d'actifs mondiaux assurant la gestion active d'actions, d'obligations et de taux, la gestion passive de fonds indiciels ainsi que la gestion d'actifs non liquides (actifs immobiliers et dettes privées). Prérequis : Data Science : Apprentissage automatique et analyse de données Pratiques MLOps Déploiement de packages Python PySpark Pratiques LLMs LLMOps Rigoureux, organisé, Proactif
Offre d'emploi
Senior Data Engineer Azure / Lead
En tant que Senior Data Engineer Azure, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des solutions de données cloud. Vous travaillerez en étroite collaboration avec les équipes de développement, les data scientists et les analystes pour construire et maintenir une architecture de données robuste et scalable. Concevoir et développer des pipelines de données sur la plateforme Azure en utilisant des technologies telles qu’Azure Data Factory, Databricks, Synapse, etc. Garantir la qualité, la sécurité et la gouvernance des données. Optimiser les performances des bases de données et des entrepôts de données. Collaborer avec les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées. Assurer la maintenance, la supervision et le monitoring des pipelines et des flux de données. Réaliser des audits techniques et des revues de code pour garantir les bonnes pratiques en matière de développement de données. Assurer une veille technologique et recommander des évolutions architecturales et technologiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.