Data scientist
Nous recherchons un Data Scientist pour renforcer les équipes et développer des solutions innovantes basées sur l'intelligence artificielle et l'analyse de données. - Missions : Concevoir et déployer des modèles de machine learning et deep learning pour optimiser les processus de création de produits Analyser de larges volumes de données (clients, ingrédients, tendances du marché) pour identifier des insights stratégiques Développer et industrialiser des pipelines de données et de modèles dans un environnement cloud Collaborer avec les équipes métiers, R&D et IT pour transformer les problématiques business en solutions data-driven Assurer la mise en production des modèles avec un suivi des performances et une optimisation continue
Data engineering senior

Contexte : Adossée à la plateforme data, la prestation se déroulera au sein de l’équipe Pilotage. L’équipe actuellement constituée d’un Product Owner et d’un Data ingénieur a la charge de la mise à disposition des données utiles à l’ensemble des dashboards via son produit “Data4All”, basé sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituée de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le déploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Data Engineer H/F

Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Data Engineer H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg ou Metz Secteur public Vos missions seront : Participer à l'audit fonctionnel et à la compréhension des besoins métiers Rédiger les spécifications et le cahier des charges Réaliser les MCP et MPD Mettre en place de contrôles de données et réalisation de tableaux de bords Participer aux réunions d'avancement Suivre et évaluer la bonne mise en place via des tests d'impacts Gérer la bonne mise à disposition de la documentation
Data analyst

Nous recherchons activement un Data Analyst Freelance pour accompagner une entreprise en pleine croissance dans l’analyse et l’optimisation de ses données. La mission est à pourvoir dès que possible avec une présence requise de par semaine sur site à Paris Intra-Muros . Détails de la Mission : 📍 Localisation : Paris Intra-Muros 📆 Démarrage : ASAP ⏳ Durée : À définir selon les besoins 💰 Rémunération : Selon profil et expérience Missions Principales : Exploiter et analyser les données pour fournir des insights actionnables sur la monétisation et l’engagement des utilisateurs. Utiliser Amplitude Analytics pour suivre le comportement des utilisateurs et identifier des leviers d’optimisation. Manipuler SQL pour extraire, transformer et analyser des données volumineuses. Concevoir et maintenir des tableaux de bord interactifs avec Tableau pour faciliter la prise de décision. Collaborer avec les équipes produit, marketing et data pour répondre aux problématiques business. Assurer la qualité et la fiabilité des données en appliquant des bonnes pratiques analytiques.
Architecte Fonctionnel Data

Au sein du Programme, vous interviendrez sur des projets stratégiques, de la phase de cadrage jusqu’au déploiement en production. En collaboration étroite avec les urbanistes fonctionnels, les chefs de projet, la MOA et les métiers, vous serez en charge de : Mettre à jour la cartographie applicative du SI Décisionnel. Définir la trajectoire urbanistique du SI à court et moyen terme. Assister la MOA et les métiers dans le cadrage des besoins . Identifier et instruire les demandes d’évolutions et nouveaux projets, en assurant leur faisabilité en coordination avec les chefs de projet, les éditeurs, les ingénieurs Data et les experts solutions. Concevoir et porter les solutions technico-fonctionnelles . Réaliser la modélisation des données et accompagner la stratégie de test. Co-construire les spécifications fonctionnelles avec les ingénieurs Data. Accompagner l’équipe projet sur les aspects fonctionnels et participer aux recettes avec la MOA. Assurer la liaison avec les urbanistes et autres parties prenantes. En complément, vous prendrez en charge un volet PMO transverse (30%) , en support au service.
Développeur Big Data Senior

Le contexte : Au cœur de la transformation digitale de notre client qui révolutionne son approche en plaçant la data et le digital au centre de sa stratégie. Dans le cadre d'un projet majeur de transformation, nous recherchons un(e) Data Engineer Senior pour renforcer nos équipes pendant 12 mois minimum. Votre mission : Intégré(e) à nos équipes data, vous contribuerez à : Concevoir et développer des pipelines de données robustes pour nos projets de machine learning Optimiser nos architectures de traitement de données existantes Participer aux revues de code et au développement des bonnes pratiques Collaborer avec notre communauté d'experts (data scientists, engineers, devops) Assurer l'intégration de nouvelles sources de données Garantir la qualité technique des solutions déployées Les plus de cette mission : Projet stratégique à fort impact Environnement technique de pointe équipe data & tech expérimentée Exposition à des problématiques data complexes Opportunité de contribuer à la transformation digitale d'un leader de son marché
Data Engineer Junior

Informations Générales Lieu : Marignane (1 semaine par mois sur site) Date de démarrage : 2 juin 2025 Durée de la mission : 7 mois Langues requises : Français et anglais professionnel ou courant Mission Le Data Engineer Junior sera intégré à l’équipe projet pour contribuer au développement et à l’optimisation des outils et applications basés sur la plateforme Palantir Skywise. Les principales responsabilités incluent : Développement d’applications et de workflows sur Palantir Skywise (Slate, Workshop). Programmation en Python pour le traitement et l’analyse des données. Gestion et optimisation des bases de données SQL.
Process Manager Data - Banque

Contexte et Objectifs de la Prestation Dans un cadre Agile à l'échelle (SAFe) et dans un environnement anglophone, la prestation vise à apporter une contribution active à plusieurs volets stratégiques liés à la mise en place et à la gestion des offres internes Lakehouse. Missions et Responsabilités 1. Mise en place des offres internes Lakehouse L'accompagnement portera sur la structuration et l'optimisation des offres internes Lakehouse, avec un accent particulier sur les aspects suivants : Définition et formalisation des procédures de production : élaboration de recommandations visant à standardiser et améliorer les processus opérationnels. Élaboration d’une grille de mise en œuvre de la solution : définition d’un cadre méthodologique permettant un déploiement efficace et harmonisé des solutions Lakehouse. 2. Suivi et gestion des partenaires Un suivi rigoureux des partenaires impliqués sera assuré à travers plusieurs actions clés : Préparation et animation des comités de suivi mensuels : coordination des échanges avec les partenaires pour assurer une gouvernance efficace. Production des reportings : mise en place de tableaux de bord et d’indicateurs de suivi pour piloter l’activité et mesurer la performance des partenaires. 3. Assistance au Project Management Dans le cadre de la gestion de projets, la prestation inclut un accompagnement sur les phases suivantes : Études et cadrage : analyse des besoins, définition des objectifs et alignement des parties prenantes sur les périmètres des projets. Suivi de l’exécution : mise en place d’un pilotage opérationnel et suivi des livrables pour garantir le respect des délais et des engagements pris. Environnement de Travail Méthodologie : SAFe (Scaled Agile Framework) Langue de travail : anglais Collaboration : équipes internationales.
Data Scientist
Maintien en Condition Opérationnelle (MCO) des environnements : Gérer et administrer les environnements de développement (JupyterHub, VScode, Sparkmagic, etc.). Ajouter de nouveaux laboratoires avec les versions homologuées par le client. Assurer la stabilité et le bon fonctionnement des plateformes existantes. Mettre en place des tests de bon fonctionnement. Support Utilisateurs : Apporter un support technique aux utilisateurs sur Python, PySpark et les outils associés. Aider à la prise en main des outils et résoudre les incidents rencontrés par les utilisateurs. Fournir une assistance lors des mises à jour et des montées de version des environnements et outils. Assurer un suivi des tickets utilisateurs et rendre compte de l’évolution des actions. Déploiement et Gestion des Versions : Qualifier les nouvelles versions des solutions logicielles (Python, Jupyterlab, VScode, etc.). Mettre en place des upgrades des versions des outils analytiques et des environnements. Assurer l'intégration et la configuration des nouvelles versions dans l'architecture existante. Documentation et Formation : Rédiger des modes opératoires et mettre à jour la documentation technique. Créer et maintenir des guides de bonnes pratiques de développement. Organiser des ateliers ou des webinaires pour les utilisateurs. Etude et Pilotage de Projets Cloud : Participer à l’étude et à la définition de la solution Cloud pour le déploiement des outils analytiques. Participer aux POC techniques et fonctionnels pour la plateforme Cloud. Contribuer à l’évaluation des résultats des POCs et à leur intégration dans les processus de développement.
Data scientist (H/F)

Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes data scientist H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : · Concevoir, développer et mettre en œuvre des modèles en utilisant des techniques avancées d'apprentissage automatique et de statistiques. · Travailler en collaboration avec les équipes métier pour comprendre les objectifs, identifier les variables clés et définir les critères de succès pour les modèles. · Collecter, nettoyer et préparer les données nécessaires à l'entraînement des modèles. · Utiliser Python et d'autres outils analytiques pour développer des scripts et des pipelines de données efficaces. · Évaluer la performance des modèles, ajuster les paramètres et effectuer des améliorations continues. · Communiquer efficacement les résultats des analyses et des modèles aux parties prenantes non techniques.
Data Architect Snowflake

Fiche de Poste : Data Architect (Migration Hadoop vers Snowflake) Entité : Automotive / Finance Site : Paris et télétravail (60 % de télétravail possible) Date de démarrage : 1er avril 2025 Durée de la mission : Jusqu’à fin décembre 2025 Nationalité et Langues parlées : Français et Anglais obligatoires Type de projet : Migration de données de Hadoop vers Snowflake Mission : Rejoindre l’équipe Capgemini pour la migration de données d’Hadoop vers Snowflake. Vous serez responsable de l’architecture et de la mise en œuvre de la nouvelle solution de données, en veillant à la qualité des données et à la minimisation des interruptions durant la migration. Responsabilités : • Architecturer la migration des données depuis Hadoop vers Snowflake, en garantissant l’intégrité des données et en minimisant les interruptions. • Concevoir et implémenter un nouveau modèle de données dimensionnel dans Snowflake, en transformant le modèle 3NF existant dans Hadoop. • Utiliser DBT (Data Build Tool) pour les processus de transformation des données, assurant des transformations efficaces et précises. • Gérer et orchestrer les flux de travail de données avec Apache Airflow. • Collaborer avec les équipes interfonctionnelles pour comprendre les besoins en données et s’assurer que la nouvelle architecture répond aux exigences métier. • Développer et maintenir une documentation complète de l’architecture des données, du processus de migration et des modèles de données. • Assurer le respect des meilleures pratiques en matière de gouvernance des données, de sécurité et de conformité tout au long du processus de migration. • Fournir un leadership technique et un mentorat aux ingénieurs et analystes de données juniors.
Ingenieur Data

Développer et maintenir des pipelines de données actuarielles, assurer la qualité des données et contribuer à divers projets d'analyse de données sur une plateforme DATA moderne. Développer et maintenir des pipelines de données robustes et évolutifs sur Databricks. Assurer la qualité et l'intégrité des données collectées et traitées. Collaborer avec les équipes d'inventaire pour comprendre les besoins en matière de données et fournir des solutions adaptées. Participer à l'optimisation des performances des bases de données et des systèmes de traitement des données. - Contribuer à la documentation des processus et des flux de données.
Architecte Data Fonctionnel F/H

METSYS est un intégrateur de solutions Cloud, Cybersécurité et Microsoft. Pour l'un de nos clients grands-comptes leader dans son secteur, nous sommes à la recherche d'un ou d'une Architecte Data Fonctionnel pour un démarrage le 27 avril 2025 à La Défense (92). Afin d'accompagner notre Client dans sa meilleure prise en compte et utilisation de la data, vous interviendrez notamment sur les tâches suivantes : Conception de l'architecture des données : Développer et mettre en œuvre des stratégies d'architecture de données qui s'alignent sur les objectifs de notre Client et sur la stratégie de données ; Concevoir des modèles de données (conceptuels / logiques / physiques), des flux de données et des solutions de stockage qui facilitent une gestion et une extraction efficaces des données, en réutilisant au mieux les meilleures pratiques de notre Client (politique d'architecture des données du Groupe auquel appartient notre Client) ; Choisir les bonnes sources de données en fonction des objectifs de notre Client, en particulier pour les données de base et de référence ; Maintenir un modèle de données d'entreprise (principaux concepts de données et leurs relations sémantiques, comme « Contrat client » - couvertures - « Produit fini »), afin de partager une vision globale des données au niveau de l'entreprise et de leurs relations avec les principaux processus d'affaires et applications informatiques ; Concevoir et superviser l'intégration et la normalisation des données de base dans l'ensemble de l'organisation afin de garantir la cohérence, l'exactitude et l'accessibilité des processus de notre Client ; Collaboration fonctionnelle : Travailler en étroite collaboration avec les équipes fonctionnelles (par exemple, finance, marketing, opérations) pour comprendre leurs besoins et défis en matière de données ; Recueillir les processus opérationnels, faciliter leur partage et promouvoir leur documentation par les propriétaires de processus opérationnels/analystes opérationnels ; Soutenir et coordonner les analystes commerciaux dans la modélisation des données et le choix des sources de données afin de garantir l'alignement et la mise en place d'une architecture de données durable et évolutive. Gouvernance des données Appliquer les politiques de gouvernance des données et les meilleures pratiques en matière d'architecture des données (catalogage des données, rôles et responsabilités en matière de données, normalisation et réutilisabilité des données, classification et protection des données, gestion des données de base et de référence, gestion de la qualité des données) Documentation et formation Créer et maintenir une documentation complète sur les conceptions, les normes et les processus en matière d'architecture de données ; Fournir une formation et un soutien aux équipes fonctionnelles sur les pratiques et les outils de gestion des données
Techlead / Architecte Data

Type de prestation : Tech Lead DATA Lieu de la mission : Paris Gare de Lyon Durée de la prestation : 1 an renouvelable Séniorité : Au moins 10 ans TJM : En fonction du profil Date de démarrage : ASAP Télétravail : 2 jours par semaine Contexte : Notre client a lancé le projet Entrepôt de données Finance et risque. Ce projet couvre la chaîne complète de la donnée analytique dans le cadre du reporting et du pilotage des activités des départements Finance et Risques. Il s’étend de l’extraction des données jusqu’à la mise en place de Tableaux de bords (Informatica). Vous intégrerez une équipe de 20 personnes composée de MOA et MOE. Mission : Analyse des besoins et rédaction des spécifications Proposition des architectures Big Data Garant technique des développements Encadrement des développeurs Développement en Python / R Maîtrise d'Informatica Extraction et modélisation des données : PostgreSQL Revue de code Validation du code et recette Mise en place des chaînes CI/CD Bonnes pratiques de développement
Senior Data Engineer

À propos de l’entreprise Spécialisée dans l’analyse et l’activation des données issues de la grande distribution, l'entreprise développe des solutions technologiques innovantes permettant aux industriels d’engager leurs consommateurs grâce à l’ultra personnalisation et au gaming. Grâce à des technologies avancées en intelligence artificielle et en data engineering, ils offrent des solutions performantes d’animation e-commerce adaptées aux enjeux du secteur. Descriptif du poste Face à une forte croissance et à des ambitions d’expansion à l’international, nous renforçons notre équipe data en recrutant un Senior Data Engineer (H/F) . 📌 Missions principales Sous la responsabilité du Head of Data , vous aurez pour mission de : Assurer la scalabilité et la fiabilité des services utilisant la donnée face à une forte croissance des volumes. Gérer l’ensemble des pipelines de données, processus ETL et transformations, avec des tests automatisés et manuels. Optimiser les services existants pour améliorer les performances et réduire les coûts. Être force de proposition sur les choix d’architecture et les innovations technologiques. Collaborer avec les différentes équipes (marketing, R&D, produit, finance) pour garantir la cohérence des projets. Assurer un reporting rigoureux des activités et résultats.
Data Governance Specialist (F/H)

Vous êtes passionné(e) par la gouvernance des données et souhaitez accompagner une grande entreprise dans sa transformation data ? Votre mission : Intégré(e) à l’équipe Data Governance, vous aurez un rôle clé dans la définition et le déploiement des bonnes pratiques de gestion des données : - Mettre en place et piloter les processus de gouvernance des données (comitologie, suivi des indicateurs). - Accompagner les métiers dans l’identification et la classification des données sensibles. - Rédiger la documentation fonctionnelle (cadres de référence, bonnes pratiques, guides utilisateurs). - Assurer la coordination entre les différentes parties prenantes (DSI, juristes, Data Protection Officers, métiers, cybersécurité). - Élaborer les règles de partage des données et garantir leur conformité avec les réglementations (RGPD, Data Act, IA Act). - Soutenir l’intégration et l’évolution des outils de gestion des données. - Animer des ateliers et sessions de formation sur la gouvernance des données. - Contribuer activement à la communauté Data Management et aux initiatives de transformation digitale.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Trésorerie SASU : Comment gérer les premiers mois ?il y a 6 heures
- Quitter I**y pour Numbr, Keobiz, Evoliz ?il y a 6 heures
- Droit à l'ARE déchu avant épuisement, rechargement de droit impossibleil y a 8 heures
- Proposition de CDI en tant que freelanceil y a 10 heures
- SASU IR : Hiway et versement résultatsil y a 11 heures
- Présentation du projet : Levée de fonds pour l’acquisition et le développement d’un gîte 2.0 dans le Varil y a 15 heures