Trouvez votre prochaine offre d’emploi ou de mission freelance Développeur·euse data (décisionnel / BI / Big Data / Data engineer) à Paris
L’ingénieur DATA établit, développe et agence les outils informatiques et les fondements correspondant à l’analyse des données par les équipes de DATA Scientist. Il prépare l’architecture pour recevoir les données. En résumé, il crée de grands bassins de données pour les entreposer et les tester. Cela permet aux DATA Scientist d’effectuer leur travail dans de bonnes conditions. L’ingénieur DATA gère les systèmes de traitement des bases de données de grande envergure.
L’ingénieur DATA prend garde à offrir une solution qui garantit l’examen de gros volume de données et offre leur sécurité. Il est le premier acteur de la chaine de traitement des données et veille à ce que tout fonctionne correctement.
De nouveaux métiers spécialisé dans le DATA sont créés de nos jours. Afin de traiter ces volumes importants de données stockées dans les plateformes, l’ingénieur DATA gère les popelines de données et veille à ce qu’elles soient bien sécurisées et compréhensibles pour être étudiées par les DATA analyst puis converties par les DATA Scientist afin qu’ils y insèrent des algorithmes.
L’ingénieur DATA est un expert en mission de développement de flux de données et en langages techniques comme Javascript, Scala ou Python.
Informations sur la rémunération de la fonction Développeur·euse data (décisionnel / BI / Big Data / Data engineer).
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data engineering senior

Contexte : Adossée à la plateforme data, la prestation se déroulera au sein de l’équipe Pilotage. L’équipe actuellement constituée d’un Product Owner et d’un Data ingénieur a la charge de la mise à disposition des données utiles à l’ensemble des dashboards via son produit “Data4All”, basé sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituée de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le déploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Data Scientist en pré-embauche (H/F)

Nous recherchons un Data Scientist (H/F). Attention : pré-embauche client . Sous la responsabilité d'un Lead Data Science, vos principales tâches seront les suivantes : Mener des analyses exploratoires Piloter l’implémentation de cas d’usages Machine Learning et IA, depuis la phase d’idéation et de POC jusqu’au déploiement en production Restituer les analyses et modélisations (aux personnes techniques et métier) Collaborer avec les équipes métier pour identifier de nouveaux cas d’usage data-driven et pérenniser la qualité des cas d’usage existants Environnement technique : Python, VSCode, Git, Docker, Snowpark Cloud Azure Snowflake, DBT Microstrategy
DATA SCIENTIST SYSTEME DE SURVEILLANCE

CONTEXTE Missions de surveillance nécessitent un rapatriement et un traitement des mesures régulier pour traiter l’information au plus vite et pouvoir la mettre au service de la maintenance. MISSIONS Assister la section SYS dans l’architecture, le développement et le déploiement de l’Intelligence Artificielle pour automatiser les tâches de traitement à faible valeur ajoutée des mesures de surveillance. Les missions sont : 1. Apprendre automatiquement le début et la fin de shunt sur les différents signaux transmis en tenant compte des seuils de tension normativement définis (0,06V pour circuit UM71 et 5V pour circuit ITE) ou modéliser, le cas échéant, le principe de positionnement des marqueurs de début et de fin de shunt et les insérer automatiquement sur des courbes de tension 2. Caractériser, sur ces courbes, toute anomalie représentant une tension résiduelle (TR) et procéder au traitement adéquat en cas de détection automatique (invalidation, historisation, alerte…) 3. Analyser les occurrences des TR et les corréler avec des données internes et externes pour capter les signaux faibles liés à l’état des voies en prévision d’actions de maintenance. 4. Mettre en place un pipe de traitement automatique des données relatives aux TR intégrant les IA tout en veillant au respect des règles de cybersécurité et de sûreté de fonctionnement (protocoles de communication robustes, redondance des capteurs et des canaux de transmission, backup…) ainsi qu’à l’optimisation des ressources matérielles (edge computing / agentic AI) 5. Industrialiser la solution en définissant les règles de maintenance et en assurant une réduction des coûts de déploiement et d’exploitation (refonte technologique HW / SW). 6. S’insérer dans les dispositifs Big Data du groupe afin de croiser les informations fiables relatives aux TR avec des données hétérogènes pour enrichir les insights d’une maintenance prédictive. 7. Généraliser l’utilisation du dispositif et assurer son évolutivité avec un passage à l’échelle. LIVRABLES Définition des règles de positionnement de marqueurs Analyse des données et constitution des data-sets Développement dans un langage compatible SI Identification des KPI pertinents et évaluation des approches Prototypage rapide, Rendre cette architecture auto-apprenante pour traiter les cas futurs, Solution technique déployée et en production sur l’IHM actuelle, Documentation technique et détaillée de la solution, Suivi de projet avec les éléments clés : planning, comptes-rendus, sources, etc…
Ingénieur LM/LLM & Data Science (H/F)

Ingénieur LM/LLM & Data Science Contexte : La mission fera partie du projet d'ingénierie de l'intelligence artificielle, au sein de la division GDAI. Dans le cadre du projet d'ingénierie de l'intelligence artificielle, nous aidons les entités à passer à l'échelle et à définir et appliquer les meilleures pratiques en matière d'ingénierie ML / LLM. Nous proposons un parcours d'apprentissage en ingénierie ML/LLM à travers le groupe au niveau mondial et nous avons besoin d'une personne pour soutenir ce projet. La mission consistera à § Améliorer le référentiel existant de la formation en ingénierie ML/ML utilisé dans l'ensemble du groupe § Évolution vers la piste du pipeline ML sur AWS et Databricks (utilisant actuellement Azure) § Faciliter les ateliers que nous donnons aux entités sur la formation § Apporter une expertise autour des meilleures pratiques de l'ingénierie LLM § Soutenir la création de contenu pour les pratiques de l'ingénierie LLM (qui peuvent être complexes). Il y a un travail autour de la traduction des pratiques complexes en explications simples § Implémenter ces pratiques dans un environnement sandbox et un outil de benchmark § (Optionnel) Soutenir le projet dans l'optimisation du POC/MVP dans les entités autour des pratiques LLMOps
Senior Data Engineer

À propos de l’entreprise Spécialisée dans l’analyse et l’activation des données issues de la grande distribution, l'entreprise développe des solutions technologiques innovantes permettant aux industriels d’engager leurs consommateurs grâce à l’ultra personnalisation et au gaming. Grâce à des technologies avancées en intelligence artificielle et en data engineering, ils offrent des solutions performantes d’animation e-commerce adaptées aux enjeux du secteur. Descriptif du poste Face à une forte croissance et à des ambitions d’expansion à l’international, nous renforçons notre équipe data en recrutant un Senior Data Engineer (H/F) . 📌 Missions principales Sous la responsabilité du Head of Data , vous aurez pour mission de : Assurer la scalabilité et la fiabilité des services utilisant la donnée face à une forte croissance des volumes. Gérer l’ensemble des pipelines de données, processus ETL et transformations, avec des tests automatisés et manuels. Optimiser les services existants pour améliorer les performances et réduire les coûts. Être force de proposition sur les choix d’architecture et les innovations technologiques. Collaborer avec les différentes équipes (marketing, R&D, produit, finance) pour garantir la cohérence des projets. Assurer un reporting rigoureux des activités et résultats.
Ingenieur Data

Développer et maintenir des pipelines de données actuarielles, assurer la qualité des données et contribuer à divers projets d'analyse de données sur une plateforme DATA moderne. Développer et maintenir des pipelines de données robustes et évolutifs sur Databricks. Assurer la qualité et l'intégrité des données collectées et traitées. Collaborer avec les équipes d'inventaire pour comprendre les besoins en matière de données et fournir des solutions adaptées. Participer à l'optimisation des performances des bases de données et des systèmes de traitement des données. - Contribuer à la documentation des processus et des flux de données.
Azure Data Engineer

Nous recherchons un ingénieur Azure Data pour rejoindre l'équipe Advanced Analytics Service Delivery Team. L'objectif de l'Advance Analytics SDT est de fournir des capacités autour de l'intégration et de l'ingénierie des données et du déploiement de modèles pour les cas d'utilisation prioritaires. L'équipe est composée d'ingénieurs en données, d'experts en la matière, d'architectes de services, d'ingénieurs DevOps, de testeurs, de propriétaires de produits techniques et de Scrum Master. La hiérarchisation du carnet de commandes est effectuée en collaboration avec les propriétaires de produits commerciaux sur la base du pipeline de cas d'utilisation. L'équipe soutient la Cloud Analytics Platform pour créer des capacités autour de solutions numériques et d'analyses avancées. La plateforme héberge le lac de données de l'entreprise du client où les données IoT provenant des équipements des usines des clients dans le monde entier sont collectées et complétées par des sources de données internes. L'équipe utilise ses capacités d'ingénierie des données pour obtenir des informations et générer des solutions aux problèmes des clients. En tant que Data Engineer, vous devrez : - Identifier les ensembles de données nécessaires pour chaque cas d'utilisation en collaboration avec les équipes sources et les analystes commerciaux - Intégrer les données dans le lac de données de l'entreprise - Déplacer et transformer les données du lac de données vers la base de données SQL ou le serveur de données SQL, en fonction du cas d'utilisation. - Implémenter la logique en fonction des besoins de l'entreprise (par exemple, définition des KPI, etc.) - Collaborer avec d'autres équipes informatiques pour créer une solution complète autour d'un cas d'utilisation. - Gestion du cycle de vie des cas d'utilisation livrés Qui êtes-vous ? - Expérience avec la plateforme Microsoft Azure (Data Lake, Data Factory, Databricks, Data Warehouse, Azure DevOps) - Expérience dans la modélisation de bases de données et d'informations - Expérience avec la manipulation de données en utilisant SQL et Python (R est un bonus) - Expérience avec Apache Spark Framework (de préférence PySpark - Python) - Expérience avec des langages de script tels que Python et PowerShell (C#/. NET) - Expérience de l'intégration de systèmes et de services - Expérience de la consommation d'API REST - Expérience du développement d'API REST (de préférence avec Flask - Python) - Expérience des conteneurs Docker
Data Governance Specialist (F/H)

Vous êtes passionné(e) par la gouvernance des données et souhaitez accompagner une grande entreprise dans sa transformation data ? Votre mission : Intégré(e) à l’équipe Data Governance, vous aurez un rôle clé dans la définition et le déploiement des bonnes pratiques de gestion des données : - Mettre en place et piloter les processus de gouvernance des données (comitologie, suivi des indicateurs). - Accompagner les métiers dans l’identification et la classification des données sensibles. - Rédiger la documentation fonctionnelle (cadres de référence, bonnes pratiques, guides utilisateurs). - Assurer la coordination entre les différentes parties prenantes (DSI, juristes, Data Protection Officers, métiers, cybersécurité). - Élaborer les règles de partage des données et garantir leur conformité avec les réglementations (RGPD, Data Act, IA Act). - Soutenir l’intégration et l’évolution des outils de gestion des données. - Animer des ateliers et sessions de formation sur la gouvernance des données. - Contribuer activement à la communauté Data Management et aux initiatives de transformation digitale.
Data Engineer

Pour un client dans le secteur de l'audiovisuel (séries, TV, cinéma) 📍 Contexte & Enjeux Dans le cadre de la mise en place d'un nouvel ETL (Data Azure Factory) et de l'intégration Salesforce/Talend, notre client recherche un renfort en data engineering orienté scripting pour 8 traitements à effectuer 🎯 Missions Principales ✅ Scripting/ traitement de 8 scripts Mission courte- nombre de jours à définir en concertation avec le client ( analyse de la complexité des scripts en séance pour définir le nombre de jours d'intervention) Idéal personnes en cours de process mission longue, en part-time ou souhaitant effectuer une mission supplémentaire en complément d'une mission longue
Architect Palantir Foundry
Nous recherchons un Architecte Palantir Foundry expérimenté pour une mission freelance auprès d’un client dans le secteur financier. Cette mission porte sur l’implémentation de la plateforme Palantir Foundry et nécessite une expertise technique approfondie ainsi qu’une approche analytique des besoins métier. Missions principales : Concevoir et mettre en œuvre une architecture Palantir Foundry adaptée aux besoins spécifiques du client. Analyser les cas d’usage du client dans le secteur financier et proposer des solutions scalables et performantes. Collaborer avec les équipes techniques pour intégrer Foundry dans des environnements techniques variés. Assurer un rôle de conseil en recommandant les meilleures pratiques pour une implémentation optimale. Profil recherché : Expérience significative et hands-on sur la plateforme Palantir Foundry, avec une maîtrise approfondie de ses fonctionnalités et de son utilisation. Capacité démontrée à étudier des cas d’usage complexes et à traduire les besoins métier en solutions techniques. Solides compétences en architecture logicielle, avec une attention particulière à la scalabilité et à l’adaptabilité. Connaissance du secteur financier et de ses enjeux (un atout). Excellentes qualités relationnelles et aptitude à travailler en équipe dans des contextes techniques diversifiés. Si vous êtes passionné par les défis techniques et souhaitez contribuer à une implémentation stratégique dans le secteur financier, envoyez-nous votre CV et une brève présentation de vos expériences pertinentes avec Palantir Foundry à [adresse email ou plateforme de contact].
Tech Lead
Missions Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe au sein dynamique et expérimenté Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data & Analytics utilise e par l’ensemble des entités. Rôles et responsabilités En tant que membre de la squad Data and Analytics Platform, vous participerez aux activités suivantes : • Conception de la Data & Analytics Platform • Évolution des infrastructures cloud via l’Infrastructure as Code • Gestion d’un cluster kubernetes • Développement de micro-services en Python et C# • Conception et maintenance de chaînes de déploiement automatisé • Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform • Enrichissement de la documentation à l’attention des utilisateurs
Architecte Solution Data - GenAI

Pour renforcer nos équipes chez l'un de nos client grands comptes, nous recherchons un(e) Architecte Data GenAI F/H passionné par l'innovation, la Data et l'intelligence artificielle. En tant qu'architecte GenAI, vous jouerez un rôle clé dans la conception et le déploiement de solutions d'intelligence artificielle et de systèmes autonomes pour soutenir l'avenir de la mobilité et des véhicules intelligents. Vous collaborerez avec des équipes multidisciplinaires pour intégrer des technologies de pointe, transformer les processus et répondre aux défis de l'industrie automobile en évolution rapide. Objectif : Évaluer les plateformes GenAI externes afin d’identifier la solution la plus adaptée à vos exigences métiers. Conception et architecture de systèmes GénAI : Concevoir des solutions architecturales basées sur l'IA générative pour l'automobile, y compris la conduite autonome, la gestion de la flotte, les systèmes de prévention des accidents, et les interfaces utilisateur intelligentes. Analyse des besoins métiers : Collaborer avec les équipes R&D, produit et marketing pour comprendre les besoins des utilisateurs finaux et les transformer en solutions AI adaptées et évolutives. Développement de modèles IA avancés : Superviser la création et l'entraînement de modèles d'IA générative pour des applications telles que la simulation de conduite, la prédiction des comportements des conducteurs, et l'optimisation des performances du véhicule. Optimisation et amélioration continue : Mettre en œuvre des algorithmes d'optimisation et de machine learning pour améliorer en permanence les systèmes d'IA et garantir leur efficacité, fiabilité et sécurité dans un environnement automobile. Livrables : La mise à jour des schémas d’architecture conformément aux directives (sécurité, coût, scalabilité) et l’intégration de nouveaux services d’agents IA L’optimisation des composants, incluant la refonte des pipelines d’ingestion des données non structurées et l’amélioration des performances via des mécanismes de cache et de calcul distribués. Une documentation technique complète, validée par le lead developer, ainsi qu’un rapport d’accompagnement sur les méthodologies Agile et DevOps. Technologies et expertise : Expérience confirmée avec FastAPI, BigQuery, Kubernetes, CI/CD et les protocoles de sécurité (OAuth/OIDC), axée sur la maintenance et le scaling de la solution interne.
Data Scientist Dataiku - Conformité bancaire (H/F)

Nous recherchons pour notre client bancaire un(e) Consultant(e) Data Scientist maitrisant Dataiku, Python, Py Spark et ayant éventuellement des connaissances en conformité bancaire, notamment sur la lutte contre le blanchiment de capitaux et le financement du terrorisme (LCBFT). La mission consiste à apporter ses compétences en data science, afin de participer au projet de conformité bancaire. La mission est sur Paris à partir de mi-avril 2025. Les candidatures seront envoyées dès que possible à notre client.
Data Engineer AWS

Je suis à la recherche d'un Data Engineer expérimenté avec un fort accent sur AWS pour rejoindre une équipe en pleine expansion pour l'un de nos clients. Rôle : Data Engineer AWS Lieu: Paris Durée: 6 mois - extensible Travail Hybride - 3j par semaine remote Date de début : Mars/Avril Responsabilités : Développer le pipeline d'ingestion de données Nettoyage des données industrielles et autoamte Gérer la documentation Travailler avec le PO pour comprendre les besoins de l'entreprise Suivi et maintenance de la production
Expert Data Management & Gouvernance

En quelques mots Cherry Pick est à la recherche d'un Expert Data Management & Gouvernance pour un client dans le secteur de l'énergie Description 📌 Descriptif du Poste Nous recherchons un Expert Data Management & Gouvernance pour assurer le delivery run et les projets data sur les périmètres Clients (B2B & B2C) et MDM (Master Data Management) . Vous serez en charge de piloter les projets, de garantir la qualité et la sécurité des données et d’assurer la gouvernance des applications et plateformes data. L’anglais et le français bilingue sont requis pour ce poste. 🎯 Objectifs et Livrables Assurer le delivery des projets et activités data (run & build) Identifier et implémenter de nouveaux cas d’usage à forte valeur en Data Analytics & Data Science Collaborer avec les équipes SI, cybersécurité, conformité et métiers Être le référent Data des métiers et assurer un reporting régulier (COPIL) Superviser les prestataires TMA et garantir la bonne gouvernance des applications Piloter la mise en production et assurer la qualité et la sécurité des données Mettre en place des KPIs, gérer le budget et les risques des projets Participer à la définition et l’évolution du modèle de données Piloter la mise à jour du Data Catalogue et garantir la conformité avec le Data Contract Représenter TGITS auprès des fournisseurs et partenaires 📌 Livrables : Rapport hebdomadaire sur l’activité KPI de suivi du delivery (run & build) Documentation projet et maintenance
Data Engineer AWS
Contexte : Nous recherchons pour l'un de nos clients, un Data Engineer (H/F) afin de renforcer son pôle AI Experts, qui intervient sur des sujets impactant directement son business et l'expérience client, afin d'optimiser la personnalisation, le taux de conversion et les assets. Description : Grâce à ses compétences alliant Développement Big Data, appétences pour les modèles d’IA et Architecture Applicative, le Data Engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables : . Définir et analyser des structures de données, . Contribuer aux assets des différentes équipes produits pour interconnecter et collecter les données, . Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), . Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire), . Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés), . Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, . Présenter et expliquer les réalisations à des publics métiers et techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Travail ancien employeuril y a 6 heures
- Passage automatique en EI : rebascule en micro-BNC possible ?il y a 12 heures
- Dépassement plafond AE deux années consécutives ?il y a 14 heures
- Impossible de liquider mon EURL !il y a 14 heures
- Etat du marché - Avril 2025il y a 17 heures
- recherche missionil y a 19 heures