Principal Data Architect (F/H)
Description du poste Pour renforcer son pôle Data & Digital Transformation, la Direction des Systèmes d’Information d’un acteur international du secteur industriel recrute un Principal Data Architect spécialisé en environnements cloud et data analytics, sous la responsabilité du Responsable Architecture Data Groupe. Missions principales Définir la trajectoire data et piloter les programmes de migration vers les solutions cibles Intervenir à la fois auprès des équipes techniques et des équipes métiers Apporter une vision architecturale globale sur les outils de pilotage des usines (GTO-MP) Assurer une continuité de service et un transfert de compétences fluide avec le consultant actuellement en poste
Data Architect

Nous recherchons un Expert Data / Data Architect freelance pour accompagner un groupe industriel dans la structuration et la professionnalisation de sa stratégie data. 🎯 Objectifs de la mission Homogénéiser et fiabiliser les données issues de l’ERP Dynamics (60 % finance et opérations) Concevoir et déployer un Data Lake robuste (idéalement OneLake / Warehouse) Mettre en place des bases de données solides, de la phase de build à la run Accompagner la création de rapports / KPI pour les équipes métiers Proposer une architecture scalable et professionnaliser l’approche data (du POC au déploiement)
Architecture Solution Data

Je recherche un Architecte Solution Data afin d' intégrer l'équipe Payment Architecture (PA) a en charge d'assurer l'architecture de la filière des paiements. Dans ce cadre, l'équipe travaille à la fois avec les équipes métier et IT pour répondre aux besoins des clients et collaborateurs du Groupe. Les architectes paiement participent à l'instruction des dossiers et à leurs validations avec les SME (Risk, Sécurité, Production, ....) Skills attendus : TOGAF, Archimate, Archi et Autres outils de cartograhies Connaissances Data : Big Data, Hadoop Foundations Maitrise des solutions Data (HDFS, Dataiku, Starburst, Domino, ...) Flink, MQ, Kafka, Spark, Scala, Hive, HBase, Kafka, Elasticsearch Bonnes connaissances des patterns et architectures Data (Datahub, Datalake, DWH, Data Management, ....) Bonne connaissance de l'utilisation des solutions Data dans le Cloud Connaissance des paiements et du métier du Cash Management Français, Anglais : Courant La mission a lieu dans une équipe dédiée au paiement et aux cards Les missions sont : Construction des cartographies métiers (processus métier), fonctionnelles, applicatives et techniques Instruction des sujets d'architecture avec les équipes projets. Conception et élaboration des solutions bout en bout pour le traitement des données, le stockage et l'analyse en temps réel. Conception et Mise en œuvre d'architectures de données évolutive et efficace dans le temps Définition des solutions proposées et les valider dans les comités d’architecture solutions (Design Authority) Soutenance et encadrement des équipes d'ingénieurs des IT métiers sur l'implémentation et les plans d'optimisation des solutions.
Développeur Senior Python – Data Engineering & Architecture Cloud (H/F)

Dans le cadre de la mise en place d’une plateforme data commune à plusieurs pays européens, notre client recherche un développeur Python orienté objet senior, disposant d’une forte culture en ingénierie logicielle et en architecture big data distribuée. Le but de la mission est de renforcer une équipe existante en charge d’un projet stratégique : consolider les données issues des activités du clienf structurer des indicateurs clés métiers, les normaliser, les exposer et en assurer la gouvernance. Cette plateforme, déjà opérationnelle en France, a vocation à être déployée dans d'autres pays européens à moyen terme. Vos missions principales En lien direct avec des ingénieurs data, architectes cloud et référents fonctionnels : Concevoir et développer des modules orientés objet en Python (suivant les bonnes pratiques PEP8) pour l’ingestion, le traitement, la normalisation et la distribution de données massives. Participer à l’industrialisation de la plateforme (framework commun, monitoring, CI/CD, performance, résilience, documentation technique). Mettre en œuvre et automatiser les tests unitaires et fonctionnels à l’aide de Pytest , y compris la gestion des fixtures . Développer des API REST avec Flask ou FastAPI pour exposer les données aux consommateurs (équipes métiers, partenaires...). Garantir la conformité aux normes d’architecture internes et accompagner les déploiements à l’international (support et adaptation locale). Collaborer avec des équipes pluridisciplinaires (IT, data, business) en mode agile. Compétences techniques requises Python (niveau avancé) Programmation orientée objet (classes, décorateurs, conventions de code PEP8) Développement d’API avec Flask ou FastAPI Utilisation avancée de listes, tuples, décorateurs, context managers Tests unitaires avec Pytest (utilisation des fixtures et tests de performance) Cloud & Data Engineering Bon niveau sur AWS (S3, Lambda, Glue, Athena, IAM, etc.) Expérience significative en traitement de données volumineuses (big data) Familiarité avec les architectures distribuées Outils DevOps : Git, GitHub, Azure DevOps, CI/CD, Docker, etc.
Architecte Data et Cloud H/F
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : 4kt9b53s04
INGENIEUR DATA BI - CLOUD AZURE

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
data ops

Vos missions seront de : - mettre en place, standardiser, améliorer les processus d’intégration et de déploiement continu des projets - automatiser, standardiser, la définition des architectures de traitement et d’exposition de données dans un environnement cloud (GCP) - sécuriser les accès aux infrastructures cloud - gérer la solution d’orchestration des traitements de données (Airflow) - identifier proactivement les processus à automatiser, les offres de service à développer - standardiser la gestion du cycle de vie des modèles de machine learning, via des approches MLOps - développer des outils de monitoring et d’alerting des solutions - veiller, proposer, qualifier, tester de nouveaux outils technologiques, dans une approche cloud first - assister la communauté des (déploiement, configuration des applications, gestion des accès, investigation d’incident...) - suivre et optimiser les coûts cloud d’exploitation Intégré pleinement à notre communauté agile d’ingénieurs, vous contribuerez de manière itérative aux projets, et conduirez des revues de code. En tant qu’ingénieur Data Ops, vous rapporterez au directeur du pôle de data science.
Cloud DevOps/Data

Tâches principales : Concevoir et développer des modèles d'infrastructure en tant que code (IaC) avancés et réutilisables pour provisionner et gérer efficacement les ressources cloud, en suivant les meilleures pratiques et des directives architecturales robustes. Architecturer des plans d'application complets permettant des flux de travail d'ingénierie des données robustes et évolutifs. Maintenir les projets AWS existants et soutenir les ingénieurs de données chez le client en utilisant notre plateforme, avec l'aide de l'équipe de support des données. Aider les ingénieurs de données chez le client à migrer leurs pipelines de données "on prem" vers notre plateforme de données AWS (identifier le meilleur modèle, accompagner les ingénieurs de données dans la migration du code existant, etc.). Identifier les processus / tâches clés pouvant être automatisés (par code ou IA) pour accélérer le processus de migration.
Data Migration Lead

***SAP Data Migration Lead - Hybrid - Paris*** RED Global est à la recherche d'un(e) Data Migration Lead pour rejoindre un programme de transformation. Localisation : 3 jours sur site par semaine à Paris, 2 jours de télétravail. Durée : 6 mois renouvelable – Long terme Démarrage : Début juillet 2025 Compétences requises : Expérience significative en migration de données dans un environnement ERP ( S/4HANA, BODS) Solide connaissance des architectures IT (réseaux, infrastructure, cloud) Expérience dans la coordination de projets complexes, idéalement internationaux Anglais courant impératif (réunions, documentation, coordination) Excellentes capacités de communication, rigueur et esprit d’équipe Vos missions principales : Définir et exécuter la stratégie de migration de données Garantir la qualité, l’intégrité et la conformité des données migrées Coordonner les différents intervenants techniques et fonctionnels Rédiger les spécifications fonctionnelles et assurer le suivi des développements Participer aux tests, à la résolution d’anomalies et à la préparation des bascules Contribuer à la gouvernance et aux comités de pilotage
Ingénieur Data expert airflow H/F

Nous recherchons pour notre client situé sur Marseille un Ingénieur Data expert airflow H/F. Missions principales : · Concevoir et développer des pipelines de données robustes et scalables sur GCP. · Implémenter des solutions ETL/ELT · Orchestrer des workflows data avec Cloud Composer · Mettre en place du monitoring et de l'observabilité des plateformes data · Participer à la modernisation des architectures data des clients Stack technique : Airflow (Workflow), Cloud…
Architecte Expérimenté (Infra, Cloud, DevOps, Digital ou Data) H/F
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : qvx4h4gx4n
Data Architect Senior

Dans le cadre d’un programme de transformation digitale globale, vous interviendrez pour un groupe industriel de premier plan afin de structurer et piloter l’architecture data de leur domaine Manufacturing & Powertrain. Vos responsabilités incluent : Élaboration de la stratégie d’architecture data et définition de la roadmap Conception de modèles de données d’entreprise adaptés aux enjeux métier Supervision de l’intégration des solutions data sur une plateforme Azure Coordination étroite avec les équipes architecture, gouvernance et ingénierie Accompagnement au changement, vulgarisation technique et communication avec les directions métiers et IT
Développeur DBT / Data Analyst Engineer H/F

Contexte de la mission : Dans le cadre de sa stratégie de valorisation de la donnée, un acteur majeur du secteur des télécommunications renforce son équipe Data sur un projet clé de transformation et de modélisation analytique. Vous intégrerez une équipe dynamique et pluridisciplinaire pour concevoir, maintenir et optimiser les modèles de données dans un entrepôt cloud structuré autour des bonnes pratiques modernes de data engineering. L'objectif de la mission est de garantir la fiabilité, la performance et la maintenabilité des pipelines de transformation, en lien étroit avec les équipes Data Engineering, BI et Produit. Responsabilités : Concevoir, développer et documenter des modèles de transformation SQL à l'aide de DBT (Data Build Tool), en respectant les standards de qualité et de performance attendus; Collaborer avec les équipes Data Engineering, BI et Produit pour comprendre les besoins métiers et proposer des modèles pertinents; Mettre en place des tests de données automatisés (tests DBT, assertions) pour garantir l'intégrité des données; Contribuer à l'automatisation des workflows de transformation via des outils d'orchestration tels qu'Airflow, dbt Cloud ou GitHub Actions.
Data Engineer confirmé·e – Modern Data Stack / Cloud / Snowflake-H/F
En tant que Data Engineer confirmé·e, vous jouerez un rôle central dans la mise en place de plateformes data modernes et évolutives chez nos clients. Vous interviendrez à la fois sur la conception technique, l’implémentation et le pilotage de projets. Vos missions principales : Mettre en œuvre des plateformes data complètes en environnement cloud (AWS, GCP ou Azure), en intégrant des outils comme Snowflake, dbt ou Airflow Concevoir, développer et optimiser des pipelines de données ETL/ELT en SQL et Python selon les bonnes pratiques de DataOps Encadrer des projets clients et internes, en accompagnant des profils plus juniors dans leur montée en compétences
Consultant Data Catalog Informatica Cloud

Contrainte forte du projet - Le livrable est - Compétences techniques Informatica - Expert - Impératif Informatica Data Catalog - Expert - Impératif Description détaillée Mission d'un an dans le cadre d'un remplacement d'un interne chez le client. Intégré dans une équipe composée d'un responsable de département Data au sein de la DSI, de 3 développeurs BI, le consultant aura le rôle de Data Manager. Il aura la responsabilité du paramétrage et de l'alimentation d'Informatica pour le catalogage des données. Une très grande maitrise du module Data Catalog d'Informatica est nécessaire. Le consultant sera en contact direct des équipes métiers et des autres équipes de la DSI afin de recueillir les besoins et d'interfacer Informatica avec les autres applicatifs de la DSI. De bonnes capacités de communication sont nécessaires
Data Engineer expérimenté sur Snowflake / DBT

Dans le cadre d’un programme de transformation data à l’échelle internationale, vous intervenez comme Data Engineer au sein d’une équipe dédiée à la construction d’une plateforme Cloud Data. Responsabilités principales : Développement de pipelines d’ingestion et de transformation de données via Snowflake, Matillion et DBT . Contribution à l’amélioration continue des pratiques de modélisation et de l’architecture data sur la plateforme Snowflake. Organisation de la collecte de données provenant de systèmes hétérogènes (digital, retail, supply chain, logistique…) à l’échelle internationale. Mise en œuvre de mécanismes de Data Quality en collaboration avec les équipes Master Data. Production de datasets fiables et documentés , en coordination avec les équipes Data Visualization et les Product Owners, dans le respect des priorités projets, coûts et délais. Surveillance et maintenance des pipelines en production , avec un objectif de fiabilité et de performance. Participation active à une démarche agile d’amélioration continue au sein de la DSI.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La loose retour en cdiil y a 10 minutes
- Est-ce que il y a des gens qui sont vraiment a des TJM de 250-300?il y a 28 minutes
- Client impose retour sur site full presentielil y a 39 minutes
- baisse tarifaireil y a 42 minutes
- Timing retraiteil y a une heure
- URSSAF versement libératoireil y a une heure