Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Data Engineer
Nous recherchons pour l'un de nos clients Glocomms, un Data Engineer pour un contrat freelance de 6 mois. Rôle : Ingénieur de données freelance Lieu de travail : Ile-de-France Durée du contrat : Contrat de 6 mois Travail à distance Date de début : Janvier 2025 Principales responsabilités : Concevoir et mettre en œuvre des pipelines ETL optimisés, traitant des téraoctets de données tout en réduisant les coûts du cloud. Développer des outils basés sur Python pour appliquer les règles commerciales et assurer la fiabilité des données de tarification. Construire des systèmes de reporting automatisés et en temps réel pour l'analyse et le suivi des données de tarification. Établir et maintenir des tests et des processus robustes de qualité des données. Collaborer avec des équipes interfonctionnelles pour améliorer les flux de données et soutenir les objectifs de l'entreprise.
Offre d'emploi
Ingénieur(e) Data/Expert(e) Apache Flink
Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique.
Offre d'emploi
Expert IT & Finance
Contexte : Au sein du département Global Markets Regulatory IT Program , la mission concerne le développement et l’industrialisation d’outils de surveillance et monitoring pour le Front Office , avec un focus sur la conformité réglementaire et les risques de conduite . L'objectif est de créer une plateforme globale intégrant des analyses avancées (NLP, Machine Learning). Missions principales : Collecte et documentation des besoins fonctionnels (usage cases, spécifications). Collaboration avec les équipes Data Engineering pour assurer la faisabilité technique. Développement et amélioration des scripts d’ingestion de données (eCom/aCom). Conception et implémentation d’une stratégie data incluant analyse multi-vecteurs. Participation active aux sprints Agile en coordination avec le PM et l'équipe projet. Support fonctionnel dans un environnement international anglophone.
Mission freelance
POT8156-Un consultant Data Gouvernance sur Lyon
Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif.
Offre d'emploi
Consultant SI – Expert Catalogue de Données
📑 CDI (60k€) / Freelance (650€ / jour) - 🛠️ Expertise en Gouvernance des Données - 📍 Lyon (Part-Dieu) 📌 Rejoignez une mission stratégique en tant qu'expert SI pour cadrer et piloter un projet ambitieux de catalogue de données. Vous participerez activement à la gouvernance des données en proposant des solutions robustes pour améliorer les processus existants et répondre aux besoins des parties prenantes. Vos missions 🎯 En collaboration avec le chef de projet, vos principales activités seront : Audit et identification : Analyser les processus existants, les règles en vigueur et documenter les traitements. Organisation & gouvernance : Décrire l'organisation autour de la QDD (Qualité et Gouvernance des Données). Identifier les rôles, responsabilités et points faibles des solutions actuelles. Études & recommandations : Consolider les résultats des POC réalisés en 2024 pour choisir la meilleure solution. Effectuer une cartographie des besoins métiers et des parties prenantes (Métier, IT, Sécurité, RGPD, Infrastructure, etc.). Animation & collaboration : Organiser et animer des ateliers, réunions de suivi et interviews avec les équipes internes et métiers. Travailler avec les équipes techniques pour anticiper les impacts en infrastructure, RGPD et architecture. Structuration et planification : Proposer une vision claire du projet avec ses périmètres, ses priorités et les ressources nécessaires (humaines, technologiques, financières). Élaborer un planning précis de mise en œuvre avec les étapes clés. Indicateurs & formalisation : Définir les indicateurs de succès pour mesurer l’efficacité de la gouvernance des données. Formaliser un plan d’accompagnement et de communication pour assurer le succès du projet. Livrables 📝 Synthèse des processus, besoins métiers et réglementaires. Cartographie des besoins des parties prenantes. Recommandations sur la gouvernance et les processus. Indicateurs de succès et contrats projet.
Mission freelance
Ingénieur Data gouvernance (H/F) 75
Data quality : - Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. - Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. - Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. - Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) - Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). - Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). - Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » - Définition et mise en place de processus de gestion de la qualité des données. - Identification et résolution des problèmes de qualité de données à travers des analyses régulières. - Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : - Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). - Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) - Mise en place des accès users conformes aux données et aux applications 3. Gouvernance des données : - - Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). - Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Mission freelance
📺📻 Product Owner Data Platform secteur médias
📺📻 Pour l'un de nos clients du secteur de l'audiovisuel, nous recherchons une prestation de Product Owner Data. Prestation temps plein de longue durée (15 mois renouvelables 36 mois max) avec 50% de télétravail dans les locaux de notre client à Paris. Data Platform structurée en trois zones pour valoriser les données des produits numériques (streaming et offre d'information). Collecte, nettoyage, centralisation et exposition des données brutes. Transformation des données brutes en informations raffinées pour répondre aux besoins transverses. Exploitation des données raffinées pour des cas d’usage avancés : pilotage, personnalisation, et data science. L’équipe en charge de la première zone est composée d’un PO Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. 1. Collecter et prioriser les besoins - Cadrer les besoins et les objectifs pour et avec chaque partie prenante : Analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinente. - Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes. - Identifier les améliorations en continue sur les produits et processus de l’équipe - Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités. 2. Gestion du Produit - Coordonner les différentes étapes de développement, de l'idéation à la réalisation - Rédiger et recetter les user stories en fonction des besoins - Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner - Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs - Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des process. - Améliorer l’exploitation et le maintien des produits en production - Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme. 3. Définition et communication de la vision produit - Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes - Animer et communiquer sur les évolutions liées à la vision du produit 4. Collaboration avec les équipes pluridisplinaires suivantes - Les équipes Data platform : les 2 équipes Data Domain, le Pilotage, la Personnalisation, la Recommandation, - les équipes en charge de la Gouvernance et de la conformité des données. - les Chefs de Projet technique de la direction du Numérique
Offre d'emploi
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Mission freelance
Delivery Lead / Chef de Projet Technico-Fonctionnel (SAP / Data / Cloud)
Localisation : Issy-les-Moulineaux (hybride, potentiellement 2 jours par semaine sur site) Démarrage : Début janvier Expérience : 15 ans minimum TJM : En discussion (potentiellement autour de 700 €/jour) Dans le cadre d'un projet stratégique, Accor recherche un Delivery Lead expérimenté pour piloter la mise en œuvre et le suivi d'une solution technique autour de SAP, des données et des environnements Cloud. Ce rôle exige une expertise technique et fonctionnelle, une solide capacité de gestion d'équipe, et une bonne compréhension des enjeux stratégiques d'une organisation globale. Gestion de projet : Piloter le cycle de vie complet de la solution technique, de la phase de construction (build) à la phase opérationnelle (run). Garantir la cohérence des solutions et du cadre technique. Suivre et reporter l’avancement du projet, y compris les risques, obstacles, et alertes majeures. Superviser le budget et veiller au respect des engagements financiers. Expertise technique : Assurer la maintenance et l’évolution des architectures produit et infrastructure pour garantir leur performance, fiabilité et scalabilité. Superviser les intégrations avec des outils tiers pour assurer la compatibilité et l’interopérabilité des systèmes. Collaborer avec les fournisseurs tiers pour gérer les niveaux de support (L1, L2, L3). Leadership et coordination : Coordonner les équipes techniques internes et externes, tout en maintenant une collaboration efficace entre les différentes parties prenantes. Animer les comités techniques et fonctionnels pour aligner les objectifs du projet avec les besoins métier. Piloter la conduite du changement auprès des utilisateurs.
Offre d'emploi
Ingénieur.e Infrastructure Big Data AWS
Vous interviendrez au sein de l’équipe Data et serez chargé.e de concevoir, déployer et optimiser les environnements techniques permettant le traitement des données. Vous assurerez la fiabilité, la scalabilité et la sécurité des infrastructures Big data. Votre rôle Conception et déploiement d’infrastructures Big Data · Concevoir et déployer des architectures distribuées pour les plateformes Big Data · Intégrer les solutions Big Data dans des environnements cloud AWS · Assurer la scalabilité et la haute disponibilité des infrastructures Automatisation et maintenance des environnements · Automatiser le déploiement des environnements · Maintenir et mettre à jour les environnements existants, en assurant leur stabilité et leur performance · Gérer les pipelines CI/CD pour l’intégration continue des workflows Big Data Surveillance et sécurité des systèmes · Surveiller la performance des systèmes · Garantir la sécurité des infrastructures Big Data · Implémenter des mécanismes de sauvegarde et de récupération des données Collaboration et support technique · Collaborer avec les équipes Data (data engineers, data scientists) pour comprendre les besoins métier · Apporter un support technique aux équipes en cas de dysfonctionnement ou d’incidents sur les systèmes Big Data Veille technologique et amélioration continue · Suivre les évolutions des technologies Big Data et des bonnes pratiques · Proposer des améliorations pour anticiper les besoins futurs de l'entreprise
Offre d'emploi
Data Scientist (F/H)
📑 CDI (37-45K€) - 📍 Strasbourg - 🛠 Expérience de 2 ans minimum (hors stages / alternance) Vous êtes passionné(e) par l’intelligence artificielle et ses applications concrètes ? Vous aimez transformer des idées novatrices en solutions opérationnelles ? Nous avons une opportunité qui pourrait vous plaire. 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Scientist pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Participer activement à chaque étape du projet, de l’exploration R&D à la mise en production dans le cloud - Concevoir des modèles de machine learning (Deep Learning, IA générative) - Réaliser une veille technologique pour rester à la pointe des avancées en IA - Développer des services robustes en Python - Rédiger des spécifications fonctionnelles claires et précises - Contribuer aux daily meetings en méthodologie Scrum
Mission freelance
Chef de projet junior - Grenoble
Notre client recherche un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. • Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources • Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes • Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) • Être un support des équipes techniques et Data office dans leurs tâches sur l'outil.
Mission freelance
Chef de projet Migration/Accompagnement au changement - Offre de services Data
Rejoignez un projet stratégique en Freelance et faites la différence ! Nous recherchons un professionnel Freelance hautement qualifié pour intégrer une mission d’envergure qui s’inscrit au cœur d’une démarche stratégique de transformation au sein de notre groupe. Ce projet vise à révolutionner l’utilisation des données dans nos filiales et à promouvoir une plus grande autonomie dans leur gestion. Dans un monde où les données sont devenues un actif clé pour les entreprises, Le groupe de notre client a décidé de franchir une étape majeure en structurant et en rationalisant son offre de services Data. L’objectif est clair : répondre aux besoins spécifiques des différentes filiales du groupe tout en garantissant une efficacité accrue, une meilleure autonomie et une flexibilité dans l’accès et l’utilisation des données. Ce projet représente donc une opportunité unique de contribuer à une transformation organisationnelle à grande échelle, qui impactera directement notre performance et celle de nos filiales. En tant que Freelance, vous serez un acteur central dans cette mission. Votre expertise sera mise à profit pour proposer et mettre en œuvre des solutions adaptées aux besoins des filiales. Vous serez amené à travailler en étroite collaboration avec des équipes multidisciplinaires pour : Analyser les besoins spécifiques des filiales : comprendre leurs attentes et leurs contraintes pour leur fournir des solutions sur mesure. Développer des outils et services Data innovants : alignés avec les meilleures pratiques du marché, tout en répondant aux objectifs stratégiques du groupe. Promouvoir l’autonomie dans l’utilisation des données : accompagner les filiales dans l’adoption de ces nouveaux outils et les former pour maximiser leur impact. Optimiser et rationaliser l’offre actuelle : identifier les synergies et simplifier les processus pour gagner en efficacité et en pertinence. Veuillez postuler uniquement si vous êtes Freelance et que vous cochez toutes les cases suivantes : Vous disposez d’une solide expérience en gestion et en optimisation de solutions Data, idéalement dans un contexte multi-entités ou groupes. Vous êtes à l’aise avec les méthodologies agiles et savez travailler dans des environnements complexes et collaboratifs. Vous avez une excellente capacité d’analyse et savez proposer des solutions innovantes et pragmatiques, adaptées à des besoins diversifiés. Vous êtes orienté(e) résultats, autonome et doté(e) d’un excellent relationnel, ce qui vous permet de collaborer efficacement avec des équipes variées. Vous maîtrisez les technologies et outils Data les plus récents (Big Data, BI, ETL, Cloud, etc.) et êtes à jour sur les tendances du secteur.
Offre d'emploi
Data Steward / Consultant Data Governance (H/F)
Description du poste : Nous recherchons un Data Steward/Consultant spécialisé en gestion de la gouvernance des données pour accompagner une initiative stratégique de structuration et de valorisation des données. Vous serez chargé(e) de collecter, structurer et cartographier les données dans un outil de type catalogue de données. Vous jouerez un rôle clé dans l’animation des ateliers métiers et dans l’accompagnement des équipes sur l’utilisation et l’enrichissement des métadonnées. Responsabilités principales : Collecter et analyser les besoins métiers pour la structuration des données. Réaliser la cartographie fonctionnelle et technique des cas d’usage. Mettre en place le suivi des flux de données (data lineage). Former et accompagner les équipes dans l’utilisation des outils de gouvernance des données. Produire la documentation technique et fonctionnelle.
Mission freelance
Responsable Global du Déploiement et de la Gouvernance du Data Catalog
Dans le cadre d’une transformation digitale ambitieuse, notre client, leader mondial dans son secteur, met en œuvre un programme de gouvernance des données à grande échelle. Ce projet repose sur le déploiement d’un Data Catalog global visant à harmoniser les pratiques de gestion des données entre ses équipes centrales et locales. Le Global Data Catalog Lead aura pour principales missions : • Assurer le déploiement, l’administration et l’adoption du Data Catalog dans un environnement cloud. • Piloter les opérations liées à la gouvernance des données, notamment la documentation des actifs, la gestion de la data lineage et l’optimisation des processus via des scans automatisés et des KPI de performance. • Former et animer les communautés Data (Data Owners, Data Stewards, Data Quality Managers) afin de garantir une adoption réussie des outils et processus. • Gérer la relation avec le fournisseur de la solution Data Catalog et proposer des améliorations continues. • Superviser la consommation de l’outil et sa gestion FinOps. Ce rôle stratégique est au cœur des initiatives Data de l’entreprise et contribue directement à l’optimisation des processus et à la qualité des données dans un environnement complexe et international.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.