Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
SAP FICO - project manager
RED Global est à la recherche d’un consultant SAP FI pour venir rejoindre les équipes de l’un de nos clients au Luxembourg dans le cadre de leur projet en cours. Compétences requises : • Expérience de 4 ans minimum sur SAP FI • Manager un projet de Data migration Détails du projet : • Démarrage : Janvier 2025 • Durée : Contrat initial de 6 mois – dont 3 mois 100% on site puis Full remote • Charge de travail : 5 jours par semaine • Lieu : 3 mois 100% on site au LUXEMBOURG puis Full remote • Langues : Français et anglais obligatoire Si vous souhaitez recevoir de plus amples informations sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour en format Word sur
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Chef de projet DATA
Ce projet s'inscrit dans une démarche stratégique visant à générer plus d'autonomie dans l'usage des données de notre client auprès des utilisateurs. Pour ce poste, il est attendu : La compréhension du périmètre métier retenu data La définition fonctionnelle de la solution L'analyse des risques métier (sécurité, J&C) et production Les hypothèses de la solution applicative et technique La frugalisation de la solution Les moyens de tests La stratégie de déploiement Les hypothèses de coûts (build et run) La roadmap et l'organisation
Offre d'emploi
Business Analyst – Data & Transformation(H/F)
Nous recherchons un Business Analyst spécialisé dans le domaine Data et Transformation pour intervenir sur des projets stratégiques au sein d'une grande plateforme d'assurance. Vos missions principales : En tant que Business Analyst au sein du domaine Solutions Data MAP , vous serez amené(e) à : Collaborer en mode agile avec : Les métiers de l’assurance de personnes. Les filières SI de la plateforme d’assurance. Les partenaires Data du groupe et des prestataires externes. Accompagner le Manager Produit dans : Maintenir la cohérence du produit Data en collaboration avec les tech leads et les architectes. Piloter la transformation Data et la rationalisation des outils. Animer la communauté Scrum pour prioriser le backlog des demandes liées à la transformation. Porter les exigences non fonctionnelles avec les équipes (infogérance, sécurité, habilitations). Contribuer au suivi du bon fonctionnement des solutions Data.
Offre d'emploi
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Offre d'emploi
Data Scientist – Domaine de l’environnement(H/F)
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Scientist pour intervenir chez un de nos clients dans le domaine de l’environnement💻💼 💡 Votre futur rôle ? Vous souhaitez travailler au sein d’une équipe d’experts passionnés par la data et l’innovation ? Rejoignez ce projet transverse composé de 6 Data Scientists, où chaque mission est une opportunité de relever de nouveaux défis analytiques ! 🧪 Vos terrains de jeu : • Les données : images satellites, données météo, données océanographiques, télémétrie et trajectoires. • Les méthodes : régression, classification, segmentation sémantique. • Les technologies : de l’analyse classique au Machine Learning et Deep Learning. 📚 Vos missions à la loupe Chaque mission dépend du backlog du Datalab. Pour autant, voici ce que l’on peut déjà vous assurer : • 🦜 Comprendre et analyser le besoin : vous échangerez avec les experts métiers pour cerner le problème à résoudre. • 🧬 Définir la stratégie d’analyse : choix des algorithmes à mobiliser (data processing, ML, DL) en fonction des objectifs. • 💻 Coder et développer des modèles performants : créer des solutions robustes et maintenables en respectant les bonnes pratiques de développement. • 📊 Restituer et déployer : livrer des dashboards percutants et, si nécessaire, mettre les modèles en production. • 👨👩👦 Collaborer au quotidien : échanger régulièrement avec les experts métiers pour affiner les solutions.
Mission freelance
Architecte Data Solution - CIB
Nous recherchons un Architecte Data Solution expérimenté ayant des expérience au sein du secteur bancaire CIB. Vos missions : Mise en place du data mesh en temps réel pour gérer les flux de données Travailler sur des modèles de données normalisés tels que Common Domain Model (CDM) et Financial Products Markup Language (FPML) pour standardiser les processus Architecture hexagonal et DDM : conception et mise en oeuvre des architectures hexagonales basées sur le Distributed Data Management Pré-requis : bac + 5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte Data Solution avec une ou plusieurs expérience dans le secteur bancaire, idéalement CIB vous avez obligatoirement travailler sur la mise en place du data mesh , travailler sur le CDM, FPML et l'architecture hexagonal (DDM) Maitrise de l'anglais maitrise de la stack technique big data : Kafka, Hive, Spark et Oozie
Mission freelance
STream Lead Sénior-S4Hana MM & data migration
Mission: Stream Lead SAP S4 Hana MM + data migration lead Activités principales: - Animation ateliers de conception détaillées sur SAP MM + data migration - Pilotage de l'équipe MM et data migration (release D1 MEP prévue février 2025 + RUN de 6 mois) - Paramétrage de la solution SAP S4 (module MM) - Connaissance des fonctionnalités modèle de prévisions / MRP / S&OP / Template handling - Préparation et suivi de la phase des SIT + Recette - Construction et suivi du plan de bascule avec les différents stream lead - Préparation des comité de suivi projet - Reporting rigoureux au management projet Profil: Senior/ (min 5 ans d'expériences sur SAP S4 Hana MM)
Mission freelance
Ingénieur Data
TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Mission freelance
Expert Technique DataHub
Contexte de la mission : Dans le cadre de l'équipe OPS Data / IA au niveau du socle Datahub. Les prestations suivantes : • Garantir le fonctionnement optimal des outils ou systèmes dont il a la charge. • Garantir la résolution des incidents de niveau 2 ou 3 et contribuer à l'élaboration d'actions préventives sur les éléments dont il a la charge. • Apporter l'expertise, conseil et assistance dans l'usage et la mise en œuvre d'applications auprès des projets, support aux projets. • Contribuer à l'évolution des cibles et des trajectoires du SI, • TechLead sur les produits Data / IA,
Offre d'emploi
Ingénieur réseau et Sécurité H/F
Nous recherchons pour l'un de nos client un Ingénieur réseau et Sécurité H/F, dont les missions seront les suivantes : • Participer à la conception technique pour la mise en œuvre de ses infrastructures ou produits • Intégrer et mettre en œuvre des solutions destinées à fournir le service réseau aux entités du Groupe • Réaliser l'installation des infrastructures, le paramétrage et la validation des composants • Participer au maintien en condition opérationnelle et de sécurité des Infrastructures en apportant un support N3 aux équipes d'exploitation • Prendre en compte les règles et procédures d’exploitabilité de nos infrastructures • Proposer des solutions d'optimisation des systèmes ou des plates formes
Offre d'emploi
Responsable Gestion des Données de Validation – Driver Monitoring System (F/H)
📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous recherchons un.e Data Manager pour renforcer notre équipe dédiée à la validation du Driver Monitoring System (DMS), un système avancé de surveillance basé sur des caméras embarquées. Ce dispositif enregistre des données précieuses sur l’état de fatigue, de vigilance et de stress des conducteurs, afin d’améliorer la sécurité sur la route. Vos responsabilités : Vous aurez un rôle stratégique dans la gestion des données de validation, depuis leur collecte jusqu'à leur archivage et leur mise à disposition pour les équipes de test. Tâches principales : - Collecter et traiter les données de test nécessaires à la validation des systèmes de surveillance des conducteurs. - Assurer la vérification et l’annotation des données conformément aux catalogues statistiques et déterministes spécifiés. - Gérer les flux de données : stockage, archivage, transfert et mise à disposition des données pour les campagnes de validation planifiées. - Définir et mettre en œuvre des processus, outils et règles liés à la gestion des données de validation tout au long du cycle de vie du projet, y compris les phases post-SOP (PRCL). - Estimer les capacités et performances nécessaires pour le stockage et le traitement des données, en prenant en compte les coûts associés. - Collaborer avec les équipes R&D pour garantir la synchronisation des livrables et des versions tout au long du projet.
Mission freelance
FREELANCE – Tech Lead Data (H/F)
Notre client basé à Avignon (84) est à la recherche d’un Tech Lead Data (H/F) freelance pour participer au maintien et à la modernisation d’une plateforme Data Cloud et d’une plateforme sécurisée C3. MISSIONS Au sein d’une équipe agile de 7 personnes, vous serez amené à : · Développer des rapports de visualisation de données sous PowerBi · Développer les traitements de données · Contribuer à la définition de la stratégie technique Data du projet · Développer des uses cases métier ENVIRONNEMENT TECHNIQUE · PYTHON · SQL · Azure Data Factory ou AWS Glue · Apache Nifi / Databricks, · Oracle, PowerBI
Mission freelance
Ingénieur Data gouvernance (H/F) 75
Data quality : - Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. - Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. - Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. - Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) - Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). - Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). - Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » - Définition et mise en place de processus de gestion de la qualité des données. - Identification et résolution des problèmes de qualité de données à travers des analyses régulières. - Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : - Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). - Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) - Mise en place des accès users conformes aux données et aux applications 3. Gouvernance des données : - - Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). - Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Mission freelance
devOps DATA
Bonjour, je recherche pour l'un de mes clients un(e) devOps DATA. Skills : Linux - Data (KAFKA, Hive, Spark) Tâches : assurer le RUN (incidents de niveau 2 et 3) évolution des socles hébergés garantir le fonctionnement optimal des outils ou systèmes apporter son expertise, conseil et assistance dans l'usage et la mise en oeuvre d'applications Localisation : Niort (2 jours de télétravail par semaine) Démarrage : début janvier Longue visibilité (3 ans de mission) N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Architecte product owner Cloud
Contexte Le client a engagé une transformation visant à devenir un "Cloud Service Provider" pour les métiers. Les enjeux sont de pouvoir digitaliser le parcours des développeurs, des équipes d’infrastructures et d’exploitations afin réduire notre "Time&Cost to market" tout en améliorant la fiabilité et la résilience de nos solutions. Pour cela, différents axes de travail devront être adressés : - La conception / développement des applications - Le déploiement des projets/produits - Les solutions d’hébergement - La culture Le client a défini une doctrine Cloud et une stratégie de mise en œuvre qu'il faut maintenant opérer en hébergeant en interne ce « Cloud Privé ». L’objectif est d’embarquer sur ces nouvelles solutions d’hébergement le patrimoine applicatif pour bénéficier de ses gains de temps et financiers. Pour embarquer le patrimoine, il est nécessaire de mettre en place des solutions de type « Platform Engineering ». Une structure projet/produit a été définie et se repartie en 4 équipes : • CCoE : En charge de la gouvernance et de la trajectoire • Outillage du développeur : en charge de la mise à disposition des outils pour les différents types de développeurs • Automatisation du déploiement : Mise à disposition des moyens d’automatisation de déploiements d’infrastructures et applicatifs • Infrastructure as Service : Mise à disposition de services managés d’infrastructures L’objectif de la mission réside dans l’accompagnement dans cette transformation pour aider l’équipe Cloud « Automatisation des déploiements » en tant que TechLeader DevOps. MISSIONS : • Participer à l’élaboration du design technique des produits et à leur intégration dans le SI • Garantir la qualité des produits • Participer aux recueils des besoins utilisateurs/clients - Recueille également les feedbacks et les intègre au Backlog Produit de l’équipe • Gérer et prioriser le Backlog Produit en vue 360 à la maille User Story pour l’équipe - Rédaction des Users Stories - Priorisation des fonctionnalités en fonction de la valeur pour l'utilisateur/client • Être en soutien de l’équipe - Clarification des User Stories - Participe à la qualité des développements en recettant les éléments • Contribuer à la vision et à la roadmap Produit
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.