Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
M365 & EntraID Security Expert (10+ years of experience)
Bonjour, Je travaille actuellement avec l'un de mes clients qui recherche un Expert en Sécurité Cloud/Expert M365, avec un fort accent sur la conformité en matière de sécurité, la sécurité des identités et la sécurité des infrastructures. Certifications requises : SC-400 AZ-500 SC-200 Responsabilités : Sécuriser les services SaaS Microsoft M365 et EntraID Directory. Intégrer, maintenir et supporter les solutions de sécurité Microsoft Cloud. Rédiger des documentations techniques, des fichiers d'architecture et des offres de service. Évaluer et challenger les solutions techniques pour les aligner avec les meilleures pratiques en matière de sécurité et les besoins métiers. Collaborer avec la gestion des risques IT afin d’assurer la conformité avec les normes de sécurité. Expertise : Solide connaissance d'Azure AD, M365, Microsoft Information Protection (MIP) et Defender pour O365. Maîtrise des outils de sécurité Azure (Key Vault, HSM géré, Defender pour Cloud, etc.). Expertise des standards IAM et des protocoles d'authentification cloud (SAML, OAuth, OIDC). Les entretiens peuvent être organisés rapidement. Si vous êtes intéressé, merci de m'envoyer votre CV à jour, votre TJM et votre période de préavis. Cordialement, 4o
Mission freelance
Data Scientist IA
Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban
Mission freelance
Architecte Data Solution - CIB
Nous recherchons un Architecte Data Solution expérimenté ayant des expérience au sein du secteur bancaire CIB. Vos missions : Mise en place du data mesh en temps réel pour gérer les flux de données Travailler sur des modèles de données normalisés tels que Common Domain Model (CDM) et Financial Products Markup Language (FPML) pour standardiser les processus Architecture hexagonal et DDM : conception et mise en oeuvre des architectures hexagonales basées sur le Distributed Data Management Pré-requis : bac + 5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte Data Solution avec une ou plusieurs expérience dans le secteur bancaire, idéalement CIB vous avez obligatoirement travailler sur la mise en place du data mesh , travailler sur le CDM, FPML et l'architecture hexagonal (DDM) Maitrise de l'anglais maitrise de la stack technique big data : Kafka, Hive, Spark et Oozie
Offre d'emploi
Data Scientist – Domaine de l’environnement(H/F)
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Scientist pour intervenir chez un de nos clients dans le domaine de l’environnement💻💼 💡 Votre futur rôle ? Vous souhaitez travailler au sein d’une équipe d’experts passionnés par la data et l’innovation ? Rejoignez ce projet transverse composé de 6 Data Scientists, où chaque mission est une opportunité de relever de nouveaux défis analytiques ! 🧪 Vos terrains de jeu : • Les données : images satellites, données météo, données océanographiques, télémétrie et trajectoires. • Les méthodes : régression, classification, segmentation sémantique. • Les technologies : de l’analyse classique au Machine Learning et Deep Learning. 📚 Vos missions à la loupe Chaque mission dépend du backlog du Datalab. Pour autant, voici ce que l’on peut déjà vous assurer : • 🦜 Comprendre et analyser le besoin : vous échangerez avec les experts métiers pour cerner le problème à résoudre. • 🧬 Définir la stratégie d’analyse : choix des algorithmes à mobiliser (data processing, ML, DL) en fonction des objectifs. • 💻 Coder et développer des modèles performants : créer des solutions robustes et maintenables en respectant les bonnes pratiques de développement. • 📊 Restituer et déployer : livrer des dashboards percutants et, si nécessaire, mettre les modèles en production. • 👨👩👦 Collaborer au quotidien : échanger régulièrement avec les experts métiers pour affiner les solutions.
Mission freelance
STream Lead Sénior-S4Hana MM & data migration
Mission: Stream Lead SAP S4 Hana MM + data migration lead Activités principales: - Animation ateliers de conception détaillées sur SAP MM + data migration - Pilotage de l'équipe MM et data migration (release D1 MEP prévue février 2025 + RUN de 6 mois) - Paramétrage de la solution SAP S4 (module MM) - Connaissance des fonctionnalités modèle de prévisions / MRP / S&OP / Template handling - Préparation et suivi de la phase des SIT + Recette - Construction et suivi du plan de bascule avec les différents stream lead - Préparation des comité de suivi projet - Reporting rigoureux au management projet Profil: Senior/ (min 5 ans d'expériences sur SAP S4 Hana MM)
Mission freelance
Ingénieur Data
TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Mission freelance
Expert Technique DataHub
Contexte de la mission : Dans le cadre de l'équipe OPS Data / IA au niveau du socle Datahub. Les prestations suivantes : • Garantir le fonctionnement optimal des outils ou systèmes dont il a la charge. • Garantir la résolution des incidents de niveau 2 ou 3 et contribuer à l'élaboration d'actions préventives sur les éléments dont il a la charge. • Apporter l'expertise, conseil et assistance dans l'usage et la mise en œuvre d'applications auprès des projets, support aux projets. • Contribuer à l'évolution des cibles et des trajectoires du SI, • TechLead sur les produits Data / IA,
Mission freelance
Lead Data Engineer
Nous recherchons un Lead Data Engineer pragmatique pour rejoindre notre équipe Dans ce rôle, vous fournirez du coaching et des conseils aux data engineers plus juniors et agirez comme relais des architectes au sein de la tribu. Objectifs et livrables : Principales responsabilités du poste : Accompagner l'intégration des nouveaux data engineers. S'assurer que les modèles sont expliqués et compris. Valider les développements durant les premiers mois. Répondre aux questions des data engineers et coordonner avec les architectes si nécessaire. Garantir que tous les développements respectent les politiques de l'équipe et que les performances soient optimales. Mettre en œuvre ou participer à des développements complexes. Développer des standards et un kit de développement (pipelines de données, logs, CI/CD, surveillance de la qualité des données).
Offre d'emploi
Data Engineering Manager
Dans le cadre d'un projet majeur de transformation digitale et de données, nous recherchons un Senior Data Engineering Manager qui rejoindra l'équipe au premier trimestre 2025. Rôle : Responsable de l'ingénierie des données Lieu de travail : Paris Central Flexibilité du travail hybride Date d'entrée en fonction : Q1 2025 Vous serez à la tête de notre équipe de données et superviserez la stratégie de données et l'exécution de la feuille de route. Principales responsabilités : Participer à la transformation numérique des données et veiller à ce que les objectifs de l'entreprise soient atteints. Diriger et gérer l'équipe de base chargée des données. Faire évoluer et développer l'équipe de données par le recrutement et le mentorat continu. Agir en tant que référent pour l'architecture globale et les questions techniques. Promouvoir les meilleures pratiques en matière de données et favoriser une culture d'amélioration continue.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Ingénieur Data gouvernance (H/F) 75
Data quality : - Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. - Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. - Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. - Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) - Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). - Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). - Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » - Définition et mise en place de processus de gestion de la qualité des données. - Identification et résolution des problèmes de qualité de données à travers des analyses régulières. - Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : - Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). - Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) - Mise en place des accès users conformes aux données et aux applications 3. Gouvernance des données : - - Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). - Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).
Mission freelance
devOps DATA
Bonjour, je recherche pour l'un de mes clients un(e) devOps DATA. Skills : Linux - Data (KAFKA, Hive, Spark) Tâches : assurer le RUN (incidents de niveau 2 et 3) évolution des socles hébergés garantir le fonctionnement optimal des outils ou systèmes apporter son expertise, conseil et assistance dans l'usage et la mise en oeuvre d'applications Localisation : Niort (2 jours de télétravail par semaine) Démarrage : début janvier Longue visibilité (3 ans de mission) N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Azure Data engineer & BI
Nous recherchons pour notre client un data engineer pour une mission longue a Gennevilliers Contexte de la mission - Equipe : DataFab qui se compose de 12 collaborateurs : dont 1 manager, 2 Architecte Data, 3 BI et 6 Data Engineer; Missions et tâches : Mission principales ; Mise en oeuvre de projets data ▪ Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des pipelines de données avec ADF et Databricks (ingestion Bronze/ Implémentation Silver) ▪ Mise en oeuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Analyse & BI : ▪ Analyse des besoins ▪ Conception, élaboration et déploiement des rapports et tableaux de bord sous Power BI à partir du Gold ▪ Modélisation des datamarts ▪ Analyses de données et Requêtages ▪ Maintenance évolutive et corrective o Coordination des intervenants SI o Rédaction de spécifications & Documentation o Mise en place des exigences RGPD/SSI
Mission freelance
Data Science / Python / Dataiku
Nous recherchons un profil expert pour une mission en Data Science – Python, avec une forte expertise technique et une bonne compréhension du domaine bancaire. Objectifs de la mission : Contribuer aux activités suivantes : Maîtrise de l’environnement Python, Git, et PySpark. Utilisation experte de Dataiku pour des projets analytiques et opérationnels. Application de la modélisation statistique et du Machine Learning (ML) à des cas concrets. Création de solutions avancées en reporting et data visualisation adaptées au domaine bancaire. Livrables attendus : Développement et maintenance évolutive de modèles ML robustes. Participation aux comités de suivi pour le monitoring des modèles avec les marchés concernés. Gestion complète des produits data, y compris : Contribution aux modélisations ML et aux études analytiques. Gestion de projet de bout en bout : planification, reporting, propositions de valeur, et documentation technique. Compétences et technologies requises : Expertise en Python et outils connexes (Git, PySpark). Solide expérience avec Dataiku. Connaissances approfondies du domaine bancaire. Maîtrise des techniques de modélisation, de Machine Learning, et de data visualisation. Capacité à gérer des projets complexes, incluant coordination et documentation technique.
Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote
skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Offre d'emploi
Data Architect GCP
L'architecte data est la personne responsable de la cohérence de bout en bout des données dans l'organisation en appliquant les règles de l'architecture des données. Il est responsable de la modélisation des domaines de données et des business object. Il participe à tous les projets de l'entreprise afin de définir les impacts sur l'architecture de données existante et de la faire évoluer vers la cible. Activités principales : Data Architecture : - Établir et appliquer les principes de l'architecture des données - Encadrer et valider l'architecture des données dans les projets - Capacité de remettre en question les implémentations de données dans les systèmes opérationnels, business intelligence et la data science afin de s'assurer de leur conformité. - Veiller à ce que la conception des solutions permette la mise en oeuvre des business object. Data Governance : - Participer aux revues de projet et prend des décisions sur l'architecture des données. - Identifier et diagnostiquer les dysfonctionnements, les incidents, les non-conformités et soutenir la formalisation des scénarios de remédiation. des scénarios de remédiation. Data Quality : - Exprimer les exigences de qualité des données, avec les data owners, que les solutions doivent assurer. - Analyser la performance du système d'information et recommander des mesures d'amélioration de la qualité, la sécurité et la productivité Data Modeling : - Maintenir les diagrammes du modèle sémantique (avec les principaux business object) et la data domain map. - Soutenir les projets dans la création de data model et les valider. Metdata Management : - Développer, avec les data owners, un vocabulaire commercial commun et les définitions associées. - Gerer un inventaire de données dans les solutions opérationnelles (à l'aide de l'outil de gestion des métadonnées). - Maintenir, avec les business analysts, product owners et les enterprise architect, l'application "Business object associations. Data Integration : - Capacité d'esquisser des conceptions d'intégration inter-applications de haut niveau. Data Transformation : - Encadrer les équipes chargées des données (business analysts, data owners, analystes et ingénieurs du groupe, de la zone et des BU) et les équipes projet en ce qui concerne l'architecture des données (data modeling, integration pattern, etc.). - Diriger des ateliers sur l'architecture des données afin d'améliorer les pratiques. - Soutenir l'approche de l'architecture en créant des contenus de vulgarisation, de formation et de communication.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- EI - diffusion de mes données personnelles sur des sites internet (malgré une demande de non diffusion SIRENE) ?
- Frais postaux INPI : extorsion ?
- Génération de codes-sources , créativité et "tout le toutim"
- Taxe fonciere (1)
- Numéro de TVA en EI micro
- 3 mois intercontrats, 6 entretiens client final 6 echecs