Trouvez votre prochaine offre d’emploi ou de mission freelance Master Data Management (MDM)
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Ingénieur.e Infrastructure Big Data AWS
Vous interviendrez au sein de l’équipe Data et serez chargé.e de concevoir, déployer et optimiser les environnements techniques permettant le traitement des données. Vous assurerez la fiabilité, la scalabilité et la sécurité des infrastructures Big data. Votre rôle Conception et déploiement d’infrastructures Big Data · Concevoir et déployer des architectures distribuées pour les plateformes Big Data · Intégrer les solutions Big Data dans des environnements cloud AWS · Assurer la scalabilité et la haute disponibilité des infrastructures Automatisation et maintenance des environnements · Automatiser le déploiement des environnements · Maintenir et mettre à jour les environnements existants, en assurant leur stabilité et leur performance · Gérer les pipelines CI/CD pour l’intégration continue des workflows Big Data Surveillance et sécurité des systèmes · Surveiller la performance des systèmes · Garantir la sécurité des infrastructures Big Data · Implémenter des mécanismes de sauvegarde et de récupération des données Collaboration et support technique · Collaborer avec les équipes Data (data engineers, data scientists) pour comprendre les besoins métier · Apporter un support technique aux équipes en cas de dysfonctionnement ou d’incidents sur les systèmes Big Data Veille technologique et amélioration continue · Suivre les évolutions des technologies Big Data et des bonnes pratiques · Proposer des améliorations pour anticiper les besoins futurs de l'entreprise
Delivery Lead / Chef de Projet Technico-Fonctionnel (SAP / Data / Cloud)
Localisation : Issy-les-Moulineaux (hybride, potentiellement 2 jours par semaine sur site) Démarrage : Début janvier Expérience : 15 ans minimum TJM : En discussion (potentiellement autour de 700 €/jour) Dans le cadre d'un projet stratégique, Accor recherche un Delivery Lead expérimenté pour piloter la mise en œuvre et le suivi d'une solution technique autour de SAP, des données et des environnements Cloud. Ce rôle exige une expertise technique et fonctionnelle, une solide capacité de gestion d'équipe, et une bonne compréhension des enjeux stratégiques d'une organisation globale. Gestion de projet : Piloter le cycle de vie complet de la solution technique, de la phase de construction (build) à la phase opérationnelle (run). Garantir la cohérence des solutions et du cadre technique. Suivre et reporter l’avancement du projet, y compris les risques, obstacles, et alertes majeures. Superviser le budget et veiller au respect des engagements financiers. Expertise technique : Assurer la maintenance et l’évolution des architectures produit et infrastructure pour garantir leur performance, fiabilité et scalabilité. Superviser les intégrations avec des outils tiers pour assurer la compatibilité et l’interopérabilité des systèmes. Collaborer avec les fournisseurs tiers pour gérer les niveaux de support (L1, L2, L3). Leadership et coordination : Coordonner les équipes techniques internes et externes, tout en maintenant une collaboration efficace entre les différentes parties prenantes. Animer les comités techniques et fonctionnels pour aligner les objectifs du projet avec les besoins métier. Piloter la conduite du changement auprès des utilisateurs.
Data Scientist (F/H)
📑 CDI (37-45K€) - 📍 Strasbourg - 🛠 Expérience de 2 ans minimum (hors stages / alternance) Vous êtes passionné(e) par l’intelligence artificielle et ses applications concrètes ? Vous aimez transformer des idées novatrices en solutions opérationnelles ? Nous avons une opportunité qui pourrait vous plaire. 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Scientist pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Participer activement à chaque étape du projet, de l’exploration R&D à la mise en production dans le cloud - Concevoir des modèles de machine learning (Deep Learning, IA générative) - Réaliser une veille technologique pour rester à la pointe des avancées en IA - Développer des services robustes en Python - Rédiger des spécifications fonctionnelles claires et précises - Contribuer aux daily meetings en méthodologie Scrum
Devops engineer - genAI team
Nous recherchons pour un partenaire un DevOps Engineer pour renforcer son équipe GenAI Team , spécialisée dans la mise en œuvre et la gestion de solutions d’IA générative. Vous jouerez un rôle clé dans la conception, le déploiement, et l’optimisation des infrastructures nécessaires pour les modèles d’IA, tout en garantissant la performance, la scalabilité et la sécurité des systèmes. En étroite collaboration avec le Solution Architect et l’expert IA, vous participerez à l’intégration des solutions IA dans les systèmes existants et serez un acteur essentiel pour accompagner les évolutions technologiques. Modalités de la Mission Présence sur site : Minimum 2 jours par semaine à Gosselies, avec possibilité de jours supplémentaires selon les besoins du projet. Télétravail : Possible les autres jours, en concertation avec le responsable de mission. Durée : Mission d’un an minimum, avec possibilité de prolongation. Accès : Le site de Gosselies n’étant pas facilement accessible en transports en commun, un permis de conduire et un véhicule sont recommandés. Vos Responsabilités Infrastructure et Cloud Azure Concevoir et maintenir des architectures cloud performantes et sécurisées sur Azure (Synapse, Fabric, Data Factory). Implémenter des pipelines CI/CD robustes et gérer les ressources cloud via Azure DevOps . Support et Intégration IA Générative Collaborer avec l’expert IA pour intégrer des solutions d’IA générative, notamment Prompt Flow et des modèles LLM . Superviser les workflows d’IA et les systèmes multi-agents autonomes. Data Engineering et Pipelines Développer des pipelines ETL performants (Airflow, Data Factory) et assurer la qualité des données avec des outils comme Purview . Monitoring et Optimisation Suivre les performances des solutions via des dashboards (KPI, coût). Optimiser la latence des modèles IA tout en respectant les standards de sécurité. Documentation et Collaboration Rédiger une documentation technique claire et exhaustive pour faciliter la maintenance et la compréhension des solutions. Participer activement à la veille technologique pour identifier et intégrer de nouveaux outils et techniques.
Data Engineer Azure Data Factory/Synapse
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Senior Data Engineer Azure Data factory : Principales responsabilités du poste : S'assurer que les modèles sont expliqués et compris. Valider les développements au cours des premiers mois. Répondre aux questions des ingénieurs en données et assurer la liaison avec l'architecte si nécessaire. Garantir que tous les développements respectent les politiques de l'équipe et que les performances sont optimales. Mettre en œuvre ou participer à des développements complexes. Développer des normes et un kit de développement (pipelines de données, journaux, CI/CD, surveillance de la qualité des données). Accompagnement des profils juniors Qualités attendues : Capacité à travailler en mode collaboratif au sein d'une squad pour livrer dans tous les environnements. Avoir une attitude orientée client. Capacité à collaborer avec des ressources offshore. Savoir communiquer entre les aspects techniques et non techniques. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Data Engineer - Spark/Scala/Databricks
Compétences technologiques indispensables : Maîtrise de l'API Scala Spark (principalement pour les traitements batch). Expertise dans l'optimisation des performances Spark, avec une expérience avérée dans le traitement de volumétries importantes et complexes. Solide expérience en développement Scala et bonnes pratiques de codage. Compétences en build Maven et gestion des dépendances. Expérience de travail dans un environnement cloud (idéalement sur Azure ou AWS ). Compétences appréciées : Connaissance d' IBM Datastage et de son écosystème. Expérience avec Databricks , ses outils et ses services. Compétences transverses : Aisance relationnelle et capacité à travailler efficacement avec différentes parties prenantes. Esprit d'équipe et forte capacité d'adaptation aux évolutions des projets. Rigueur, sens de l’analyse et capacité à faire preuve d’une synthèse pertinente. Autonomie dans la gestion des tâches et des projets. Force de proposition pour améliorer les processus et l’efficacité des projets. Sens des priorités et gestion rigoureuse des délais dans un environnement dynamique. Capacité à travailler en mode multi-projets , tout en maintenant une vision globale des enjeux. Appétence pour comprendre les besoins clients et fonctionnels, et capacité à transformer ces besoins en solutions techniques pertinentes. Compétences en mentorat et partage de connaissances au sein de l'équipe.
Chef de projet junior - Grenoble
Notre client recherche un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. • Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources • Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes • Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) • Être un support des équipes techniques et Data office dans leurs tâches sur l'outil.
Architecte Data / IA - Expert Microsoft et Copilot
En tant qu’Architecte Data / IA, vous serez au cœur des projets stratégiques visant à transformer les données en valeur ajoutée pour l’entreprise grâce à l’intelligence artificielle et aux outils Microsoft, notamment Copilot. Vous serez responsable de la conception, de la mise en œuvre et de l’optimisation des solutions de données et d’IA pour répondre aux besoins métiers. Concevoir et déployer des architectures Data & IA alignées avec les besoins métiers et technologiques. Exploiter les solutions Microsoft Azure (Data Factory, Synapse, Machine Learning, etc.) et l’écosystème Copilot pour maximiser l’efficacité opérationnelle. Intégrer des solutions d’IA générative et conversationnelle dans les processus métiers. Piloter les projets d’optimisation des flux de données et assurer leur fiabilité et leur scalabilité. Former et accompagner les équipes dans l’adoption des outils et technologies Microsoft et IA. Effectuer une veille technologique active sur les avancées en IA, Copilot et l’écosystème Microsoft.
Senior Data Engineer - Azure & Power BI
Mission temps plein longue durée à pourvoir début 2025 2 jours de remote/sem Mise en œuvre de projets data = missions principales o Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des flux data ▪ Mise en œuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Coordination des intervenants SI o Rédaction de spécifications o Etudes, analyses de données et Requêtages o Développement des briques transversales o Mise en place des exigences RGPD/SSI
LEADER BIG DATA anglais courant - Toulouse H/F
Experienced data technical leader with ETL and reporting tool skills, to join the Revenue Team Tech lead role, drive the team of technical topics, assist them, give guidelines… Helop on the current project backlog (corrections & new features) Within a 8 people team Mainly innovation proposition Daily interaction with business team in Paris and Amsterdam (business trips can happen) SQL (Teradata) : 50% ETL Powercenter :15% Big Data : 10% Linux : 10% Reporting tool (SAP 4BI & Spotfire) : 10% Others (ControlM, Jira…) : 5% Leader technique de données expérimenté avec des compétences ETL et outils de reporting, pour rejoindre l'équipe Rôle de Tech Lead, piloter l'équipe sur les sujets techniques, les assister, donner des lignes directrices… Aide sur le backlog du projet actuel (corrections et nouvelles fonctionnalités) Au sein d'une équipe de 8 personnes Proposition principalement d'innovation Interaction quotidienne avec l'équipe commerciale à Paris et Amsterdam (des voyages d'affaires peuvent avoir lieu)
Data Scientist/ Scientifique des données
Développer et optimiser des modèles : créez des modèles d'apprentissage automatique en exploitant de solides connaissances théoriques pour sélectionner les algorithmes appropriés et optimiser les performances. Codage et évaluation de modèles : implémentez des modèles à l'aide de Python sur Databricks. Évaluez les algorithmes et les cadres pour des résultats commerciaux optimaux. Analyse et informations sur les données : utilisez Power BI pour visualiser les données et communiquer des informations exploitables aux parties prenantes. Cycle de vie ML de bout en bout : gérez le cycle de vie complet des projets d'apprentissage automatique, de la préparation des données au déploiement dans Azure Data Factory. Restez à jour : restez au courant des dernières tendances et innovations en matière de science des données et d'apprentissage automatique.
M365 & EntraID Security Expert (10+ years of experience)
Bonjour, Je travaille actuellement avec l'un de mes clients qui recherche un Expert en Sécurité Cloud/Expert M365, avec un fort accent sur la conformité en matière de sécurité, la sécurité des identités et la sécurité des infrastructures. Certifications requises : SC-400 AZ-500 SC-200 Responsabilités : Sécuriser les services SaaS Microsoft M365 et EntraID Directory. Intégrer, maintenir et supporter les solutions de sécurité Microsoft Cloud. Rédiger des documentations techniques, des fichiers d'architecture et des offres de service. Évaluer et challenger les solutions techniques pour les aligner avec les meilleures pratiques en matière de sécurité et les besoins métiers. Collaborer avec la gestion des risques IT afin d’assurer la conformité avec les normes de sécurité. Expertise : Solide connaissance d'Azure AD, M365, Microsoft Information Protection (MIP) et Defender pour O365. Maîtrise des outils de sécurité Azure (Key Vault, HSM géré, Defender pour Cloud, etc.). Expertise des standards IAM et des protocoles d'authentification cloud (SAML, OAuth, OIDC). Les entretiens peuvent être organisés rapidement. Si vous êtes intéressé, merci de m'envoyer votre CV à jour, votre TJM et votre période de préavis. Cordialement, 4o
Assistant logistique H/F
Nous recherchons pour un client dans le domaine de la distribution d’énergie situé à Nantes un Coordinateur/planificateur H/F pour exécuter la prestation suivante : Gestion et attribution des tickets aux techniciens selon leur ordre de priorité Gestion de la planification des techniciens sur les différents sites clients Accompagnement du technicien au cours de son intervention Des compétences en management/pilotage d'équipe sont indispensables pour occuper ce poste. Le poste est à pourvoir asap en CDI-C pendant 6 mois avant embauche par le client. Nous accordons une importance primordiale à la protection de vos données personnelles, et nous nous engageons à respecter pleinement les normes et réglementations du RGPD pour garantir votre vie privée et la sécurité de vos informations tout au long de notre processus de recrutement. Vous pouvez demander à tout moment à consulter notre notice d’information sur le traitement des candidatures.
Senior Data Engineer
Nous recherchons pour le compte d'un groupe international renommé un Ingénieur Données Senior pour une durée initiale de 6 mois avec possibilité d'extension. Rôle : Senior Ingénieur Data Lieu: Lyon Durée : 6 mois (extensible) Travail Hybride : 2 jours travail par semaine Date de début : Janvier/Février 2025 Principales responsabilités : Vous travaillez sur la migration de Talend vers DBT, en assurant une intégration transparente. Concevoir, développer et optimiser des pipelines de données évolutifs, des schémas et des processus pour notre nouvel entrepôt de données. Collaborer avec des équipes interfonctionnelles pour fournir des solutions de données de haute qualité. Vous êtes en charge de l'organisation et de la mise en œuvre de l'ensemble des activités de l'entreprise, de la conception à la mise en œuvre.
Développeur java/data H/F
MISSIONS: 1. Nous recherchons un profil pour venir en renfort sur le moteur d'offres promotionnelles, qui se trouve au cœur de l'activité de l'équipe. Le moteur d'offres gère la conception et l'activation des offres, qu'elles soient promotionnelles ou non transactionnelles (ex: promotions, gains de points bonus pour le client sur la base de ses interactions, promotions ciblées…). 2. L'équipe gère les référentiels des comptes fidélité de toutes les Business Units du groupe. Dans ce cadre, nous recherchons un profil qui ait également une forte appétence "Data", car cette composante se trouve au cœur de nos activités. 3. En complément, nous avons ponctuellement besoin de renfort sur le Frontend. Une appétence pour les sujets Front (VueJS) serait donc un plus. En fonction des besoins de l'équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. ACTIVITES : - Procéder aux développements dans un contexte de projet Agile. - Participer à la définition de la vision technique des produits et appuyer la compréhension des problématiques fonctionnelles et l'expertise technique. -Elaborer les spécifications techniques des produits, et trouver des solutions permettant d'atteindre les objectifs fixés en équipe et ainsi évaluer la charge de développement. - Etre Co-responsable de la qualité du produit (crashlytics, TU/TI, sonar, "Global ready", "tirs de performances", "suivi de la perf"). Piloter l'élaboration de la chaîne de développement, -d'intégration, de déploiement et d'exploitation selon les pratiques DevOps dans la Google Cloud Platform. - Participer à l'amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d'applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, UI/UX, sécurité, DevOps, FinOps…). - Assurer une documentation complète des développements et des configurations au sein du référentiel documentaire - Collaborer activement au RUN / analyse de problèmes en Production et être garant des SLO
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Souhaite répondre au marché de la facturation électronique (TPE/PME), formons un GIEil y a 2 heures
- Transfert siège social SASU (guichet unique)il y a 2 heures
- CSp puis ACRE/ARCEil y a 5 heures
- Cdi vers Portage salarialil y a 5 heures
- Durée de la SASU à l'IRil y a 7 heures
- Question aux indeps suite à une conversation avec recruteuril y a 8 heures