Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 144 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Expert Splunk - Freelance - (H/F)

SWING-ONE
Publiée le
Automatisation
Cloud
Data analysis

1 an
550-750 €
Île-de-France, France

CONTEXTE : Nous recherchons des Expert(e)s Splunk pour rejoindre notre équipe et nos clients, dans le cadre de l’optimisation des performances, l’observabilité et la gestion des services IT. Vous serez responsable de l' implémentation et du déploiement des solutions Splunk avancées, en intégrant des outils comme Dynatrace et ITSI pour améliorer la visibilité et la gestion des infrastructures et des applications. MISSIONS RECHERCHÉES : 1) Implémentation et Déploiement Splunk : Concevoir, déployer et maintenir des solutions Splunk adaptées aux besoins de l'entreprise, incluant la configuration de la collecte de logs, la gestion des alertes et des dashboards. 2) Observabilité : Mettre en place des solutions d’ observabilité avec Splunk pour surveiller l’état des applications, des services et des infrastructures, et garantir une visibilité complète des performances en temps réel. 3) ITSI (IT Service Intelligence) : Implémenter et optimiser Splunk ITSI pour une surveillance proactive des services IT et une gestion des incidents basée sur les KPIs et les indicateurs de performance 4) Dynatrace : Intégrer Dynatrace avec Splunk pour centraliser les données de performance et améliorer le monitoring applicatif et l’analyse des incidents en temps réel. 4) Analyse des logs et performance : Analyser les logs et données collectées, identifier les anomalies de performance et prendre des mesures pour résoudre rapidement les incidents. 5) Encadrement et expertise technique : Diriger une équipe technique, encadrer les projets de mise en œuvre de Splunk, et partager vos connaissances pour améliorer les compétences internes. 6) Veille technologique : Assurer une veille sur les évolutions de Splunk , Dynatrace , ITSI et les meilleures pratiques du secteur pour garantir la performance optimale des systèmes.

Freelance

Mission freelance
Data Analyst (€400 MAX)

Hanson Regan Limited
Publiée le
Apache Hive
Data analysis

6 mois
100-400 €
Paris, France

Hanson Regan recherche actuellement un Data Analyst (€400 MAX) pour travailler avec une entreprise française réputée, basée à Paris, Nantes ou Aix en Provence. Vous travaillerez aux côtés d'autres analystes de données pour effectuer plusieurs tâches cruciales telles que l'analyse des besoins, la manipulation et l'exploitation de bases de données, et pour comprendre les changements fonctionnels et techniques des données dans le cadre de la même activité. L'analyste de données retenu devra avoir une expérience démontrable dans un rôle similaire et une excellente connaissance d'Excel et de l'interrogation de bases de données (SQL, Hive, etc.) pour tester et explorer la base de données. Vous serez à l'aise pour comprendre les exigences fonctionnelles de l'entreprise et aurez de solides compétences en communication. En raison des exigences du client, nous ne pouvons envoyer des freelances travaillant que via leur propre entreprise française. Malheureusement, nous ne pouvons pas travailler avec des solutions de portage pour cette mission. Si cela vous intéresse, veuillez nous contacter dès que possible avec un CV à jour aux coordonnées ci-dessous.

Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
300-600 €
Nanterre, Île-de-France

CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)

Freelance

Mission freelance
Consultant Vmware / Container

PROPULSE IT
Publiée le
Consultant
container
VMware

24 mois
450-900 €
Paris, France

Propulse IT recherche pour un de ses clients un consultant expérimenté Vmware qui a déjà une bonne expérience de la conteneurisation Les compétences techniques attendues sont les suivantes : o VMWare o NSX Network Virtualization and Security Platform o vSphere 7, ESXi, Update Manager o vSan o vRealize Operations vRO, vRealize Log Insight o vRealize Automation vRA • Expérience en conteneurisation : Kubernetes, Openshift et/ou Rancher Les compétences techniques attendues sont les suivantes : o VMWare o NSX Network Virtualization and Security Platform o vSphere 7, ESXi, Update Manager o vSan o vRealize Operations vRO, vRealize Log Insight o vRealize Automation vRA • Expérience en conteneurisation : Kubernetes, Openshift et/ou Rancher

Freelance

Mission freelance
Data Analyst - Achat Indirect

SKILLOE
Publiée le
Data analysis
Microsoft Excel

4 mois
100-600 €
France

Bonjour, Nous recherchons pour un projet en full REMOTE un data analyst pour traiter des données liées aux achats Indirect. Projet 100% Excel. La connaissance des achats indirects n'est pas un must, c'est un plus. Projet pilote, qui sera deployés sur d'autres service par la suite. Résumé du besoin : réaliser une analyse des données des bases financières vs achats afin de regrouper les datas et permettre aux équipe achats en région ( à l'étranger) de piloter leur activité auprès de leurs agences. Missions / Responsabilités : Via des connaissances en Analyse de Données et une expertises Achats la prestation devra intégrer le fait de : Rapprocher les bases financières et achats afin de mettre en parallèle les facturations et dépenses dans des familles achats spécifiques Identifier les fournisseurs clés et récurent pour définir le "stock Contrat" Travailler sur la simplification et le suivi des KPI par agences pour permettre aux Regional Buyer de piloter leur activité

Freelance

Mission freelance
AI Engineer - Climate Risk Modeling

Ethic Technology
Publiée le
AWS Cloud
Data analysis
Deep Learning

6 mois
700-710 €
Paris, France

Nous recherchons un ingénieur spécialisé en intelligence artificielle (IA) et en Systèmes d’Information Géographique (SIG) afin de rejoindre un projet ambitieux et innovant visant à évaluer et modéliser les risques climatiques liés à des événements extrêmes. Ce projet, porté par un grand groupe international en collaboration avec Nvidia et des experts en climatologie, s’appuie sur les dernières avancées en deep learning et en modélisation climatique pour concevoir des solutions adaptées aux enjeux environnementaux actuels et futurs. Votre rôle principal consistera à concevoir et développer une preuve de concept (PoC) , en mettant en place un pipeline de traitement de données et des expérimentations robustes qui pourront être reproduites et utilisées pour d’autres cas d’usage. Vous serez chargé d’intégrer des modèles académiques avancés et des outils de pointe, tels que ceux proposés par Nvidia (Earth2Studio) et Google Graphcast, au sein d’un cadre technique performant, optimisé pour les expérimentations sur AWS.

Freelance

Mission freelance
Lead developpeur(euse) fullstack NodeJS / React / Typescript - Anglais courant

PROPULSE IT
Publiée le
Anglais
courant
Full stack

24 mois
250-500 €
Paris, France

Lead Développeur(euse) NodeJS / React / Typescript Missions & Activités principales Vous intégrez une équipe sur des projets de développement web et mobile. En tant que référent technique NodeJS, vous aurez les missions suivantes : - Accompagner les développeurs dans la compréhension des besoins / contraintes produits et l'implémentation des solutions techniques, - Formaliser les bonnes pratiques sur l'architecture technique et le développement logiciel afin de garantir la fiabilité, la performance et l'évolutivité de la plateforme, - S'assurer de la qualité du code au travers des revues de code et coordonner le delivery, - Accompagner l'équipe dans la résolution des problèmes rencontrés, - Contribuer à la conception et au développement des produits, - Mettre en place les stratégies de tests, - Réaliser une veille technologique.

CDI

Offre d'emploi
Expert Splunk - CDI - (H/F)

SWING-ONE
Publiée le
Automatisation
Cloud
Data analysis

55k-75k €
Île-de-France, France

CONTEXTE : Nous recherchons des Expert(e)s Splunk pour rejoindre notre équipe et nos clients, dans le cadre de l’optimisation des performances, l’observabilité et la gestion des services IT. Vous serez responsable de l' implémentation et du déploiement des solutions Splunk avancées, en intégrant des outils comme Dynatrace et ITSI pour améliorer la visibilité et la gestion des infrastructures et des applications. MISSIONS RECHERCHÉES : 1) Implémentation et Déploiement Splunk : Concevoir, déployer et maintenir des solutions Splunk adaptées aux besoins de l'entreprise, incluant la configuration de la collecte de logs, la gestion des alertes et des dashboards. 2) Observabilité : Mettre en place des solutions d’ observabilité avec Splunk pour surveiller l’état des applications, des services et des infrastructures, et garantir une visibilité complète des performances en temps réel. 3) ITSI (IT Service Intelligence) : Implémenter et optimiser Splunk ITSI pour une surveillance proactive des services IT et une gestion des incidents basée sur les KPIs et les indicateurs de performance 4) Dynatrace : Intégrer Dynatrace avec Splunk pour centraliser les données de performance et améliorer le monitoring applicatif et l’analyse des incidents en temps réel. 4) Analyse des logs et performance : Analyser les logs et données collectées, identifier les anomalies de performance et prendre des mesures pour résoudre rapidement les incidents. 5) Encadrement et expertise technique : Diriger une équipe technique, encadrer les projets de mise en œuvre de Splunk, et partager vos connaissances pour améliorer les compétences internes. 6) Veille technologique : Assurer une veille sur les évolutions de Splunk , Dynatrace , ITSI et les meilleures pratiques du secteur pour garantir la performance optimale des systèmes.

Freelance

Mission freelance
Ingénieur(e) Splunk - Freelance - (Junior/Confirmé)

SWING-ONE
Publiée le
Automatisation
Cloud
Data analysis

1 an
300-600 €
Île-de-France, France

CONTEXTE : Nous recherchons des Ingénieurs Splunk Junior ou Confirmé pour rejoindre notre équipe, et nos clients. Vous travaillerez sur des projets variés dans un environnement dynamique et innovant, où vous aurez l’opportunité d'évoluer rapidement et d'acquérir de nouvelles compétences. MISSIONS RECHERCHÉES : 1) Implémentation : Gérer l’ implémentation de solutions Splunk sur les infrastructures locales ou cloud, en fonction des besoins et de l’architecture spécifique de l’entreprise. Configurer et déployer des modules Splunk IT Service Intelligence (ITSI) et d'autres applications spécifiques pour automatiser la collecte de données pertinentes. Collaborer avec les équipes de développement pour mettre en place des alertes et des dashboards personnalisés en fonction des besoins de l’organisation. 2) Déploiement : Déployer des instances Splunk sur des environnements complexes (cloud, hybride, on-premise) en respectant les meilleures pratiques d'architecture et de sécurité. Assurer le déploiement de nouvelles fonctionnalités sur Splunk, en garantissant la continuité des services et en minimisant les interruptions. Implémenter des solutions de monitoring de la performance pour les applications et systèmes, en utilisant Splunk et d’autres outils comme Dynatrace pour suivre les métriques de déploiement. 3) Observabilité : Implémenter et configurer des solutions d’ observabilité sur la plateforme Splunk , permettant une surveillance proactive des performances, des logs et des événements des systèmes informatiques. Assurer la visualisation des métriques , des logs, et des traces pour garantir une vue d'ensemble des performances des applications et de l'infrastructure. Créer des dashboards interactifs dans Splunk pour assurer une observabilité en temps réel, facilitant la détection des anomalies et la résolution des incidents. 4) ITSI (IT Service Intelligence) : Implémenter Splunk ITSI pour la surveillance proactive des services IT et garantir la visibilité des performances des applications et des systèmes. Créer et déployer des Service Monitoring Dashboards dans ITSI pour suivre l’état de santé des services IT en temps réel. Configurer des notifiers dans ITSI pour assurer que des alertes sont générées en cas de détection d’incidents dans l’infrastructure ou les applications. 5) Dynatrace : Assurer l'intégration et l'interopérabilité entre Splunk et Dynatrace , permettant une visibilité complète sur les performances applicatives et l'infrastructure. Utiliser Dynatrace pour collecter des données de performance des applications et des environnements cloud, puis les analyser dans Splunk pour des actions correctives plus efficaces. Travailler sur l' automatisation du monitoring et des remontées d’informations entre Dynatrace et Splunk , pour une réponse plus rapide aux anomalies.

CDI

Offre d'emploi
Ingénieur Splunk - CDI - (Junior/Confirmé)

SWING-ONE
Publiée le
Automatisation
Cloud
Data analysis

30k-60k €
Île-de-France, France

CONTEXTE : Nous recherchons des Ingénieurs Splunk Junior ou Confirmé pour rejoindre notre équipe, et nos clients. Vous travaillerez sur des projets variés dans un environnement dynamique et innovant, où vous aurez l’opportunité d'évoluer rapidement et d'acquérir de nouvelles compétences. MISSIONS RECHERCHÉES : 1) Implémentation : Gérer l’ implémentation de solutions Splunk sur les infrastructures locales ou cloud, en fonction des besoins et de l’architecture spécifique de l’entreprise. Configurer et déployer des modules Splunk IT Service Intelligence (ITSI) et d'autres applications spécifiques pour automatiser la collecte de données pertinentes. Collaborer avec les équipes de développement pour mettre en place des alertes et des dashboards personnalisés en fonction des besoins de l’organisation. 2) Déploiement : Déployer des instances Splunk sur des environnements complexes (cloud, hybride, on-premise) en respectant les meilleures pratiques d'architecture et de sécurité. Assurer le déploiement de nouvelles fonctionnalités sur Splunk, en garantissant la continuité des services et en minimisant les interruptions. Implémenter des solutions de monitoring de la performance pour les applications et systèmes, en utilisant Splunk et d’autres outils comme Dynatrace pour suivre les métriques de déploiement. 3) Observabilité : Implémenter et configurer des solutions d’ observabilité sur la plateforme Splunk , permettant une surveillance proactive des performances, des logs et des événements des systèmes informatiques. Assurer la visualisation des métriques , des logs, et des traces pour garantir une vue d'ensemble des performances des applications et de l'infrastructure. Créer des dashboards interactifs dans Splunk pour assurer une observabilité en temps réel, facilitant la détection des anomalies et la résolution des incidents. 4) ITSI (IT Service Intelligence) : Implémenter Splunk ITSI pour la surveillance proactive des services IT et garantir la visibilité des performances des applications et des systèmes. Créer et déployer des Service Monitoring Dashboards dans ITSI pour suivre l’état de santé des services IT en temps réel. Configurer des notifiers dans ITSI pour assurer que des alertes sont générées en cas de détection d’incidents dans l’infrastructure ou les applications. 5) Dynatrace : Assurer l'intégration et l'interopérabilité entre Splunk et Dynatrace , permettant une visibilité complète sur les performances applicatives et l'infrastructure. Utiliser Dynatrace pour collecter des données de performance des applications et des environnements cloud, puis les analyser dans Splunk pour des actions correctives plus efficaces. Travailler sur l' automatisation du monitoring et des remontées d’informations entre Dynatrace et Splunk , pour une réponse plus rapide aux anomalies.

Freelance

Mission freelance
Data Anlyst/Expert Power BI

Trait d'Union Consulting
Publiée le
Data analysis
Microsoft Power BI

4 mois
440-530 €
Boulogne-Billancourt, Île-de-France

Contexte de la mission : Dans le cadre d’un remplacement de congé paternité, notre client, acteur clé dans le domaine du service client, recherche un Consultant Data et Automatisation. La mission débute le 10 janvier avec une période de transition de 15 jours. Vous interviendrez au sein d’une équipe en charge d’améliorer l’expérience client, d’automatiser les processus, et d’optimiser le pilotage des call centers. Objectifs principaux de la mission : Améliorer l’expérience client : mise en place de pratiques Lean Management et Data-Driven Management pour optimiser les interactions clients via téléphone, e-mail et chat. Automatiser et digitaliser les processus : simplifier et fluidifier les workflows des call centers pour des économies et une meilleure productivité. Optimiser les prévisions et le pilotage : utilisation des données pour anticiper les pics d’activité dans une logique d’aplatissement des flux et de réduction des remontées clients. Missions principales : Analyse et visualisation de données : Effectuer du data crunching pour analyser les flux d'activité client et anticiper les variations liées à une activité imprévisible. Créer des visualisations de données pour faciliter la prise de décision via des outils tels que Power BI . Automatisation et optimisation : Automatiser les calculs et prévisions liés à l’activité des call centers. Contribuer à l’automatisation des prévisions sur l’activité Optimiser les processus pour améliorer le Customer Feedback Management . Gestion des anomalies et suivi : Identifier, suivre et résoudre les anomalies remontées par les outils et le CRM. Garantir la fiabilité et la qualité des données utilisées dans le CRM et les tableaux de bord. Collaboration avec l'équipe technique et métier : Utiliser le CRM PEGA (2 systèmes distincts intégrés avec le SID en temps réel). Participer à l’amélioration des intégrations entre API et outils de reporting. Faciliter la connexion entre Power BI et le SID pour améliorer le suivi et le pilotage des performances. Compétences requises : Expertise en data visualisation avec des outils comme Power BI . Bonne connaissance des CRM, en particulier PEGA et leurs intégrations API. Expérience en automatisation de processus et en gestion des flux de données. Compétences en prévisions et data crunching , notamment pour des activités irrégulières et imprévisibles. Sensibilité au Lean Management et à l’amélioration de l’expérience client. Environnement technique : CRM PEGA avec intégration temps réel via SID. Outils de visualisation et de data crunching, principalement Power BI . API pour la gestion et l’automatisation des flux. Durée de la mission : 4 mois Profil recherché : Minimum 3 ans d’expérience en gestion et visualisation de données, avec une expertise avérée en automatisation et optimisation des processus . Une bonne compréhension des environnements CRM et des call centers. Forte capacité d’adaptation face à des pics d'activité et des problématiques complexes liées à des flux imprévisibles.

Freelance
CDI

Offre d'emploi
Data Scientist (H/F)

IT4B Consulting
Publiée le
Data analysis
Data science
PySpark

6 mois
10k-80k €
Paris, France

Nous recherchons pour notre client, grand compte, un Data Scientist confirmé pour une mission longue durée Notre client figure parmi les principaux gérants d'actifs mondiaux assurant la gestion active d'actions, d'obligations et de taux, la gestion passive de fonds indiciels ainsi que la gestion d'actifs non liquides (actifs immobiliers et dettes privées). Prérequis : Data Science : Apprentissage automatique et analyse de données Pratiques MLOps Déploiement de packages Python PySpark Pratiques LLMs LLMOps Rigoureux, organisé, Proactif

Freelance

Mission freelance
Business Analyst - Valorisation et Data Market

NEXORIS
Publiée le
Data analysis

6 mois
540-550 €
Paris, France

Notre Client recherche un consultant Business Analyst - Valorisation et Data Market (H/F). Renforcer l'équipe fonctionnelle en charge du référentiel de données de marché, répondre aux besoins des utilisateurs pour valoriser de nouvelles opérations, et participer aux projets d'évolution de l'outil d'administration des données de marché. - Analyser les besoins des études métiers, techniques et spécifiques nécessaires à la réalisation des projets - Assurer l’expertise et le diagnostic métier et technique en intégrant les besoins spécifiques aux traitements des données de marché pour les clients - Rédiger les spécifications et la documentation des livrables - Garantir la qualité des livrables attendus et l’intégration dans l’existant - Identifier les besoins prévisionnels en Maitrise d’Ouvrage en lien avec les métiers et proposer et concevoir des actions/solutions correspondantes - Assurer une veille sur l’ensemble des problématiques Maitrise d’Ouvrage en relation avec les objectifs de l’entreprise - Elaborer des plans de tests, exécuter des recettes, produire des procès-verbaux et intégrer ces cas de tests aux plans récurrents - Assurer une assistance aux utilisateurs en support de second niveau (50 % de votre temps).

Freelance

Mission freelance
Consultant Data / BI

Bek Advisory
Publiée le
Data analysis
Microsoft Power BI
SQL

6 mois
500-600 €
Paris, France

Nous recherchons pour notre client, un consultant Data pour accompagner les équipes métier. Missions : Recueil des besoins opérationnels auprès des directions Produits (CP, acheteurs, chefs de groupes, directeurs), de la direction Appro Rédaction du besoin Formalisation du besoin en user story Définition des indicateurs : règles de calcul détaillées, règles d’agrégation Identification / qualification des sources de données nécessaires pour enrichir le modèle existant (coordination équipes IT + Data Factory) Suivi de la mise en œuvre par Data Factory (daily notamment) Recette : plan de recette, réalisation, accompagnement des référents métiers pour recette métier finale Support des équipes métiers à la mise en œuvre et au-delà Garant de la cohérence (ou des justifications d’écarts) de ces indicateurs avec l’existant (patrimoine Microstrat, Qlick View notamment) et avec les autres projets fortement consommateurs de données Rédaction de livrables Plan de recette et réalisation de la recette Support aux utilisateurs

Freelance

Mission freelance
Data Quality Analyst

HIGHTEAM
Publiée le
Data analysis
Google Cloud Platform
Python

3 ans
400-550 €
Île-de-France, France

Ce poste est rattaché à la Directrice Data . Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : ● Explorer, analyser et documenter les données du data Warehouse du groupe. ● Contribuer à l’amélioration de la qualité du data Warehouse : mettre en place le plan d’action défini sur 2024 : contrôles, monitoring et alerting. ● Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. rôle support, retro-engineering et documentation, mise en place de tests de qualité de données (data quality/observabilité) via Sifflet/Python/SQL et Looker/Looker Studio Encadrer une équipe de 3 data analystes : les former aux pratiques Links, les challenger sur leurs réalisations, les monter en compétence sur la partie technique. Notre stack data : GCP, BigQuery, Python, Looker Studio

CDI
Freelance

Offre d'emploi
Data Manager - Poitiers

K-Lagan
Publiée le
Data analysis
Data management

2 ans
10k-45k €
Poitiers, Nouvelle-Aquitaine

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Manager pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Poitiers, Nouvelle-Aquitaine, France. Vos missions principales : Gérer et structurer les données pour assurer leur intégrité, disponibilité et sécurité. Superviser les processus de collecte et de stockage des données. Collaborer avec des équipes multidisciplinaires (Data Analysts, Data Scientists, développeurs) pour optimiser les flux de données. Proposer et mettre en œuvre des stratégies de gestion de données en ligne avec les objectifs de l'entreprise. Assurer la conformité aux normes et réglementations en vigueur (RGPD, etc.). Suivre et analyser les performances des infrastructures de données et recommander des améliorations. Former et sensibiliser les équipes à l’importance de la bonne gestion des données.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

144 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous