Trouvez votre prochaine offre d’emploi ou de mission freelance Directeur·rice / Responsable de la data (Chief Data Officer)

Le directeur de la data, ou chief data officer ou encore CDO est en charge de la stratégie digitale sur la partie des données. Son rôle est de rassembler les données qu’il a à sa disposition pour en tirer les informations les plus pertinentes pour mener à bien sa stratégie d’un point de vue opérationnel et organisationnel de l'entreprise. Il est garant de la fiabilité des données recueillies en interne comme en externe et de leur cohérence entre elles. Pour mener à bien sa stratégie, le directeur de la data (CDO) suit une méthodologie bien précise et doit rester le plus clairvoyant possible pour exploiter les données de manière claire et objective. Concrètement, les données sont misent sous la forme d'algorithmes, graphiques, afin de pouvoir communiquer ces données aux autres services de l’entreprise pour laquelle il travaille qui en ont besoin. Le directeur de la data (CDO) est également le référent informatique d’un point de vue des data puisqu’il communique avec toutes les parties prenantes de l’entreprise. Il est généralement en collaboration étroite avec contrôleur de gestion, directeur informatique (DSI), responsables des activités opérationnelles et des fonctions supports et reste ainsi au cœur des sujets. Il travaille également avec les data scientist et les analystes Web puisqu’ils ont la data en commun. Pour mener à bien ses missions tout en comprenant les corps de métiers avec lesquels il travaille, le directeur de la data (CDO) doit avoir une grande qualité d’écoute, de pédagogie et de communication. C’est un métier très recherché par les entreprises actuelles. Le métier de directeur de la data (CDO) peut s’exercer dans un service informatique ou bien en Freelance.
Informations sur la rémunération de la fonction Directeur·rice / Responsable de la data (Chief Data Officer).

Votre recherche renvoie 280 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Offre premium
Freelance
CDI

Offre d'emploi
Chef Projet DATA/IA

REDLAB
Publiée le
Agile Scrum
Data management

6 mois
40k-45k €
400-550 €
Île-de-France, France

Titre du poste : Chef de Projet Innovation / Pilote POC Senior Expérience et Expertise : Expérience en gestion de projet transverse : Minimum 10 ans d'expérience en tant que chef de projet (appui méthode/pilotage ou pilote/dérisqueur). Expérience avérée dans la gestion et le suivi de POCs ou d'expérimentations innovantes. Expertise en Data Science / IA (optionnel) : Une expérience ou des connaissances en IA, Data Science ou innovation numérique serait un réel atout. Capacité à dialoguer avec des développeurs et des experts techniques. Marché de l'énergie : Une expérience préalable dans le secteur de l'énergie est fortement souhaitée. Innovation et ateliers multi-acteurs : Avoir travaillé dans des structures axées sur l'innovation ou les environnements collaboratifs multi-acteurs. Compétences Techniques et Méthodologiques : Gestion de projets / Méthodes agiles : Maîtrise des outils et méthodologies de gestion de projet (JIRA, reporting, suivi des risques). Capacité à structurer, suivre et livrer les projets dans les délais. Animation et mobilisation : Capacité à animer des ateliers, réunions et comités dans des environnements complexes et multi-acteurs. Préparation de supports (présentations, comptes-rendus, rapports d’évaluation). Conformité et gouvernance : Bonne connaissance des problématiques liées à la sécurité des données et à la protection des données personnelles. Expérience dans la préparation d’instances décisionnelles (PocBoards, revues de conception). Communication et relationnel : Très bon relationnel, esprit d’équipe, écoute et capacité à fédérer autour des projets. Formation : Bac+5 minimum (école d’ingénieur, université, ou équivalent) avec une spécialisation technique ou en management de projets. Une formation en lien avec la Data Science ou l’IA serait un plus. Soft Skills : Grande capacité d'adaptation. Curiosité et goût pour l'innovation. Capacité à prioriser et gérer des sujets multiples. Force de proposition dans des environnements complexes et innovants. Conditions complémentaires : Durée de la mission : 6 à 7 mois, à partir de février 2025. Taux d'engagement : 100% ou 80% (à discuter). Lieu de la mission : Sur site, avec possibilité de télétravail partiel. Langues : Français (indispensable), anglais (souhaité). Ce profil mixe une expertise technique légère, de solides compétences en gestion de projet, et une appétence pour l’innovation dans le cadre d’un environnement réglementé comme celui de l’énergie.

Offre premium
Freelance

Mission freelance
un Architecte DataOps/Systems/GPU

SKILL EXPERT
Publiée le
AI
Cloud
Data science

1 an
400-700 €
Montreuil, Île-de-France

Missions Pour un client du secteur bancaire, nous recherchons un Architecte DataOps/Systems/GPU expérimenté pour rejoindre l'équipe DataOps/DataLab au sein de la division AI & Innovation. Vous serez chargé de concevoir, implémenter, et superviser les plateformes de Data Science et AI, tout en renforçant les pratiques DevSecOps et GitOps. En tant qu’Architecte DataOps/Systems/GPU, vos principales responsabilités incluent : ● Renfort des Équipes Systèmes et GPU Grid : ○ Participer à la conception, à l'implémentation et au support des produits de Data Science/AI (exploration, MLOps, inférence, GPU Grid). ● Amélioration Continue : ○ Contribuer à l'amélioration continue des produits et services de l'équipe, en intégrant les meilleures pratiques et innovations du marché. ● Gestion du Cycle de Vie des Produits : ○ Automatiser et industrialiser les solutions de Data Science en suivant des approches "Cloud Native" basées sur Kubernetes. ● Supervision des Plateformes : ○ Assurer la maintenance, la supervision et la fiabilisation des 15+ plateformes de Data Science (production et hors production). ○ Garantir la robustesse et la performance des infrastructures en environnement Cloud et on-premise. Compétences Techniques : Expertise en architecture Data Science/AI, incluant MLOps et LLMOps. Solides compétences en Kubernetes, Openshift, et pratiques DevSecOps/GitOps. Expérience avec les environnements GPU Grid et les technologies d'automatisation autour des APIs des infrastructures et produits. Connaissances en supervision et optimisation de plateformes hybrides (Cloud & on-premise).

Offre premium
CDI

Offre d'emploi
Fullstack Developer Spring/Kotlin/React

BLOOMAYS
Publiée le
AWS Cloud
Cloud
Data management

65k-80k €
Paris, France

Poste de développeur full-stack senior pour rejoindre l'équipe technique d'une startup dans l'énergie. Les principales responsabilités incluent : - Développer et maintenir une application web pour les clients professionnels - Développement du back-end en Java Spring et du front en React - Contribuer à la refonte de l'architecture et du pipeline de données - Capacité à gérer plusieurs projets en simultané - Travailler en étroite collaboration avec le CEO, le service client et l'équipe produit pour comprendre les besoins et livrer des fonctionnalités - Être opérationnel et autonome dans un environnement start-up en constante évolution

Freelance

Mission freelance
Architecte IA & Data R&D (H/F)

LeHibou
Publiée le
Architecture
Big Data
DevOps

12 mois
400-600 €
Échirolles, Auvergne-Rhône-Alpes

Notre client dans le secteur Conseil et audit recherche un/une Architecte AI& Data R&D H/F Description de la mission : La cellule centrale d’architecture du département cherche à renforcer son équipe avec un architecte spécialiste de l’ingénierie des données et de l’intelligence artificielle . En tant que membre de la cellule d’architecture, vous intervenez sur toute l’offre logicielle, ainsi que sur les produits émergents et en incubation, et vous échangez aves les différentes parties prenantes de nos entités R&D, légal et business. Au sein de l’équipe d’architectes, vous travaillez en collaboration rapprochée avec toutes les équipes de la R&D software, mais également la R&D hardware pour faire converger les produits et les pratiques. Vos missions : · Analyser les besoins et collaborer avec les équipes R&D et les équipes de gestion produit, · Accompagner les équipes R&D sur l’ingénierie et la gouvernance des données et des modèles, et sur les architectures techniques soutenant l’IA (HW, SW) pour l’apprentissage et l’inférence, · Assurer la cohérence architecturale et technologique entre les produits et favoriser la réutilisation, · Participer à la définition des politiques de qualité, de sécurité, de conformité règlementaire, à la mise en place de pratiques communes, et à leur suivi, · Évaluer et identifier en permanence les possibilités d'amélioration, d'innovation et de transformation, · Dans un second temps, participer à la stratégie IA du département et de la division.

CDI
Freelance

Offre d'emploi
[100% Anglais] Data Engineer

SQUARE ONE
Publiée le
Big Data
SQL

12 mois
40k-48k €
400-450 €
France

Title: Junior Data Integration Engineer Description: We are seeking a junior Data Engineer to address a need within our Supply Chain Management (SCM) ecosystem. This role focuses on designing and implementing interfaces between key systems. Successful candidate will ensure seamless single & bi-directional data exchanges and contribute to a more interconnected and efficient system landscape. Scope of Work:  Design and develop interfaces between SCM systems.  Collaborate with cross-functional teams to integrate systems and other domains into the supply chain network.  Work closely with stakeholders to understand business needs and ensure alignment of integration solutions. Nous recherchons un Data Engineer junior pour répondre à un besoin au sein de notre écosystème de gestion de la chaîne d'approvisionnement (SCM). Ce rôle se concentre sur la conception et la mise en œuvre d'interfaces entre les systèmes clés. Le candidat retenu assurera des échanges de données simples et bidirectionnels transparents et contribuera à un paysage de systèmes plus interconnecté et plus efficace. Portée du travail :  Concevoir et développer des interfaces entre les systèmes SCM.  Collaborer avec des équipes interfonctionnelles pour intégrer des systèmes et d'autres domaines dans le réseau de la chaîne d'approvisionnement.  Travailler en étroite collaboration avec les parties prenantes pour comprendre les besoins de l'entreprise et garantir l'alignement des solutions d'intégration. Développer les processus d'intégration de données et d'ETL.

Freelance

Mission freelance
Data Analyst / Expert Power BI

KUBE Partners S.L. / Pixie Services
Publiée le
Big Data
Microsoft Power BI

6 mois
430-930 €
Paris, France

1. Expertise Technique Concevoir et développer des tableaux de bord, rapports et visualisations interactives en utilisant Power BI. Gérer l’intégration des données issues de diverses sources (SQL, Excel, ERP, API, etc.). Optimiser les performances des modèles de données et des rapports Power BI. Assurer la maintenance et l’évolution des solutions Power BI en fonction des besoins des utilisateurs. 2. Mentorat et Accompagnement Accompagner les équipes dans l’adoption et l’utilisation optimale de Power BI. Former les collaborateurs (workshops, sessions individuelles ou collectives) pour qu’ils deviennent autonomes dans l’analyse et la visualisation des données. Assurer un rôle de mentor en transmettant les meilleures pratiques, astuces et méthodologies pour un usage efficace de Power BI. Apporter un soutien technique et stratégique aux équipes dans leurs projets data. 3. Veille et Innovation Assurer une veille technologique pour identifier les évolutions de Power BI et des outils connexes (Power Query, Power Automate, DAX, etc.). Recommander des solutions innovantes pour répondre aux besoins métiers en matière de Business Intelligence.

Freelance
CDI

Offre d'emploi
Architecte technique IT

FIRST CONSEIL
Publiée le
Azure
Big Data
Google Cloud Platform

12 mois
Paris, France

Le poste est au sein de l'équipe architecture du groupe. Cette équipe est composée d'un architecte infrastructure, d'un architecte fonctionnel, d'un architecte usine de développement, d'un architecte Datascience. Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructure Suivi et amélioration des processus Bonne connaissance du système d'information global et de l'architecture SI Excellente connaissance des systèmes d'exploitation (notamment Windows, UNIX/LINUX), des réseaux et télécommunications, des bases de données, du stockage (NAS/SAN/DAS) Connaissance des technologies et outils de virtualisation Vmware. Maîtrise des environnements de conteneurisation tels que Kubernetes, Redhat OpenShift. Bonne connaissance des environnements Cloud (Azure, GCP), BigData Maîtrise des risques liés à la sécurité des infrastructures et à la dématérialisation Connaissance des normes dans le domaine de l'archivage et du chiffrement. Bonne connaissance du modèle C4 Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant. Polyvalence, goût pour la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique pour faire la part des choses entre la technique et le discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment).

Freelance
CDI

Offre d'emploi
IT INFRASTRUCTURE ARCHITECT H/F

AMAGO EXPERTISE
Publiée le
Architecture
AWS Cloud
Azure

36 mois
70k-80k €
600-800 €
Paris, France

AMAGO IT recherche pour l'un de ses Clients GC INTL dans le cadre d'une mission de longue durée : IT INFRASTRUCTURE ARCHITECT Département de l’Infrastructure et des Opérations informatiques Contexte : Le poste est au sein de l’équipe Architecture Groupe (IT Architect & fonctionnel, Architecte Data & Usine digitale) Rôles : -Suivi et conseil aux équipes de conception -Participation à la définition des infrastructures techniques -Gestion de projets d’infrastructure -Suivi et amélioration des processus

Freelance
CDI

Offre d'emploi
Développeur Big Data GCP

Digistrat consulting
Publiée le
Big Data
Google Cloud Platform
HDFS (Hadoop Distributed File System)

3 ans
40k-45k €
400-450 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

Freelance

Mission freelance
Architecte Infrastructure

GROUPE ALLIANCE
Publiée le
Azure
Big Data
Google Cloud Platform

24 mois
430-650 €
Paris, France

Pour le compte de l' un de nos clients dans le domaine de la finance , nous recherchons un Architecte Infrastructure Vos missions principales seront: · Le suivi et conseil aux équipes de conception, · La participation à la définition des infrastructures techniques · La gestion des projets infrastructures · Le suivi et l' amélioration des processus Des déplacements sont à prévoir en Allemagne (Franckfort) et en Tunisie (Tunis). Cette mission est faite pour vous !!!!!!!

Freelance

Mission freelance
Data Scientist – Lutte contre la Fraude

MGT Conseil
Publiée le
Big Data

5 mois
500-800 €
Paris, France

Nous recherchons un Data Scientist dans le cadre d’un projet stratégique d'un de nos clients Assurance pour renforcer les mécanismes de lutte contre la fraude. Au sein de la direction Innovation Data et Digital, vous participerez au développement d'un produit mêlant expertise Data Science et analyse métier. L’objectif principal est de renforcer les mécanismes de détection des fraudes grâce à des méthodes avancées d’analyse de données. Rôles et responsabilités - Collecter et comprendre les besoins des parties prenantes internes (Product Owners, métiers). - Identifier et mettre en œuvre des approches analytiques innovantes pour répondre aux problématiques de fraude (analyse exploratoire, méthodes non supervisées, clustering). - Concevoir et documenter des pipelines d’acquisition, de préparation et de traitement des données (structurées et non structurées). - Construire des modèles prédictifs, évaluer leur performance et définir des indicateurs business mesurant la valeur générée. - Restituer et valoriser les résultats auprès des métiers à travers des rapports d’analyse, des visualisations de données, et des prototypes. - Effectuer une veille technologique et proposer des pistes d’amélioration continue. Livrables attendus - Rapports d’analyse et visualisations de données. - Pipelines de traitement de données et modèles opérationnels. - Documentation technique et fonctionnelle. - Prototypes et démonstrateurs des solutions développées. - Rapport de veille sur les outils et méthodologies. Compétences requises - Expertise avérée en Data Science, avec une maîtrise des outils Python et SQL. - Bonne connaissance des méthodes de clustering et d’analyse non supervisée. - Capacité à analyser des données complexes et à organiser une recherche structurée. - Excellent esprit d’investigation et approche proactive. - Expérience préalable en lutte contre la fraude ou dans le secteur de l’actuariat (assurance santé, remboursements). - Solide capacité à faire le lien entre données, processus métier et besoins métiers. Détails Durée : 5 mois Lieu : Paris, avec une présence requise sur site 3 jours par semaine. Date de démarrage : Janvier 2025 Freelance Temps plein

Freelance

Mission freelance
Data Architect

NAVIGACOM
Publiée le
Apache Airflow
Architecture
Big Data

6 mois
500-700 €
Paris, France

Missions Pour l’un de nos clients du secteur du luxe, vous intervenez sur des missions à forte valeur ajoutée en tant que Architecte Data. En étroite collaboration avec vos interlocuteurs, vous accompagnez et conseillez notre client dans le cadre de la gestion du cycle de vie de ses infrastructures actuelles et participez au projet d’évolution et au maintien en condition opérationnelle. Vos tâches seront les suivantes : Conception de l’architecture et vérification de l’implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Responsable du suivi des principes établis au niveau du groupe (architecture, sécurité et confidentialité des données) dans les plateformes de données. Soutien à la stratégie NFR en lien avec le Data Tech Lead de chaque équipe Data Product. Support à la stratégie de données définie par l’équipe Data (fondations techniques : GCP, Google Big Query, DBT et Airflow/Composer). Conduire et prendre en charge la feuille de route technique des plateformes de données. Apporter une expertise sur les architectures et les plateformes de données pour aider les différents acteurs à suivre la stratégie de données. Piloter l’évaluation et l’optimisation des architectures de données. Documenter l’architecture (Confluence) et assurer le suivi des actions d’implémentation (Jira).

CDI
Freelance

Offre d'emploi
Expert en Migration de Plateforme de Données - Fabric Microsoft (H/F)

K-Lagan
Publiée le
Big Data
Migration

1 an
40k-80k €
670-1 090 €
Île-de-France, France

Offre d’emploi : Expert en Migration de Plateforme de Données - Fabric Microsoft (H/F) 📍 Localisation : Flexible (Remote avec déplacements occasionnels chez le client) 🌐 Langues requises : Anglais et/ou Espagnol (Français est un plus) 💼 Type de contrat : CDI ou Freelance 💰 Rémunération : À négocier Description du poste : Nous recherchons un Expert en Migration de Plateforme de Données pour collaborer avec nos équipes DATA-IT chez notre client, un leader mondial des assurances et réaliser une présentation stratégique au Comité Exécutif. Vous jouerez un rôle clé dans la conception d'une architecture de données innovante et dans la démonstration des avantages de la migration vers Microsoft Fabric . Votre mission comprendra : Analyse et Conception : Élaborer une proposition détaillée pour la nouvelle architecture de la plateforme de données en tenant compte des aspects techniques, financiers et stratégiques. Étude de Cas (POC) : Mettre en place un environnement Microsoft Fabric pour réaliser un Proof of Concept (POC) de la migration à partir de Databricks, Power BI, etc. Présentation au Comité Exécutif : Concevoir une présentation visuellement captivante et convaincante qui met en avant les avantages et les coûts de la migration. Défense du Projet : Présenter et défendre les recommandations auprès du Responsable des Données d’AXA et du Comité Exécutif.

Freelance

Mission freelance
PRODUT OWNER JUNIOR

KEONI CONSULTING
Publiée le
API
Big Data
KPI

12 mois
100-450 €
Paris, France

CONTEXTE Dans le cadre de la création d'une solution numérique multimodale, nous recherchons un Product Owner. Cette solution devra centraliser et diffuser des données en temps réel (si information disponible) concernant les différents modes de transport, à travers des affichages physiques et digitaux. MISSIONS Le Product Owner aura la charge de la définition, du suivi et de l'implémentation de cette solution multimodale. Le Product Owner (PO) aura pour mission de piloter le développement de la solution numérique multimodale. Rôle et responsabilités du product owner Ses responsabilités incluent : • Recueil et formalisation des besoins : o Animer des ateliers avec les parties prenantes (transporteurs, autorités locales, équipes techniques) pour recueillir les besoins fonctionnels. o Formaliser les spécifications de la solution dans un backlog détaillé et priorisé. o Rédiger et formaliser les besoins métiers (Règles de gestion etc.) et assurer la coordination et le suivi avec les contributeurs (DSI, MOE, urbaniste etc.) o Formaliser les processus métier o Formaliser la déclinaison des processus métiers en fonctionnalités dans le nouvel outil • Coordination des équipes : o Travailler en collaboration étroite avec les équipes techniques (internes et externes) pour s'assurer de la bonne compréhension des besoins. o Garantir la cohérence entre le développement et la vision de la solution définie. • Pilotage des développements : o Définir une roadmap produit en fonction des priorités définies avec les parties prenantes. o Superviser la progression des sprints, participer aux réunions de suivi (stand-up, sprint review, etc.). o Gérer les ajustements en fonction des retours d’expérience ou des nouvelles contraintes. • Tests et validation : o Organiser et superviser les phases de tests utilisateurs. o Valider les itérations successives de la solution (incréments). • Suivi de la qualité et des performances : o S’assurer que la solution réponde aux exigences de qualité et de performance (rapidité de mise à jour des données, fiabilité de l’information). o Définir les indicateurs de performance (KPI) pour suivre l'efficacité du produit.

Freelance

Mission freelance
Tech Lead/ Architecte Data - CIB

ABSIS CONSEIL
Publiée le
Architecture
Big Data

2 ans
650-700 €
Paris, France

Dans le cadre de l'extension de la capacité d'étude d'architecture data sur le périmètre CIB, notre client recherche un Tech Lead/Architecte Data pour supporter les projets orientés data. L'objectif de la mission est de construire et supporter un cadre d’architecture Data aligné sur les standards du Groupe et de l'incarner auprès des parties prenantes Missions: Architecture applicative : Instruire avec les parties prenantes les arbres de décision (Hadoop/Container/Cloud, etc.); Proposer une architecture EDA (Kafka, etc.) pour l'injection des données; Proposer une architecture d’intégration dans Hadoop, normalisation et distribution de référence. Architecture technique : Instruire les choix d'outillage technique (API/Caching/indexation, etc....) Produire et valider les modèles fonctionnels d'échange et de découplage sur les objets du SI Co construire avec les équipes de développement des domaines leur blueprint spécifique, et co-développer avec les équipes de développement des composants mutualisables de l'IT data framework (intégration, normalisation des datas et exposition) Pré-requis: Bac+5 école d'ingénieur vous avez plus de 10 ans d'expérience et des expériences solides en tant que Lead Tech/ Architecte Data dans le milieu CIB (commodities, fixed income et/ou equity) Maitrise des technologies big data (hadoop, kafka, spark...) Expérience en développement et industrialisation des applications utilisant de grosse volumétrie de données. connaissance des outils de data management et de machine learning capacité à développer des pipelines d'ingestion et des API dans un environnement HDP anglais courant Agile

Freelance

Mission freelance
Achitect Infrastructure

JCW Search Ltd
Publiée le
Big Data
Google Cloud Platform
Kubernetes

1 an
400-750 €
Île-de-France, France

JCW est à la recherche d'un Architect infrastructure pour l'un de ces clients. Profil recherché: Au moins 7-8 ans d'expérience en tant qu'architecte Expertise sur VMware - Kubertnestes/Redhat Openshift - GCP sera impératif Expertise sur Big Data et C4 Model sera également impératif Connaissance de d'autres outils sera appréciée La Mission: Démarrage ASAP Localisation: Ile-de-France Durée: 1 an renouvelable Fréquence: 3 jours sur site et deux jours de remote Langues: Francais et anglais impératif Si vous êtes intéressées, ou connaissez des personnes qui pourraient l'être, merci de m'envoyer vos/ leur CV à pour une considération immédiate.

Suivant

Les questions fréquentes à propos de l’activité d’un Directeur·rice / Responsable de la data (Chief Data Officer)

Quel est le rôle d'un Directeur·rice / Responsable de la data (Chief Data Officer)

Le rôle du directeur de la data est à la fois moteur et pilote avec un haut niveau de responsabilité afin d’assurer la mutation numérique de la société.

Quels sont les tarifs d'un Directeur·rice / Responsable de la data (Chief Data Officer)

Le salaire du directeur de la data implique une rémunération aux alentours de 50 000 € bruts annuels lorsqu’il travaille dans une grande PME. Le TJM pour un directeur de la data est de 500 €.

Quelle est la définition d'un Directeur·rice / Responsable de la data (Chief Data Officer)

Le rôle principal du directeur de la data repose sur une mission capitale afin d’assurer la transformation numérique d’une entreprise. Il est donc important que celui-ci soit familier avec les technologies à adapter et de disposer d’une excellente culture numérique. Le directeur de la data engage une réflexion globale sur l’impact du numérique au sein de l’entreprise. Ensuite, il définit une stratégie de transition en collaboration avec les différentes équipes concernées. Sa position dans l’organigramme reste variable en fonction de l’importance de la transformation digitale. Mais il n’est pas rare de voir directeur de la data occuper un poste stratégique au comité de direction. Il exerce une activité transverse, ce qui nécessite d’avoir une vision globale de l’activité. Ces différentes actions sont menées en collaboration avec la direction des ressources humaines et la direction des systèmes d’information. Le CDO est aujourd’hui un métier indispensable dans les grands groupes afin d’intégrer progressivement les nouvelles technologies dans leur stratégie. De par sa connaissance des nouvelles technologies, il apporte incontestablement un vent de modernité et modifie les façons de travailler des employés. Même si au départ les changements peuvent sembler déconcertants, cette modification des habitudes de travail a surtout pour objectif de mieux appréhender les nouveaux outils à disposition pour fournir un travail efficient.

Quel type de mission peut gérer un Directeur·rice / Responsable de la data (Chief Data Officer)

• Assurer une veille technologie approfondie afin de ne pas être surpris par l’apparition de nouvelles technologies. • Assurer la transmission des informations aux personnes concernées, tout en établissant un tableau de bord précis mesurant les performances des projets engagés. • Assurer la gestion des différents projets permettant les mutations attendues en travaillant main dans la main avec les différents pôles. • Mettre en place une stratégie de transition digitale en prenant en compte les recommandations clients. • Étudier la faisabilité du projet ainsi que les études opportunité sur les projets de transition. • Étudier et mesurer l’impact des nouvelles technologies vis-à-vis de l’organisation de l’entreprise. • Apporter une réflexion approfondie sur les nombreuses opportunités dans une optique de recherche de croissance et d’efficacité. • Procéder à l’identification des besoins fonctionnels et des limites de l’entreprise. • L’établissement d’un état des lieux par rapport au fonctionnement interne du système d’information.

Quelles sont les compétences principales d'un Directeur·rice / Responsable de la data (Chief Data Officer)

• Être naturellement charismatique et avoir un comportement de leader. • Être très à l’aise sur la gestion de projet. • Assurer le management stratégique et le management de transition. • Faire preuve de nombreuses compétences techniques afin de revendiquer sa légitimité vis-à-vis des différentes équipes intervenantes. • Connaître l’organisation globale de la société et avoir une parfaite connaissance des business models. • Avoir une grande appétence des nouvelles technologies d’entreprise telle que la gestion des données, l’informatique, les solutions Web ainsi que les solutions de cloud. • Disposer d’une excellente capacité de projection et d’analyse afin de s’adapter à n’importe quelle situation.

Quel est le profil idéal pour un Directeur·rice / Responsable de la data (Chief Data Officer)

• Le directeur de la data est avant toute une personne particulièrement à l’aise avec l’analyse, les statistiques et les mathématiques. En effet, il manipule quotidiennement une quantité de données importantes. • Par ailleurs, son sens de l’organisation et sa grande rigueur seront des atouts indéniables dans son quotidien. • Le métier de directeur de la data nécessite de faire preuve d’une très grande pédagogie et d’être un bon communicant. En effet, les différentes informations récoltées doivent être expliquées explicitement aux différents services concernés. • La qualité d’écoute est également essentielle afin de répondre aux besoins de l’entreprise et de répondre à toute question légitime.
280 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous