Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Votre recherche renvoie 281 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform

3 ans
33k-83k €
400-900 €
Paris, France

Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir et développer les Data Model Être garant de la qualité du code Être DevOps (Utilisation/mise en place de chaine CI/CD et support niveau L3 des développements) Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL Python DevOps (Github) API Development Terraform Méthodologie Agile

Freelance

Mission freelance
Architecte Solutions DATA

CELAD
Publiée le
Big Data

1 an
700 €
Paris, France

Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.

CDI

Offre d'emploi
Data Engineer

Tenth Revolution Group
Publiée le

40k-55k €
Paris, France

À propos de notre client : Notre client est un acteur majeur du prêt-à-porter, reconnu pour son innovation et sa présence internationale. Avec plus de 1 500 magasins dans plus de 50 pays, l'entreprise cultive une relation unique avec sa clientèle à travers ses marques phares. Poste : Data Engineer Confirmé (H/F) Dans le cadre de sa transformation digitale, notre client recherche un Data Engineer confirmé pour renforcer son équipe Data et participer à des projets stratégiques visant à optimiser l'expérience client et les processus internes. Vos missions : Concevoir, développer et maintenir des pipelines de données. Intégrer et transformer des données provenant de diverses sources pour répondre aux besoins métiers. Collaborer avec les équipes marketing, e-commerce et IT pour fournir des solutions data adaptées. Assurer la qualité, la sécurité et la performance des infrastructures de données. Participer à l'implémentation des meilleures pratiques en matière de gouvernance des données. Votre profil : Expérience : 3 à 5 ans en tant que Data Engineer Compétences techniques : Maîtrise des services GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage. Solides compétences en Python et SQL pour le développement de pipelines ETL. Connaissance des bases de données relationnelles et non relationnelles. Une expérience avec des outils tels qu'Airflow, Terraform ou Apache Beam est un plus. Qualités personnelles : Esprit analytique, autonomie, capacité à travailler en équipe et sens de l'innovation. Ce que nous offrons : Intégrer une entreprise leader dans son secteur, en pleine transformation digitale. Participer à des projets d'envergure avec des défis techniques stimulants. Un environnement de travail collaboratif et bienveillant. Télétravail partiel possible. Rémunération attractive selon profil et expérience. Lieu : Poste basé à Paris, avec possibilité de télétravail partiel. Rejoignez une entreprise innovante et contribuez à sa transformation digitale en apportant votre expertise en ingénierie des données !

CDI

Offre d'emploi
Data Engineer (H/F)

Pickmeup
Publiée le
AWS Cloud

45k-80k €
Paris, France

NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. En tant que Data Engineer (Senior) au sein de l'équipe Data, vos principales missions consisteront à : - Contribuer à l'enrichissement de la plateforme de données (ETL). - Améliorer la robustesse des pipelines de production pour les applications de - - Machine Learning (inférence en temps réel, etc.). - Intégré(e) dans une équipe de spécialistes en données (data engineers, machine - learning engineers, data scientists, data analysts), vous jouerez un rôle clé pour garantir la position dominante de la solution sur son marché. STACK ET OUTILS Technologies : Apache Spark, Kafka, AWS, Databricks, Python, Airflow, Mlflow, TensorFlow, Delta Lake, Superset, Kubernetes, Redshift, SQL, Terraform, Ansible. LES MISSIONS - Concevoir et implémenter une architecture performante, robuste, scalable et avec des coûts maîtrisés pour les applications Spark ainsi que pour les pipelines de production de Machine Learning (évaluation des feature stores, refactoring de DAG Airflow). - Accompagner les Data Scientists lors de la mise en production (relecture de code, pair programming) et établir les meilleures pratiques. - Optimiser et améliorer la CI/CD de l'équipe en collaboration avec l'équipe SRE. - Assurer la montée en compétences des membres de l’équipe sur les sujets de MLOps et Data Engineering. - Explorer les meilleures façons d'intégrer les données Google Analytics dans la plateforme de données. - Partager vos connaissances et présenter les travaux devant toutes les équipes techniques.

Freelance

Mission freelance
Recherche d’un Data Analyst

ARTESIA IT
Publiée le
Data analysis

3 ans
610-660 €
Paris, France

Notre client, acteur clé dans le secteur de l'assurance recherche un Data Analyst expérimenté pour accompagner ses équipes dans la gestion et l’optimisation des flux de données. Le candidat devra intervenir en tant qu’expert des mécanismes de la donnée, en assurant la cohérence et l’intégration des données au sein des systèmes d’information. Il jouera également un rôle clé dans l’analyse, la restructuration et l’acheminement des données tout en assurant la liaison entre les besoins métier et les équipes techniques. Le Data Analyst sera responsable des tâches suivantes : Analyse et gestion des données : Comprendre et analyser les modèles de données existants . Garantir la cohérence des données dans les différents systèmes. Restructurer les données pour répondre aux besoins des métiers et des équipes techniques. Superviser l’acheminement des flux de données dans les différents environnements (data pipelines). Interaction avec les parties prenantes : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins spécifiques. Traduire ces besoins métier en solutions techniques adaptées. Assurer un rôle d’interface entre les équipes métiers et la DSI. Gestion technique et outils : Intégrer et structurer les données dans le système d’information. Exploiter les outils de gestion de données tels que Talend , Semarchy , et MarkLogic (DataLake). Réaliser des requêtes sur les bases de données Oracle pour répondre aux besoins d’analyse. Veiller à l’optimisation et la fiabilité des flux de données. Pour cette mission, le candidat devra présenter les compétences et expériences suivantes : Expertise en gestion de données : Bonne compréhension des mécanismes de la donnée et des processus de cohérence et d’acheminement. Expérience dans l’intégration et la gestion des données dans des environnements complexes. Capacité à analyser et restructurer des modèles de données existants. Compétences techniques : Maîtrise des outils tels que Talend , Semarchy , et MarkLogic . Bonne connaissance des bases de données Oracle et capacité à effectuer des requêtes SQL. Familiarité avec les environnements DataLake. Soft skills : Esprit d’analyse et de synthèse. Excellente communication pour interagir efficacement avec les équipes métiers et techniques. Autonomie, rigueur et capacité à structurer des demandes complexes. Atout : Une expérience dans le secteur Assurance sera fortement appréciée. Documentation des modèles de données restructurés. Plans d’intégration et rapports d’analyse des flux de données. Rapports de cohérence des données et recommandations pour les optimisations futures.

Freelance
CDI

Offre d'emploi
Chef de Projet DATA

K-Lagan
Publiée le
Big Data

1 an
10k-70k €
100-850 €
Paris, France

Chez K-LAGAN , nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, continuez de lire...🔍 📎Nous sommes à la recherche d'un-e chef de projet DATA (h/f) pour renforcer nos équipes, sur un projet ambitieux chez un de nos clients, secteur assurances à Paris, IDF, France. 🤖Fonction : Agir comme un référent pour les données de référence, maîtriser leurs définitions, volumétries, domaines d’application, flux entrants & sortants Cartographier et organiser les données pour rendre leur exploitation optimale, tout en s'assurant du respect des exigences et contraintes de traitements qui leur sont liées ; Définir et piloter la mise en œuvre dans les délais impartis les process relatifs aux données : création/ingestion, maintenance, modification, standardisation & nettoyage Contrôler la pertinence et la qualité des différentes demandes, les analyser et piloter/réaliser les modifications des données en s’assurant de la cohérence globale et en maîtrisant les impacts Définir et mettre en place les outils & méthodes permettant de contrôler la cohérence des données, leur qualité, et leur juste mise en application Investiguer les problèmes de données et s’assurer de la mise en place d’actions correctives pérennes Élaborer une stratégie de gestion des données en tenant compte des orientations business et des actifs de données existants Gérer la relation avec le(s) prestataire(s) de données et s’assurer de la qualité des données & services contractualisés ainsi que du respect des SLA Participer à l’évangélisation et la formation des utilisateurs du patrimoine de données en s’adaptant à leurs différents niveaux de connaissance et maitrise des outils Identifier et notifier le responsable de la sécurité des incidents détectés. Assurer le respect des politiques et procédures du système de gestion de la sécurité de l'information. Maintenir le devoir de confidentialité des tâches effectuées dans l'organisation. Prévenir, détecter et analyser les vulnérabilités liées à la sécurité de l'information. Informer et rendre compte à la haute direction sur les enjeux liés à la cybersécurité.

Freelance

Mission freelance
Data Gouvernance

PARTENOR
Publiée le
Data management
Master Data Management (MDM)

1 an
400-700 €
Paris, France

Nous renforçons nos équipes et nous recherchons un(e) Data Design (F/H) pour intervenir chez l'un de nos clients grands comptes. Missions : - Conception de modèles de données : Définir et mettre en place des modèles de données adaptés aux besoins de l'entreprise, en prenant en compte les exigences fonctionnelles et les contraintes techniques. - Élaborer des architectures de données scalables et performantes en collaboration avec les architectes et les ingénieurs data. - Assurer la fluidité des échanges et des traitements de données en veillant à leur qualité et leur conformité. - Travailler en étroite collaboration avec les équipes métiers, IT, et Data Science pour comprendre les besoins et proposer des solutions adaptées. - Garantir la conformité des données avec les normes réglementaires et de sécurité en vigueur dans le secteur bancaire. - Documentation et partage de bonnes pratiques : Rédiger des documents de spécifications et de bonnes pratiques pour garantir une utilisation optimale des modèles de données.

Freelance

Mission freelance
POT8135-Un Data engineer sur Paris

Almatek
Publiée le
Git

6 mois
100-350 €
Paris, France

Almatek recherche pour l'un de ses clients Un Data engineer sur Paris. Projet : Contribuer à la Fabrication des Produits des équipes dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) Contribuer à la fabrication d'un entrepôt de données interne dans un environnement Python - PostGresql Etre force de proposition et expertise sur les techno manipulées Principaux livrables : Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et les équipes) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences requises : Python (requis), Spark - spark streaming et batch (requis), Kafka (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Autonomie, Adaptabilité, Bonne communication (lien direct avec les PO ou DEV), Apprécié - activités BI : BDD Teradata, xDI, SQL Data viz : Microstrategy Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans

Freelance

Mission freelance
Data engineer Databricks / PySpark / Palantir h/f

Freelance.com
Publiée le
Databricks
PySpark

3 mois
550-670 €
Paris, France

Databricks pour les pipelines de données Palantir Foundry pour l'ontologie et les tableaux de bord L'Ingénieur Data travaillera en étroite collaboration avec les équipes produit pour développer de nouvelles fonctionnalités liées à ces produits, notamment les fonctionnalités suivantes : Pipelines de données au sein d'un ou plusieurs produits Capacités analytiques et d'entreposage pour l'exploration de données, la data science, et la Business Intelligence (BI) Calcul parallèle sur de grands volumes de données L'Ingénieur Data est responsable de la construction, la livraison, la maintenance et la documentation des artefacts ou fonctionnalités de données (pipelines de données, services, APIs…) en suivant des modèles d'architecture à la pointe (architecture medaillon, gitflow). Cas d'utilisation implémentés sur Databricks Cas d'utilisation implémentés sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs…)

Freelance

Mission freelance
Responsable Data Migration SAP S4/Hana

CRYSTAL PLACEMENT
Publiée le
SAP S/4HANA

1 an
400-900 €
Paris, France

Nous recherchons un candidat expérimenté, avec une solide expertise en SAP S4/Hana, notamment sur les modules FICO, MM, SD, PP, QM, EWM et CS. Le candidat idéal doit posséder des compétences en migration de données, une capacité à vulgariser les étapes du processus pour les équipes métiers et DSI, et un excellent leadership pour piloter les projets de manière autonome. Une expérience dans le déploiement de projets en mode "big bang" et dans la gestion des phases de tests à blanc, bascule à blanc et mise en production est essentielle.

Freelance
CDI

Offre d'emploi
Data Engineer Azure Java Spark

Digistrat consulting
Publiée le
Azure
Java

3 ans
50k-65k €
500-600 €
Paris, France

💡 Contexte /Objectifs l'entité est en charge des développements liés aux applications sources, de contrôle et de valorisation des instruments, des données de marchés et des facteurs de risques. - MDx Datalake : une application qui copie les données MSD et MATRIX sur le Cloud public (Azure) à des fins analytiques. 💡 Objectifs et livrables Les enjeux étaient nombreux :  Volumétrie de données  Performance / Multi-Threading  Data Quality  Legacy Management  Large éventail de technologies à maîtriser : o Etudes techniques o Refonte technique et refonte de l’architecture du projet o Migration On-Premise vers Azure o Optimisation des performances o Amélioration du Code Quality o Mise en place des process CI/CD o Mise en place du monitoring o Diverses implémentations et migrations techniques de composants déployés dans Azure (AirFlow, Migration Blue/Green, etc…)

Freelance

Mission freelance
Head of data management - commercial

Mon Consultant Indépendant
Publiée le
Commercial

12 mois
720-750 €
Paris, France

Nous sommes un cabinet de conseil et nous recherchons un consultant freelance pour le pôle Data/IA de notre client. I. Présentation de la direction data/IA Pour accompagner notre client à mettre en œuvre son plan stratégique et opérer sa transformation, un pôle DATA/IA s’est créée sous la direction du Chief Data Officer. Cette nouvelle direction a pour missions de · Porter les projets DATA/IA pour l’ensemble des métiers de notre client · Assurer un rôle de conseil et de support à l’ensemble des métiers de notre client sur l’usage des données et de l’IA · Mettre en place une gouvernance autour des données, ainsi que les référentiels transverses · Veiller au respect de la réglementation et l’éthique sur la DATA et l’IA · Co-Construire avec la Direction Technique les plateformes et les outils nécessaires au développement et à la mise en service des solutions DATA/IA · Insuffler la culture data au sein de l’entreprise, moyennant les offres de formation, la communication et les évènements autour de l’innovation III. Périmètre de la prestation Le consultant travaille au sein du pôle DATA du client, en étroite collaboration avec l’équipe Data Management et des autres entités travaillant autour de la data. La prestation couvrira deux rôles indissociables à savoir : · un rôle de Data Analyst · et un rôle de Data Manager Il aura pour mission principale d’accompagner et d’apporter une expertise aux : · Responsable Data management du client dans ses activités · et Responsable des Product Owner de la verticale « Commercial » du client dans le cadre de projets Data/IA dans la phase d’identification et de préparation des données nécessaires au développement de cas d’usages. Son expertise sera en termes de data gouvernance et sur la création de data product. En complément de sa principale mission il aura à : · Promouvoir la culture du data management Commercial au sein de l’entreprise via des actions d’animations et de communication · Collaborer avec l’équipe Data Management sur la définition des standards du Data Management et le choix des outils associés · Accompagner les projets DATA/IA dans le déploiement des bonnes pratiques du Data Management Dans certains cas, notamment pour répondre à des besoins d’analyse « hors projet » des équipes métiers, le Data Analyst sera amené à mener des analyses (ou réaliser des extractions) · Contribuer à l’optimisation de la gouvernance des données de par ses analyses. Projets DATA/IA : · Accompagner les projets dans la mise en œuvre du dispositif de gouvernance de données (Comitologie, Rôle et responsabilité, ressources dédiées au data management, outils, etc · Accompagner les chefs de projets DATA/IA dans la définition des besoins autour du catalogue de données, de la data quality, de la data privacy

CDI

Offre d'emploi
Data Engineer GCP & AWS

Tenth Revolution Group
Publiée le

65k-66k €
Paris, Île-de-France

Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.

Freelance

Mission freelance
Ingénieur de Production Data - GCP & DevOps - IDF (H/F)

Espace Freelance
Publiée le
DevOps

3 mois
300-400 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Ingénieur de Production Data - GCP & DevOps (F/H) - IDF Mission à pourvoir en régie en région IDF Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : Administration et maintenance des environnements de production Mise en œuvre et optimisation des pipelines CI/CD avec des outils tels que Jenkins, XL-D et XL-R Gestion des services GCP (Compute Engine, Kubernetes Engine, BigQuery, etc.) Automatisation via scripting (Python, Bash) et gestion de configuration (Terraform, Ansible) Surveillance et amélioration des performances avec des outils comme Zabbix et Grafana Gestion des incidents et changements selon les pratiques ITIL

CDI
Freelance

Offre d'emploi
Data Engineer

Amontech
Publiée le
AWS Cloud
Nosql
Python

365 jours
10k-50k €
100-640 €
Paris, France

Vos missions incluent : · Conception et Développement de Pipelines de Données : o Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; o Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; o Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. · Gestion et Maintenance de l’Infrastructure Data : o Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; o Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) ; o Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. · Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. · Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. · Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données. Compétences transverses : · Capacité à travailler en équipe et à collaborer avec des profils techniques et fonctionnels ; · Esprit analytique et rigoureux, avec une forte attention aux détails ; · Capacité à vulgariser les concepts techniques pour les rendre accessibles aux équipes non techniques.

Freelance

Mission freelance
Data Gouvernance Senior

ALLEGIS GROUP
Publiée le
Gouvernance

6 mois
140-3k €
Paris, France

Les livrables de la Data Gouvernance by Design incluent : • la compréhension et la documentation dans l’outil de Data Catalog (Collibra) des Datasets logiques (selon le framework du client). • l'architecture data fonctionnelle • l'execution du mapping des Datasets logiques avec leur implémentation physique dans l'outil de Data Catalog (Collibra) • l'identification et la documentation dans l’outil de Data Catalog (Collibra) des Business Process qui utilisent / produisent ces Datasets (selon le framework du client). • l’identification et la documentation dans l'outil de Data Catalog (Collibra) des Rôles et Responsabilités (selon le framework du client). • l'identification et la documentation dans l'outil de Data Catalog (Collibra) des règles métier. • création des livrables de change management et training, • l'accompagnement du métier

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

281 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous