Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
DATA ENGINEER GCP
Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir et développer les Data Model Être garant de la qualité du code Être DevOps (Utilisation/mise en place de chaine CI/CD et support niveau L3 des développements) Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL Python DevOps (Github) API Development Terraform Méthodologie Agile
Mission freelance
Architecte Solutions DATA
Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.
Offre d'emploi
Data Engineer
À propos de notre client : Notre client est un acteur majeur du prêt-à-porter, reconnu pour son innovation et sa présence internationale. Avec plus de 1 500 magasins dans plus de 50 pays, l'entreprise cultive une relation unique avec sa clientèle à travers ses marques phares. Poste : Data Engineer Confirmé (H/F) Dans le cadre de sa transformation digitale, notre client recherche un Data Engineer confirmé pour renforcer son équipe Data et participer à des projets stratégiques visant à optimiser l'expérience client et les processus internes. Vos missions : Concevoir, développer et maintenir des pipelines de données. Intégrer et transformer des données provenant de diverses sources pour répondre aux besoins métiers. Collaborer avec les équipes marketing, e-commerce et IT pour fournir des solutions data adaptées. Assurer la qualité, la sécurité et la performance des infrastructures de données. Participer à l'implémentation des meilleures pratiques en matière de gouvernance des données. Votre profil : Expérience : 3 à 5 ans en tant que Data Engineer Compétences techniques : Maîtrise des services GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage. Solides compétences en Python et SQL pour le développement de pipelines ETL. Connaissance des bases de données relationnelles et non relationnelles. Une expérience avec des outils tels qu'Airflow, Terraform ou Apache Beam est un plus. Qualités personnelles : Esprit analytique, autonomie, capacité à travailler en équipe et sens de l'innovation. Ce que nous offrons : Intégrer une entreprise leader dans son secteur, en pleine transformation digitale. Participer à des projets d'envergure avec des défis techniques stimulants. Un environnement de travail collaboratif et bienveillant. Télétravail partiel possible. Rémunération attractive selon profil et expérience. Lieu : Poste basé à Paris, avec possibilité de télétravail partiel. Rejoignez une entreprise innovante et contribuez à sa transformation digitale en apportant votre expertise en ingénierie des données !
Offre d'emploi
Data Engineer (H/F)
NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. En tant que Data Engineer (Senior) au sein de l'équipe Data, vos principales missions consisteront à : - Contribuer à l'enrichissement de la plateforme de données (ETL). - Améliorer la robustesse des pipelines de production pour les applications de - - Machine Learning (inférence en temps réel, etc.). - Intégré(e) dans une équipe de spécialistes en données (data engineers, machine - learning engineers, data scientists, data analysts), vous jouerez un rôle clé pour garantir la position dominante de la solution sur son marché. STACK ET OUTILS Technologies : Apache Spark, Kafka, AWS, Databricks, Python, Airflow, Mlflow, TensorFlow, Delta Lake, Superset, Kubernetes, Redshift, SQL, Terraform, Ansible. LES MISSIONS - Concevoir et implémenter une architecture performante, robuste, scalable et avec des coûts maîtrisés pour les applications Spark ainsi que pour les pipelines de production de Machine Learning (évaluation des feature stores, refactoring de DAG Airflow). - Accompagner les Data Scientists lors de la mise en production (relecture de code, pair programming) et établir les meilleures pratiques. - Optimiser et améliorer la CI/CD de l'équipe en collaboration avec l'équipe SRE. - Assurer la montée en compétences des membres de l’équipe sur les sujets de MLOps et Data Engineering. - Explorer les meilleures façons d'intégrer les données Google Analytics dans la plateforme de données. - Partager vos connaissances et présenter les travaux devant toutes les équipes techniques.
Mission freelance
Recherche d’un Data Analyst
Notre client, acteur clé dans le secteur de l'assurance recherche un Data Analyst expérimenté pour accompagner ses équipes dans la gestion et l’optimisation des flux de données. Le candidat devra intervenir en tant qu’expert des mécanismes de la donnée, en assurant la cohérence et l’intégration des données au sein des systèmes d’information. Il jouera également un rôle clé dans l’analyse, la restructuration et l’acheminement des données tout en assurant la liaison entre les besoins métier et les équipes techniques. Le Data Analyst sera responsable des tâches suivantes : Analyse et gestion des données : Comprendre et analyser les modèles de données existants . Garantir la cohérence des données dans les différents systèmes. Restructurer les données pour répondre aux besoins des métiers et des équipes techniques. Superviser l’acheminement des flux de données dans les différents environnements (data pipelines). Interaction avec les parties prenantes : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins spécifiques. Traduire ces besoins métier en solutions techniques adaptées. Assurer un rôle d’interface entre les équipes métiers et la DSI. Gestion technique et outils : Intégrer et structurer les données dans le système d’information. Exploiter les outils de gestion de données tels que Talend , Semarchy , et MarkLogic (DataLake). Réaliser des requêtes sur les bases de données Oracle pour répondre aux besoins d’analyse. Veiller à l’optimisation et la fiabilité des flux de données. Pour cette mission, le candidat devra présenter les compétences et expériences suivantes : Expertise en gestion de données : Bonne compréhension des mécanismes de la donnée et des processus de cohérence et d’acheminement. Expérience dans l’intégration et la gestion des données dans des environnements complexes. Capacité à analyser et restructurer des modèles de données existants. Compétences techniques : Maîtrise des outils tels que Talend , Semarchy , et MarkLogic . Bonne connaissance des bases de données Oracle et capacité à effectuer des requêtes SQL. Familiarité avec les environnements DataLake. Soft skills : Esprit d’analyse et de synthèse. Excellente communication pour interagir efficacement avec les équipes métiers et techniques. Autonomie, rigueur et capacité à structurer des demandes complexes. Atout : Une expérience dans le secteur Assurance sera fortement appréciée. Documentation des modèles de données restructurés. Plans d’intégration et rapports d’analyse des flux de données. Rapports de cohérence des données et recommandations pour les optimisations futures.
Offre d'emploi
Chef de Projet DATA
Chez K-LAGAN , nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, continuez de lire...🔍 📎Nous sommes à la recherche d'un-e chef de projet DATA (h/f) pour renforcer nos équipes, sur un projet ambitieux chez un de nos clients, secteur assurances à Paris, IDF, France. 🤖Fonction : Agir comme un référent pour les données de référence, maîtriser leurs définitions, volumétries, domaines d’application, flux entrants & sortants Cartographier et organiser les données pour rendre leur exploitation optimale, tout en s'assurant du respect des exigences et contraintes de traitements qui leur sont liées ; Définir et piloter la mise en œuvre dans les délais impartis les process relatifs aux données : création/ingestion, maintenance, modification, standardisation & nettoyage Contrôler la pertinence et la qualité des différentes demandes, les analyser et piloter/réaliser les modifications des données en s’assurant de la cohérence globale et en maîtrisant les impacts Définir et mettre en place les outils & méthodes permettant de contrôler la cohérence des données, leur qualité, et leur juste mise en application Investiguer les problèmes de données et s’assurer de la mise en place d’actions correctives pérennes Élaborer une stratégie de gestion des données en tenant compte des orientations business et des actifs de données existants Gérer la relation avec le(s) prestataire(s) de données et s’assurer de la qualité des données & services contractualisés ainsi que du respect des SLA Participer à l’évangélisation et la formation des utilisateurs du patrimoine de données en s’adaptant à leurs différents niveaux de connaissance et maitrise des outils Identifier et notifier le responsable de la sécurité des incidents détectés. Assurer le respect des politiques et procédures du système de gestion de la sécurité de l'information. Maintenir le devoir de confidentialité des tâches effectuées dans l'organisation. Prévenir, détecter et analyser les vulnérabilités liées à la sécurité de l'information. Informer et rendre compte à la haute direction sur les enjeux liés à la cybersécurité.
Mission freelance
Data Gouvernance
Nous renforçons nos équipes et nous recherchons un(e) Data Design (F/H) pour intervenir chez l'un de nos clients grands comptes. Missions : - Conception de modèles de données : Définir et mettre en place des modèles de données adaptés aux besoins de l'entreprise, en prenant en compte les exigences fonctionnelles et les contraintes techniques. - Élaborer des architectures de données scalables et performantes en collaboration avec les architectes et les ingénieurs data. - Assurer la fluidité des échanges et des traitements de données en veillant à leur qualité et leur conformité. - Travailler en étroite collaboration avec les équipes métiers, IT, et Data Science pour comprendre les besoins et proposer des solutions adaptées. - Garantir la conformité des données avec les normes réglementaires et de sécurité en vigueur dans le secteur bancaire. - Documentation et partage de bonnes pratiques : Rédiger des documents de spécifications et de bonnes pratiques pour garantir une utilisation optimale des modèles de données.
Mission freelance
POT8135-Un Data engineer sur Paris
Almatek recherche pour l'un de ses clients Un Data engineer sur Paris. Projet : Contribuer à la Fabrication des Produits des équipes dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) Contribuer à la fabrication d'un entrepôt de données interne dans un environnement Python - PostGresql Etre force de proposition et expertise sur les techno manipulées Principaux livrables : Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et les équipes) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences requises : Python (requis), Spark - spark streaming et batch (requis), Kafka (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Autonomie, Adaptabilité, Bonne communication (lien direct avec les PO ou DEV), Apprécié - activités BI : BDD Teradata, xDI, SQL Data viz : Microstrategy Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans
Mission freelance
Data engineer Databricks / PySpark / Palantir h/f
Databricks pour les pipelines de données Palantir Foundry pour l'ontologie et les tableaux de bord L'Ingénieur Data travaillera en étroite collaboration avec les équipes produit pour développer de nouvelles fonctionnalités liées à ces produits, notamment les fonctionnalités suivantes : Pipelines de données au sein d'un ou plusieurs produits Capacités analytiques et d'entreposage pour l'exploration de données, la data science, et la Business Intelligence (BI) Calcul parallèle sur de grands volumes de données L'Ingénieur Data est responsable de la construction, la livraison, la maintenance et la documentation des artefacts ou fonctionnalités de données (pipelines de données, services, APIs…) en suivant des modèles d'architecture à la pointe (architecture medaillon, gitflow). Cas d'utilisation implémentés sur Databricks Cas d'utilisation implémentés sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs…)
Mission freelance
Responsable Data Migration SAP S4/Hana
Nous recherchons un candidat expérimenté, avec une solide expertise en SAP S4/Hana, notamment sur les modules FICO, MM, SD, PP, QM, EWM et CS. Le candidat idéal doit posséder des compétences en migration de données, une capacité à vulgariser les étapes du processus pour les équipes métiers et DSI, et un excellent leadership pour piloter les projets de manière autonome. Une expérience dans le déploiement de projets en mode "big bang" et dans la gestion des phases de tests à blanc, bascule à blanc et mise en production est essentielle.
Offre d'emploi
Data Engineer Azure Java Spark
💡 Contexte /Objectifs l'entité est en charge des développements liés aux applications sources, de contrôle et de valorisation des instruments, des données de marchés et des facteurs de risques. - MDx Datalake : une application qui copie les données MSD et MATRIX sur le Cloud public (Azure) à des fins analytiques. 💡 Objectifs et livrables Les enjeux étaient nombreux : Volumétrie de données Performance / Multi-Threading Data Quality Legacy Management Large éventail de technologies à maîtriser : o Etudes techniques o Refonte technique et refonte de l’architecture du projet o Migration On-Premise vers Azure o Optimisation des performances o Amélioration du Code Quality o Mise en place des process CI/CD o Mise en place du monitoring o Diverses implémentations et migrations techniques de composants déployés dans Azure (AirFlow, Migration Blue/Green, etc…)
Mission freelance
Head of data management - commercial
Nous sommes un cabinet de conseil et nous recherchons un consultant freelance pour le pôle Data/IA de notre client. I. Présentation de la direction data/IA Pour accompagner notre client à mettre en œuvre son plan stratégique et opérer sa transformation, un pôle DATA/IA s’est créée sous la direction du Chief Data Officer. Cette nouvelle direction a pour missions de · Porter les projets DATA/IA pour l’ensemble des métiers de notre client · Assurer un rôle de conseil et de support à l’ensemble des métiers de notre client sur l’usage des données et de l’IA · Mettre en place une gouvernance autour des données, ainsi que les référentiels transverses · Veiller au respect de la réglementation et l’éthique sur la DATA et l’IA · Co-Construire avec la Direction Technique les plateformes et les outils nécessaires au développement et à la mise en service des solutions DATA/IA · Insuffler la culture data au sein de l’entreprise, moyennant les offres de formation, la communication et les évènements autour de l’innovation III. Périmètre de la prestation Le consultant travaille au sein du pôle DATA du client, en étroite collaboration avec l’équipe Data Management et des autres entités travaillant autour de la data. La prestation couvrira deux rôles indissociables à savoir : · un rôle de Data Analyst · et un rôle de Data Manager Il aura pour mission principale d’accompagner et d’apporter une expertise aux : · Responsable Data management du client dans ses activités · et Responsable des Product Owner de la verticale « Commercial » du client dans le cadre de projets Data/IA dans la phase d’identification et de préparation des données nécessaires au développement de cas d’usages. Son expertise sera en termes de data gouvernance et sur la création de data product. En complément de sa principale mission il aura à : · Promouvoir la culture du data management Commercial au sein de l’entreprise via des actions d’animations et de communication · Collaborer avec l’équipe Data Management sur la définition des standards du Data Management et le choix des outils associés · Accompagner les projets DATA/IA dans le déploiement des bonnes pratiques du Data Management Dans certains cas, notamment pour répondre à des besoins d’analyse « hors projet » des équipes métiers, le Data Analyst sera amené à mener des analyses (ou réaliser des extractions) · Contribuer à l’optimisation de la gouvernance des données de par ses analyses. Projets DATA/IA : · Accompagner les projets dans la mise en œuvre du dispositif de gouvernance de données (Comitologie, Rôle et responsabilité, ressources dédiées au data management, outils, etc · Accompagner les chefs de projets DATA/IA dans la définition des besoins autour du catalogue de données, de la data quality, de la data privacy
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Mission freelance
Ingénieur de Production Data - GCP & DevOps - IDF (H/F)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Ingénieur de Production Data - GCP & DevOps (F/H) - IDF Mission à pourvoir en régie en région IDF Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : Administration et maintenance des environnements de production Mise en œuvre et optimisation des pipelines CI/CD avec des outils tels que Jenkins, XL-D et XL-R Gestion des services GCP (Compute Engine, Kubernetes Engine, BigQuery, etc.) Automatisation via scripting (Python, Bash) et gestion de configuration (Terraform, Ansible) Surveillance et amélioration des performances avec des outils comme Zabbix et Grafana Gestion des incidents et changements selon les pratiques ITIL
Offre d'emploi
Data Engineer
Vos missions incluent : · Conception et Développement de Pipelines de Données : o Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; o Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; o Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. · Gestion et Maintenance de l’Infrastructure Data : o Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; o Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) ; o Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. · Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. · Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. · Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données. Compétences transverses : · Capacité à travailler en équipe et à collaborer avec des profils techniques et fonctionnels ; · Esprit analytique et rigoureux, avec une forte attention aux détails ; · Capacité à vulgariser les concepts techniques pour les rendre accessibles aux équipes non techniques.
Mission freelance
Data Gouvernance Senior
Les livrables de la Data Gouvernance by Design incluent : • la compréhension et la documentation dans l’outil de Data Catalog (Collibra) des Datasets logiques (selon le framework du client). • l'architecture data fonctionnelle • l'execution du mapping des Datasets logiques avec leur implémentation physique dans l'outil de Data Catalog (Collibra) • l'identification et la documentation dans l’outil de Data Catalog (Collibra) des Business Process qui utilisent / produisent ces Datasets (selon le framework du client). • l’identification et la documentation dans l'outil de Data Catalog (Collibra) des Rôles et Responsabilités (selon le framework du client). • l'identification et la documentation dans l'outil de Data Catalog (Collibra) des règles métier. • création des livrables de change management et training, • l'accompagnement du métier
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres