Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur Réseau LAN Datacenter
Nous recherchons pour le compte de notre client dans le secteur bancaire, un ingénieur réseau Lan et Datacenter pour renforcer l'équipe Network. Vous serez en charge du RUN (L1/L2/L3) et des projets de design et de mise en œuvre sur un périmètre EMEA, en collaboration avec les équipes Network de UK et Madrid. Vous contribuerez également à la définition des standards pour toutes les régions (EMEA/AMER/APAC), en collaboration avec les équipes groupe. Responsabilités : RUN (L1/L2/L3) : Assurer le bon fonctionnement des systèmes réseau sur le périmètre EMEA. Projets de Design et Mise en Œuvre : Participer à la conception et à la mise en œuvre de projets réseau. Définition des Standards : Collaborer avec les équipes groupe pour définir les standards réseau pour toutes les régions.
Mission freelance
Proxy Product Owner Data
Mission / Freelance / Paris / Proxy Product Owner / Data / MDM / Datawarehouse / SQL / API REST & SOAP Lawrence Harvey recherche pour le compte de son client un Proxy Product Owner Data pour un client à Paris. Freelance - Pas de sous-traitance, merci. Paris - hybride (2j/semaine en télétravail; 40%) Démarrage sopuhaité au 01/12/2024 Contexte : Projet de mise en place d'un MDM et d'un datawarehouse en binôme avec un PO interne Profil recherché : • Compétence en SQL • Capacité d'analyse et de résolution de bug • Expérience dans l'utilisation d'outil de visualisation de données. • Maitrise d'API REST et SOAP • Connaissance des différents modes d'échange de données (synchrone, asynchrone • Connaissance des méthodologies AGILE (Scrum, Kanban, SAFe …) • Capacité rédactionnelle et de communication • Expérience significative dans des projets Data (intégration de données, BI, modélisation, documentation du dictionnaire de données, du lineage) • Appétences sur la qualité de données. Tout ce qui est profilage, définition de règle de standardisation, normalisation … • La maîtrise de Snowflake et Power BI est un plus. Si cette opportunité vous intéresse, merci de postuler sur l'annonce ou de m'envoyer votre CV à l'adresse suivante : -email masqué- (Christopher Delannoy) et je vous recontacterai pour vous donner plus de détails sur la mission. N'hésitez pas à partager avec votre réseau si vous connaissez des personnes qui pourraient être intéressées Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)
Mission freelance
Lead Data GCP Python Power BI
Nous recherchons un(e) Lead Data Engineer expérimenté(e) pour rejoindre une équipe digitale dynamique dédiée à la gestion des données. Vous serez en charge de l’industrialisation de l’infrastructure data, ainsi que de la qualité, de la sécurité, et du respect de la vie privée des données. Vous travaillerez sur des environnements Cloud (GCP et AWS) et piloterez une équipe de 2 Data Engineer . Mise en place d’environnements cloisonnés (Dev, Préprod, Production). Automatisation du déploiement et de la maintenance via des outils Infrastructure as Code (Terraform) . Implémentation de solutions d’observabilité (monitoring, alerting). Maintenance et développement de pipelines de données en Python (batch et streaming). Création de pipelines SQL/SQLX avec Data-Form (similaire à DBT). Déploiement et gestion d’un outil de data quality (ex. Great Expectations). Développement de workers AWS pour gérer les flux entre Kafka et Pub Sub sur GCP. Connaissance de DataFlow (Apache Beam) appréciée. Standardisation du code avec linting, CI/CD et divers tests. Documentation des processus internes et schémas d’architecture. Coopération avec les équipes Data (analystes, SEO/SEA, emailing). Respect du RGPD avec anonymisation et archivage des données. Sécurisation de l’infrastructure, des données et du code
Mission freelance
Senior Graph Data Scientist
Le benéficiaire souhaite une prestation d’accompagnement dans le cadre de la contribution à la mise en place de leur IT Knowledge Graph, avec des opportunités de création d'énormes avantages pour les clients internes. À travers la conception et utilisation de Machine Learning et Graph Analytics (y compris Graph Mining, Graph Algorithms & Graph Enbeddings) dans divers cas, l'objectif est l'apport d'une expertise en matière de modélisation de données graphiques. Les missions sont: • Participation au développement des solutions pour la mise en place d'un Knowledge Graph combinant différentes sources de données • Conception des solutions pour différents cas d’utilisation afin de répondre aux besoins des clients à l’aide du Knowledge Graph • Prototype, test et production des pipelines Machine Learning pour ces cas d'utilisation • Analyses pour identifier les défis et les opportunités
Mission freelance
CP /AMOA Data Galaxy
Nous sommes à la recherche d'un CP /AMOA Piloter la mise en oeuvre de DataGalaxy dans l'écosystème : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes) Qu'elle soit capable à la fois d'animer une équipe et de tester par elle-même les features / modélisations de Data Galaxy. Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy)
Offre d'emploi
Data Engineer - Développement Python/SQL orienté Data
Contexte: Environnement technico-fonctionelle en finance de marché. Cette équipe est en charge: - d'assurer la transparence au sein des marchés mondiaux en stockant, collectant et centralisant les données pre-trade de trading. - de mettre en oeuvre une stratégie complète de gestion des données à l'échelle mondiale. - de produire de multiples reporting pour différents besoins internes, notamment réglementaires. La mission se concentre autour du développement et maintien d'un outil de détection d'abus de marché développé en interne à l'aide du langage de programmation Python.
Offre d'emploi
Développeur Java Senior pour Master Data Management (H/F)
## Contexte du poste Notre entreprise, un leader dans le secteur de la gestion et du conseil, avec une forte empreinte technologique et numérique, est située près de Lyon. Dans le cadre de l'expansion de notre département de l'informatique, et plus spécifiquement notre équipe dédiée au master data management (MDM), nous cherchons à renforcer notre capacité en développement Java. L'équipe actuelle, composée de talents internes et externes, gère une variété de projets stratégiques axés sur la consolidation et l'optimisation des données de l'entreprise. La nécessité de ce recrutement émane de notre volonté d'internaliser les compétences critiques et de développer notre expertise en master data management. ## Missions ### Principales - Concevoir et développer des solutions Java efficaces pour notre outil MDM utilisant TIBCO EBX. - Collaborer à l'amélioration continue de la plateforme par des contributions innovantes et optimisées. - Participer activement au cycle de vie du développement, incluant conception, codage, tests et déploiement. - Assurer la maintenance et le support de niveau 3 de l'application, garantissant sa disponibilité et sa performance. ### Annexes - Travailler en étroite collaboration avec les autres départements IT pour intégrer les systèmes et fluidifier les échanges de données. - Contribuer à la documentation technique et à la transmission des connaissances au sein de l'équipe. ## Stack technique ### À maîtriser - Java (expérience solide requise) - MDM, idéalement TIBCO EBX - ETL, experience avec Pentaho est un plus ### Environnement global - Gestion de base de données et outils de Data Engineering - BusinessWorks ou autres ESB - Git, Jenkins pour l'intégration et le déploiement continus
Offre d'emploi
Data Engineer Snowflake / Databricks
À propos de l'entreprise : Notre client est une société dynamique et innovante spécialisée dans l'accompagnement des entreprises dans la valorisation de leurs données. En pleine expansion, cette société à taille humaine (environ 15 collaborateurs) se distingue par sa capacité d'adaptation et sa forte culture collaborative. • Structure agile : taille humaine, faible turn-over, esprit d'équipe. • Collaboratif et engagé : chaque collaborateur contribue au développement technique et commercial de l'entreprise, ainsi qu'au recrutement. • Montée en compétences : formations régulières en techniques avancées, certifications et développement des soft skills. • Évolution rapide : revue de performance semestrielle, permettant des perspectives d'évolution accélérées. • Contexte international : l'entreprise est en phase d'expansion au-delà des frontières nationales. • Stabilité des missions : aucun consultant en intercontrat, signe d'une gestion optimale. Vos missions incluent : • Conception et développement de solutions de données avec Snowflake et/ou Databricks pour des analyses optimisées. • Intégration et maintenance des pipelines de données pour assurer leur fiabilité et performance. • Collaboration avec les équipes techniques et métiers pour recueillir les besoins, définir les objectifs, et fournir des solutions adaptées. • Modélisation et optimisation des structures de données pour garantir la fluidité des analyses et une exploitation efficace. • Rédaction de spécifications fonctionnelles et techniques pour assurer une documentation de qualité. • Participation aux sessions de définition des processus cibles avec les clients et recommandations de Best Practices. Profil recherché : • Diplôme d'Ingénieur ou Bac+5 en informatique, spécialisation en Data Engineering est un plus. • Expérience d'au moins 3 ans en cabinet de conseil, avec une expertise en Snowflake, Databricks ou technologies similaires. • Compétences en modélisation et structuration de données (ETL, SQL avancé, Spark). • Anglais professionnel, permettant d'échanger dans un contexte international. Qualités recherchées : Vous êtes autonome, avez une excellente communication et une capacité d'adaptation. Votre esprit analytique et votre sens de l'initiative vous permettent d'apporter une réelle valeur ajoutée aux projets. Ce poste est fait pour vous ? Rejoignez une société en pleine croissance et portez vos compétences Data au niveau supérieur ! Candidatures confidentielles
Mission freelance
AWS Data Engineer
Les ingénieurs data de l’équipe ont deux missions principales : a. Maintien en condition opérationnelle de la plateforme : Assurer la disponibilité des données et des services de la plateforme Communiquer avec les utilisateurs de la plateforme Répondre aux demandes de données ad hoc ou à l'analyse des anomalies Développer des correctifs et des évolutions de la plateforme Contribuer à la qualité des données et à l’industrialisation de la plateforme b. Conception et développement de services et de pipelines de données performants et fiables : Mettre en place des flux d’acquisition et d’exportation de données Effectuer des modélisations de données Développer des pipelines de transformation Réaliser les tests unitaires et d'intégration Veiller à la qualité des développements et au respect des standards via les revues de code Gérer les dépendances entre les traitements et les ordonnancer Réaliser les déploiements dans tous les environnements Maintenir et enrichir la documentation de la plateforme
Mission freelance
Ingénieur datacenter
Je recherche pour l'un de mes clients du secteur de l'assurance, un.e ingéneur.e Datacenter (DCO) pour rejoindre l'équipe des Opérations de Datacenter. Cette équipe joue un rôle crucial en tant qu'interface opérationnelle entre les équipes produits, les chefs de projet et les équipes locales des Datacenters (DC). L'activité de l'équipe DCO est centrée sur la gestion de la "server factory" (approvisionnement/décommissionnement d'équipements) et la gestion des salles de Datacenter. Missions: Les activités à soutenir incluent: Traitement quotidien des demandes d'approvisionnement, de décommissionnement, et de modification des équipements physiques. Coordination des opérations dans les salles de nos datacenters français : coordination technique, mise en œuvre des différentes parties impliquées dans le déplacement d'équipements d'un site à un autre, installation/décommissionnement d'actifs, organisation du travail des fournisseurs et prestataires dans les salles serveurs. Suivi de l'activité des équipes locales de DC, contact privilégié pour répondre à leurs questions (techniques et non techniques). Gestion des réunions bimensuelles. Urbanisation des équipements dans les salles de datacenter conformément aux normes de l'entreprise : remplissage uniforme des racks, contrôle de la redondance électrique des équipements installés, correspondance de la puissance disponible aux équipements installés, équilibrage de la charge au sol, gestion des demandes de travail, etc. Maintien à jour de l'inventaire des équipements des salles de DC dans les référentiels. Expertise requise pour installer les équipements dans le cadre de projets, de migration/relocalisation de salles IT dans les DC, dans les outils d'urbanisation. Prise en compte des contraintes d'entrée/sortie et des transporteurs. Suivi et gestion des incidents et des demandes. Visites sur site au moins deux fois par mois dans chaque DC pour vérifier l'état des salles, des stocks et des opérations spécifiques. Soutien aux utilisateurs dans nos processus. Maîtrise des processus ITIL : CMDB, changements, incidents, etc. Échanges techniques réguliers avec les équipes anglophones - environnement en anglais obligatoire. Propositions d'actions d'amélioration continue. Maîtrise d'un outil DCIM (Dctrack préféré). Livrables: Mise en œuvre des demandes et opérations impactant les équipes et salles DC. Référentiels à jour. Reporting régulier sur les actions en cours en donnant une visibilité sur les dates de finalisation des demandes. Formation et support aux demandeurs. Rédaction de documentation à l'usage de l'équipe DC, de notre équipe et des utilisateurs. Adaptation et amélioration des processus DC.
Offre d'emploi
Data MLOps Senior
Vous êtes passionné par l'industrialisation des modèles de machine learning ? Rejoignez une équipe dynamique où vous jouerez un rôle central dans l'optimisation et l'automatisation des pipelines ML, tout en intégrant les meilleures pratiques MLOps. Contexte de la mission : En tant qu'Ingénieur MLOps, vous intégrerez une équipe produit dédiée, avec pour mission de garantir la fluidité des opérations ML. Vous participerez activement à l'industrialisation de modèles de machine learning déjà développés, en optimisant et en automatisant les processus de déploiement et de surveillance pour atteindre une efficacité et une scalabilité maximales. Objectifs et Livrables : • ???? Implémenter des Pipelines Automatisés : Mettre en place des pipelines pour le déploiement et la surveillance des modèles ML, avec gestion des alertes pour une proactivité optimale. • ???? Automatiser et Optimiser les Workflows ML : Améliorer la productivité en automatisant les étapes clés du pipeline ML et en maximisant la scalabilité des workflows. • ????? Mettre en Place des Outils et Pratiques MLOps : Standardiser les pratiques d'ingénierie ML pour optimiser la collaboration et la performance, avec intégration d'outils IA. • ???? Optimiser l'Efficacité des Workflows ML : Concevoir des solutions qui favorisent une exécution plus rapide et plus efficace des workflows, en prenant en compte les enjeux de performance et de coût. Stack Technique : • Environnement Cloud : AWS (prioritaire), incluant des outils et services comme SageMaker, Cloudwatch, Terraform. • Outils MLOps et Orchestration : Kubernetes, TensorFlow, Jenkins, PyTorch. • Surveillance et Observabilité : Cloudwatch, Prometheus, Alertmanager, Grafana. • Programmation : Python (indispensable). Compétences Recherchées : • ? Maîtrise des Technologies AWS et MLOps : Bonne connaissance de l'écosystème AWS et des outils MLOps clés. • ? Excellente Compétence en Python : Maîtrise de la programmation en Python pour l'implémentation de pipelines et workflows ML. • ? Solides Connaissances en Machine Learning : Compréhension des concepts ML pour une intégration optimale des modèles. • ? Force de Proposition et Esprit de Résolution : Capacité à analyser et résoudre rapidement les défis liés aux flux de données ML. • ? Proactivité et Esprit d'Équipe : Goût pour le travail collaboratif, le respect des délais, la qualité et le sens des résultats. Certification Requise : • AWS Machine Learning Specialty (minimum requis). Pourquoi Rejoindre ? Ce poste offre l'opportunité de travailler au sein d'une équipe performante sur des projets à forte valeur ajoutée en machine learning et IA. Vous serez au cœur des processus d'industrialisation et pourrez contribuer activement à l'optimisation des pratiques MLOps dans une structure en pleine croissance.
Mission freelance
Chef de Projet / Business Analyst - Data Galaxy
Notre client recherche un Chef de Projet / Business Analyst expérimenté pour le déploiement du catalogue de données Data Galaxy . Le poste est basé en région grenobloise (côté Grésivaudan) avec une présence sur site de 3 jours par semaine. Pilotage de projet : Planifier et assurer la mise en œuvre de Data Galaxy dans l'écosystème client. Animer les réunions (Kick-Off, suivi de projet, support aux ateliers). Gérer les ressources et garantir le respect des délais et des objectifs. Montée en compétences : Se former sur Data Galaxy pour devenir opérationnel et accompagner les équipes. Participer à la rédaction de documents, à la formation et à l'accompagnement des équipes utilisatrices. Conception et documentation : Rédiger des Guidelines (aides à la prise de décision, design et tests des solutions dans Data Galaxy). Tester par soi-même les fonctionnalités et modélisations de l'outil. Support technique : Apporter un support aux équipes techniques et Data Office dans leurs activités sur Data Galaxy.
Mission freelance
Ingénieur Réseau Data Center - Openshift
1/ DESCRIPTION Je recherche pour l'un de mes clients, acteur du secteur bancaire, un Expert Réseau Datacenter pour rejoindre son équipe infrastructure réseaux. L’équipe a la responsabilité du maintien en condition opérationnelle et des évolutions des infrastructures Réseau DC et Télécoms du groupe. Vous évoluerez au sein d‘une équipe disposant d’un large spectre technologique (F5, VXLAN EVPN, Cisco ACI, VMware NSX, Segment Routing, Openshift CNI Cilium / Tigera, MPLS...) 2/ MISSIONS En tant qu' Expert Réseau Datacenter , vous serez l'un des référents techniques concernant la conception et l'exploitation du réseau dans les datacenters. Vous aurez pour principales missions de : Fournir un soutien technique de haut niveau pour la conception, le déploiement et la gestion de l'infrastructure réseau du datacenter. Participer à la résolution des problèmes complexes de niveau 3, de l'optimisation des performances et de la mise en œuvre des nouvelles technologies réseau. Collaborer avec les équipes d'ingénierie et d'exploitation pour élaborer des plans d'amélioration continue de l'infrastructure réseau. Assurer l’interface avec les experts des autres domaines. Former et encadrer les membres juniors de l'équipe réseau. Mettre à jour les documentations techniques au fil du temps. Effectuer une veille technologique sur le périmètre Focus Projet Openshift NextGen : Bonne connaissance contexte Openshfit et plus particulièrement l’intégration et l’exploitation d’une CNI de type Cilium ou Tigera. Dans ce contexte, il est également nécessaire de connaitre les méthodes d’interconnexion avec une fabric réseau plus standard (protocoles de routage type BGP). Expérience significative en conception et déploiement d'architectures réseau dans un environnement datacenter de grande envergure. Une expérience dans le cadre d’Openshift serait un vrai plus. Expériences avérées en : Conception et intégration d'une CNI dans un environnement de production. Interconnexion entre la CNI et un réseau datacenter Mise en place de protocoles de routage (BGP, MPLS, OSPF...) sur un réseau datacenter d'envergure L’objectif est de travailler sur la mise en place d’une nouvelle plateforme Openshift pour un RFP entre Cilium ou Tigera. Il nous faut donc des sachants qui pourront nous aider sur la phase de build (conception ou l’intégration d’une CNI) et non sur celle de run
Offre d'emploi
Data Analyst & Développeur Tableau & Qlik
La mission se déroulera au sein du Dataviz Studio de la Direction Data de BNPP Personal Finance. Cette équipe a pour responsabilité de maintenir et de mettre à disposition des solutions de Dataviz (Qliksense, Tableau et PowerBI) pour les collaborateurs de PF. Dans son offre de service le Dataviz Studio propose aussi de développer et de maintenir des dashboards pour les différentes directions Métiers. La mission nécessite des compétences fonctionnelles avancées en priorité sur Tableau, mais aussi sur Qlik pour développer et maintenir des dashboards pour différentes Directions métier (Risk, Mobility...)
Offre d'emploi
Data Engineer Talend / BusinessObjects / GCP F/H
Au sein de la Direction Immobilière Groupe (DIG) et rattaché(e) au pôle Data de la DSI, vous participerez à la maintenance et à l’évolution du patrimoine applicatif data, tout en accompagnant la roadmap de migration vers une nouvelle architecture sur Google Cloud Platform (GCP) . Vos missions principales incluront : Maintenance corrective et évolutive des flux de données Talend (DI et ESB). Conception technique, développement, tests et support recette des jobs Talend. Maintenance des univers SAP BusinessObjects et création/modification de rapports. Développement de flux en temps réel via Talend ESB. Rédaction des documentations techniques et des spécifications fonctionnelles. Compétences techniques requises : Obligatoires : Talend DI et Talend ESB. SAP BusinessObjects. Bases de données Oracle et PostgreSQL. Méthodologie Agile Scrum. Optionnelles : Expérience avec Google Cloud Platform (GCP).
Mission freelance
Ingénieur Réseau Data Center - Openshift
1/ DESCRIPTION Je recherche pour l'un de mes clients, acteur du secteur bancaire, un Expert Réseau Datacenter pour rejoindre son équipe infrastructure réseaux. L’équipe a la responsabilité du maintien en condition opérationnelle et des évolutions des infrastructures Réseau DC et Télécoms du groupe. Vous évoluerez au sein d‘une équipe disposant d’un large spectre technologique (F5, VXLAN EVPN, Cisco ACI, VMware NSX, Segment Routing, Openshift CNI Cilium / Tigera, MPLS...) 2/ MISSIONS En tant qu' Expert Réseau Datacenter , vous serez l'un des référents techniques concernant la conception et l'exploitation du réseau dans les datacenters. Vous aurez pour principales missions de : Fournir un soutien technique de haut niveau pour la conception, le déploiement et la gestion de l'infrastructure réseau du datacenter. Participer à la résolution des problèmes complexes de niveau 3, de l'optimisation des performances et de la mise en œuvre des nouvelles technologies réseau. Collaborer avec les équipes d'ingénierie et d'exploitation pour élaborer des plans d'amélioration continue de l'infrastructure réseau. Assurer l’interface avec les experts des autres domaines. Former et encadrer les membres juniors de l'équipe réseau. Mettre à jour les documentations techniques au fil du temps. Effectuer une veille technologique sur le périmètre Focus Projet Openshift NextGen : Bonne connaissance contexte Openshfit et plus particulièrement l’intégration et l’exploitation d’une CNI de type Cilium ou Tigera. Dans ce contexte, il est également nécessaire de connaitre les méthodes d’interconnexion avec une fabric réseau plus standard (protocoles de routage type BGP). Expérience significative en conception et déploiement d'architectures réseau dans un environnement datacenter de grande envergure. Une expérience dans le cadre d’Openshift serait un vrai plus. Expériences avérées en : Conception et intégration d'une CNI dans un environnement de production. Interconnexion entre la CNI et un réseau datacenter Mise en place de protocoles de routage (BGP, MPLS, OSPF...) sur un réseau datacenter d'envergure L’objectif est de travailler sur la mise en place d’une nouvelle plateforme Openshift pour un RFP entre Cilium ou Tigera. Il nous faut donc des sachants qui pourront nous aider sur la phase de build (conception ou l’intégration d’une CNI) et non sur celle de run
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?
- Démarrage Freelance - ARE ou ARCE + SASU ou AE
- Urgent Arce subtilité
- Obligé de faire la plonge pour survivre...
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres