Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Montpellier
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.
Data Analyst Power BI GCP
Contexte de la mission Notre client conçoit, finance, construit et gère des installations de production d'énergie verte en collaboration étroite avec les territoires et les entreprises. Nos équipes réalisent des projets sur mesure, performants et innovants, qui donnent tout son sens à la transition énergétique." L'équipe Data Office soutient toutes les directions (Finance, Exploitation, Asset Management, Construction...) dans la gestion et la valorisation de leurs données pour optimiser leur performance et automatiser des tâches. Elle est rattachée à la DSI globale. Objectifs / Enjeux Pour garantir le maintien et le développement des tableaux de bord métiers, nous recherchons un Data Analyst Power BI. Ses responsabilités incluent : Maintenir en condition opérationnelle (MCO) les tableaux critiques. Développer et mettre en production de nouveaux tableaux. Sensibiliser les métiers aux anomalies de données et améliorer leur qualité. Interactions : Équipe Data Office, directions métiers, experts (AWS, Dataiku, Power Platform…). Objectifs et livrables Activités principales MCO & Évolution : Assurer la pérennité et l’amélioration des tableaux en production. Qualité des données : Définir les règles métiers, identifier et corriger les anomalies. Développement : Concevoir des tableaux Power BI performants et adaptés aux besoins. Documentation : Consigner les évolutions, erreurs et retours métiers.
Ingénieur Data Gestion Courante : Objectifs et livrables

Nous recherchons un Ingénieur Data Gestion Courante : Objectifs et livrables en CDI sur Montpellier. Objectifs Sur le périmètre confié en coordination avec l'équipe de Gestion Courante Datalake : Assurer le suivi des traitements quotidien en Spark/Scala Analyser, corriger les incidents fonctionnels confiés avec leurs éventuelles reprises de données afférentes Tester les corrections d'incidents Mettre à jour la documentation Livrer en production les corrections Rendre compte à son chef de projet Livrables Spécifications des corrections dans le respect des délais et des charges définis avec son chef de projet Plan et cas de tests Mises à jour de la documentation Mise à jour du suivi interne de l'équipe Compétences demandées · Niveau de compétence · Oracle · Avancé · scala · Avancé · Gitlab · Avancé · UNIX / LINUX · Avancé · mesos · Élémentaire · IARD · Avancé · opcon · Élémentaire · spark · Avancé · Hive · Avancé
Ingénieur DEVOPS / Spécialiste MLOps
Nous recherchons un(e) Ingénieur(e) DEVOPS / Spécialiste MLOps pour rejoindre notre équipe dans le cadre d’une mission stratégique visant à optimiser et déployer des solutions Data au sein du Groupe. Les principales responsabilités incluent : Mise en œuvre opérationnelle et technique des produits Data : Industrialiser et automatiser le déploiement de la plateforme Dataiku. Tester et maintenir la plateforme afin de garantir sa sécurité, sa résilience et sa disponibilité, en respectant les engagements pris avec les différentes entités du Groupe. Documenter les travaux réalisés pour un usage interne ou pour la présentation de l’offre aux entités. Accompagner les métiers dans leur prise en main de la plateforme. Gérer les incidents en respectant les engagements définis dans l’offre. Gestion de projet : Être le point de contact opérationnel privilégié pour les clusters et/ou entités. Participer à l’élaboration des formations et des présentations destinées aux référents des clusters et entités consommatrices (ou potentiellement consommatrices) de l’offre. Contribuer aux réunions de co-construction de la roadmap et à sa mise en œuvre. Prendre le lead sur des aspects ou fonctionnalités techniques identifiés de l’offre. Participer ou réaliser des démonstrations et des WebTech autour de la plateforme MLOps. S’impliquer dans l’ensemble des rituels de la Squad, de la plateforme et du socle technique.
Expert ElasticSearch
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un Expert ElasticSearch. Vous intégrerez une équipe spécialisée dans la gestion et l’administration de plateformes DevOps, Cloud et Data . MISSIONS PRINCIPALES : Conception, déploiement et optimisation d’une plateforme ElasticSearch. Administration et orchestration des composants Elastic (Elasticsearch, Kibana, Logstash, Beats, APM). Automatisation des processus de déploiement et de maintenance. Sécurisation et optimisation des performances de la plateforme. Accompagnement et conseil des équipes clientes.
Expert ELK / Observabilité

Au sein de l'équipe de notre client, dans un contexte multi domaines/Clients, vous êtes rattaché(e) à l’équipe « Data Cloud ». Cette équipe assure la réalisation et l’administration des plateformes DEVOPS (fabrication logiciel et déploiement) , CLOUD et DATA. Dans le cadre de besoins Clients et Internes, vous êtes chargé(e) de : Designer, développer, déployer et assurer l’évolution d’une plateforme Elasticsearch Consolider un écosystème complet et cohérent autour de la plateforme Elasticsearch : Infrastructure Concevoir l’infrastructure hautement disponible Optimiser le ratio entre les technologies de stockage Gérer la disponibilité, afin d’assurer une capacité suffisante Appliquer des mises à jour logicielle et des correctifs de sécurité à Elastic Cloud Enterprise et l’infrastructure sous-jacente. Orchestration de la Suite Elastic Assurer la connectivité entre les composants Appliquer automatiquement les changements de configuration Appliquer les paramètres de capacité des besoins clients Prendre des snapshots de façon périodique Accompagner les clients dans la résolution de leurs problématiques Intégrer une chaine de fabrication complète et opérationnelle à base d’artifactory, de Gitlab, Gitlab/CI, Ansible Industrialiser et automatiser les tâches de run autour des composants Elasticsearch, Kibana, Logstash, Beats Pour réaliser la mission, vous êtes à même de : Diriger la livraison de plateforme Elastic pour assurer le succès de notre plateforme auprès des clients Conception de solutions, développement et intégration de produit et services Elastic, architecture de plateforme et planification de la capacité dans des environnements critiques. Développement de démonstrations et de preuves de concept qui mettent en évidence la valeur de la plateforme Elastic. Accompagnement dans la modélisation des données, développement et optimisation des requêtes, réglage et mise à l’échelle des clusters, en mettant l’accent sur la recherche rapide et l’analyse à l’échelle. Résoudre les problèmes de données les plus complexes de nos clients. Travailler en étroite collaboration avec les équipes d’exploitation afin d'identifier les améliorations à apporter aux fonctionnalités. Être un mentor/coach pour vos collègues.
Consultant Qlikview Qliksense + EtL Genio (Montpellier 2j semaine)

En quelques mots Cherry Pick est à la recherche d'un "Consultant Qlikview Qliksense" pour un client dans le secteur de l'immoblier Description📌 Descriptif du Poste Nous recherchons un Développeur QlikView / Qlik Sense ayant 3 à 5 ans d’expérience , avec une bonne maîtrise de l’ ETL Genio . Intégré(e) à une équipe de 7 personnes (Tech Lead, Architecte, Data Analysts), vous participerez au développement et à l’optimisation des dashboards et flux de données. Une connaissance du secteur immobilier est un plus. 🎯 Objectifs et Livrables Développer et maintenir des tableaux de bord et applications sous QlikView / Qlik Sense Concevoir et optimiser des flux ETL avec Genio Assurer la qualité, la performance et la fiabilité des données Collaborer avec les Data Analysts pour répondre aux besoins métiers Documenter les développements et bonnes pratiques
Ingénieur DBA solution Elastic et/ou MongoDB

Au sein de l'équipe de notre client, vous intervenez au sein du Département « Expertise ». Ce département intervient en particulier sur tous les SGBD / DATA utilisés pour les solutions mises à disposition. Missions : Réaliser l'administration courante de l’ensemble des SGBD de technologies ELASTIC/MONGODB spécifiques aux applications en vue de garantir un taux de disponibilité des applications conforme aux attentes Faire le suivi des consommations et usages des plateformes SGBD, analyser, identifier et remonter tout changement de comportement. Maintien en condition opérationnelle des plateformes de Production, Homologation et Cycle Projet. Résoudre les incidents en lien avec les serveurs usages applicatifs. Apporter le support nécessaire aux tours applicatives. Maintenir à jour les documentations, les faire évoluer et les adapter aux changements (FCR ; Astreintes ; pilotages ; …) Accompagner les intervenants de l'équipe pour tous les sujets touchant aux SGBD ELASTIC/MONGODB (demandes, projets, exploitation, …) Automatiser les processus du périmètre (Run, Build) Participer aux astreintes pour une couverture du service 7j/7 et 24h/24 Missions associées : Activités Projets Gérer les projets, suivre et mettre en œuvre les échanges avec la chefferie de projet métier et technique Mettre au point la documentation des processus de mise en œuvre, de mise à jour et d’exploitation des composants Participer aux mises en production des applications / déploiement des solutions Activités Fonctionnement Gérer des incidents et problèmes ; proposer et mettre en œuvre des plans d’actions dans le cadre de la gestion des problèmes Assurer une assistance technique, analyser l’état de santé, élaborer des enquêtes techniques et effectuer les diagnostics de perturbations Assurer le support du fonctionnement pour respecter les niveaux de service attendus de la Production concernant la disponibilité et les performances des applications. Apprécier les niveaux d’usage, de disponibilité et de performances des applications. Mettre en place les Tableau de bord de suivi. Suivre les obsolescences Anticipation des évolutions applicatives et techniques Maintenir et participer à des développements internes (industrialiser l'administration, automatiser les créations / décommissionnements, fiabiliser les interventions, …) Prendre en compte les évolutions de choix technologiques ; intégrer ces évolutions dans les pratiques et les outils internes de déploiement, de supervision, de diagnostic ou de métrologie
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- TJM = Travaille Juste pour Manger !il y a 8 minutes
- Remote depuis l'etranger ?il y a 19 minutes
- Mise en demeure urssafil y a 11 heures
- Etat du marché - Avril 2025il y a 13 heures
- Liquidation en cours d'une SASU sans activitéil y a 14 heures
- 4 ans de BI, des projets complexes, de la mobilité… mais aucune missionil y a un jour
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres