Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant SysOps Big Data Cloudera/ Couchbase
Nous recherchons un consultant SysOps Big Data Cloudera/ Couchbase pour un client basé à Vélizy (78). La prestation se déroulera au sein de la DSI dans l’équipe IT/IS Business Apps Run qui est responsable de la gestion, du déploiement et du maintien en condition opérationnelle des infrastructures de production des applications métiers. Elle est composée d'une cinquantaine d'ingénieurs en France, en Inde et aux Etats-Unis répartis en six pôles de compétences La prestation se déroulera dans le pôle "BI & Data" où interviennent sept ingénieurs d'exploitation qui gèrent plus de 500 serveurs, supportent une trentaine d'applications et plusieurs centaines d'utilisateurs internes.
Offre d'emploi
Data Engineer
Nous recherchons un Data Engineer expérimenté pour un projet d’exposition des données dans le secteur bancaire. Le rôle comprend : L’implémentation et l’évolution des API REST pour l’exposition des données. L’orchestration et le déploiement des traitements de transformation sur différents environnements. La migration des traitements existants vers des environnements modernes comme CDH et OpenShift . Vous travaillerez sur des projets stratégiques en collaboration avec des équipes multidisciplinaires dans un environnement technologique avancé.
Mission freelance
Lead Master data SAP MGD
Notre client va passer sur S4 ; deux entités avec deux ERP différents, c'est dans ce contexte que nous recherchons pour un de nos clients, un.e Lead Master Data SAP. Missions : Comprendre les différents environnements S’approprier le design des différents objets mis en place par l’intégrateur, Contrôler les données, leur qualité, complétude Etablir les procédures cibles aussi pour le maintien du référentiel dans le futur… Full périmètre SAP : FI COP SD MM PP QM EWM
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
Data Analyst Assurance
Pour les besoins d'un client grand compte Banque et assurance, nous recherchons un consultant Data Analyst senior, ayant de l'expérience dans le secteur Assurance. Pour travailler au sein de la Direction du Datahub du client, qui est un centre d’expertise de la donnée, transversal à toute leur branche assurance. Il a vocation à la fois à faciliter les usages de la donnée par les différentes fonctions métiers via le Datalake (pilotage commercial, marketing, actuariat, finance et risque, etc.), et à produire des analyses / modèles plus complexes via le Datalab. Le Data Analyst sera rattaché au pôle Solution et delivery du DataLab et aura la charge de: Cadrer et spécifier les besoins des différents métiers qui en font la demande (étude ou extraction) Travailler en étroite collaboration avec les autres membres du DataLab pour favoriser la réutilisation des études existantes et capitaliser sur les acquis de l’équipe Agir en support des squads FT data afin de les aider à prototyper rapidement et valider les règles de gestion des silos analytiques Réaliser les demandes adressées dans le respect des plannings métiers Veiller à l’application du processus de traitement des demandes en vigueur Restituer agilement en fonction de l’interlocuteur (Powerpoint, Excel, E-mail, PowerBi, code en production …) Privilégier la réutilisabilité de ses livrables Développer en toute agilité au côté des métiers les projets nécessitant la mise en place de dashboards Communiquer avec le reste de l’équipe et les métiers sur les arbitrages, les nouvelles règles et éventuelles anomalies détectées, …
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Offre d'emploi
Chef de Projet DATA H/F
Mission Descriptif du poste : Vous avez une forte appétence en management des équipes et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de Chef de Projet Data. Votre mission principale consiste à gérer, superviser et contribuer sur tous les aspects des projets data de nos clients, en veillant à ce qu'ils soient livrés dans les délais et respecter les objectifs fixés. Vous serez responsable de la planification, de la coordination et de la mise en œuvre de projets data ; Vous analyserez la performance de votre équipe via plusieurs indicateurs afin de respecter les objectifs fixés ; Vous recommandez des axes d'améliorations en vous appuyant sur la pertinence de vos analyses et votre force de proposition; Vous acculturez les utilisateurs et les clients internes aux outils; Vous accompagnerez les équipes techniques dans l'optimisation des rendus.
Mission freelance
DATA SCIENTISTE LLM / RAG
Le Bénéficiaire souhaite une prestation de Datascientist dans l´objectif d'accompagner dans la prise en main des outils, les accompagnements dans le développement des premiers modèles, leur accompagnements pour apporter une expertise AI si nécessaire. Mais aussi dans la participation active sur la mise en place d'une stratégie des Smart Agent Les missions sont: - Participation à la définition de la stratégie sur les smart agent - Développement de modèle - Revue de code - Partage de connaissances techniques/fonctionnelles et participation actives dans la communauté AI Datascientist - Maitrise du cycle de vie des tests - Mise à jour documentaire (technique et/ou fonctionnelle) - Développement et maintenance des modèles IA en central - Participation à la montée en compétence des CoE IA locaux - Participation à proposer des nouveautés, des améliorations, des recherches qui pourraient aider à nous améliorer dans nos Environnements techniques/fonctionnels souhaités - DeepLearning - NLP - Docker / Kubernetes / MLFlow / Python - Prompting LLM open source : llama, mistral sur des cas d'usages et des données metiers - Déploiement de serveur d'inference LLM : TGI / vllm - RAG : experience dans la mise en place de rag : via similarité search / graph rag - Fine-tuning : Experience en fine-tuning (loral, xlora)
Offre d'emploi
Data Engineer GCP
Nous recrutons pour une entreprise en pleine croissance et à la pointe des technologies cloud. Cette société cherche un Data Engineer confirmé pour renforcer ses équipes et travailler sur des projets stratégiques à forte valeur ajoutée. Poste de Data Engineer Confirmé : Dans ce rôle, vous serez un acteur clé dans la conception et la mise en œuvre de solutions data robustes et innovantes en utilisant Google Cloud Platform (GCP). Vos missions : Concevoir, développer et maintenir des pipelines de données complexes sur GCP. Mettre en œuvre des solutions d'intégration et de transformation des données adaptées aux besoins métiers. Optimiser les flux de données pour garantir leur performance, leur sécurité et leur scalabilité. Collaborer avec des équipes pluridisciplinaires : data scientists, analystes et architectes. Assurer le suivi et le monitoring des environnements cloud. Proposer des améliorations continues en adoptant les meilleures pratiques de gouvernance des données. Votre profil : Expérience : 3 à 5 ans en tant que Data Engineer avec une expertise reconnue sur GCP. Compétences techniques : Maîtrise des outils GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage. Solides connaissances en Python et SQL pour le développement de pipelines ETL. Compréhension des bases de données relationnelles et non relationnelles (MySQL, MongoDB, etc.). Une expérience avec Apache Beam, Terraform ou Airflow est un atout. Soft skills : Autonomie, esprit d'analyse, capacité à travailler en équipe et goût pour l'innovation. Informations complémentaires : Localisation : Poste basé à Paris, possibilité de télétravail. Contrat : CDI. Rémunération : Attractive, selon profil et expérience. Ne manquez pas cette opportunité de rejoindre un environnement stimulant et de travailler sur des projets d'envergure dans la data !
Offre d'emploi
Data Scientist (H/F)
Nous recherchons pour notre client, grand compte, un Data Scientist confirmé pour une mission longue durée Notre client figure parmi les principaux gérants d'actifs mondiaux assurant la gestion active d'actions, d'obligations et de taux, la gestion passive de fonds indiciels ainsi que la gestion d'actifs non liquides (actifs immobiliers et dettes privées). Prérequis : Data Science : Apprentissage automatique et analyse de données Pratiques MLOps Déploiement de packages Python PySpark Pratiques LLMs LLMOps Rigoureux, organisé, Proactif
Mission freelance
Ingénieur Data Expert
Poste : Ingénieur Data Lead Expert Expérience : +10 années Localisation : Maison Alfort Démarrage : ASAP Contexte : L’objet de cette consultation est une prestation d’assistance technique pour un développeur Data lead Expert intervenant sur un périmètre du service de Gestion Assurance Export (GAE) au sein de la Direction des Services Informatiques de Bpifrance qui mène à bien les projets informatiques. La mission se déroulera au sein de l'équipe Agile en charge de la réalisation et de la maintenance des applications du SI de Bpifrance Assurance Export. Cette prestation d’assistance technique Data sera supervisée par le Product Manager et le Scrum Master de l’équipe IAE du train SAFe TransSquadExpress. La mission s’exercera au sein de l’équipe de projets dédiée mais pourra être amenée à évoluer au sein d’autres équipes du même groupe de projets ou sur des sujets complémentaires. Missions : On recherche un ingénieur Data qui soit le Lead des développeurs de l'équipe avec la volonté de tirer l'équipe vers des nouvelles pratiques et technologies (Evènementiel, APIsation, scripts Python etc). Son expertise dans ces outils doit amener à des nouvelles pratiques. Il doit être proactif et capable d'aller échanger aves ses pairs d'autres équipes Data au sein de Bpifrance et doit être curieux des nouvelles pratiques et nouveaux outils de marché. La connaissance complémentaire de Datastage serait un vrai plus. Compétences métier : • Maitrise des modélisations décisionnelles • Utilisation de l'évènementiel • Développement d’API • Pratique et expertise dans la pratique de sujets liés à la Data.
Offre d'emploi
Tech Lead Data Snowflake
Rejoignez un acteur majeur de la logistique et du e-commerce en pleine transformation digitale ! Nous recrutons un Tech Lead Data pour accompagner un groupe leader dans son secteur, au cœur d'un ambitieux projet de modernisation de son infrastructure data. Vous contribuerez à migrer un Datawarehouse MSBI existant vers une Modern Data Platform basée sur Snowflake , tout en pilotant des initiatives stratégiques autour de la donnée. Vos missions principales : Piloter la migration du Datawarehouse actuel (MSBI) vers Snowflake. Concevoir et implémenter une plateforme data moderne pour répondre aux enjeux métiers. Mettre en place un catalogue de services étendu, incluant des solutions de Self-BI et de visualisation de données ( Power BI ). Accompagner les équipes data dans la montée en compétence sur les nouvelles technologies. Assurer la cohérence technique des solutions et garantir leur performance, sécurité et scalabilité. Être un interlocuteur clé entre les équipes techniques, les métiers et les partenaires externes. Profil recherché : Expérience significative en tant que Data Engineer ou Tech Lead Data Expertise technique sur Snowflake et les environnements de Data Platforms modernes. Maîtrise des outils de transformation et visualisation de données : Power BI , DBT, ou équivalent. Solides compétences en migration de systèmes Datawarehouse et gestion de projets techniques complexes. Bon relationnel, leadership naturel et capacité à fédérer autour de projets innovants. Pourquoi rejoindre ce projet ? Intégrer un groupe en pleine transformation, avec une vision stratégique claire sur la data. Travailler sur des projets à fort impact dans un secteur en croissance constante. Évoluer dans un environnement technique innovant et stimulant. Envoyez-nous votre CV ou un message en privé pour en savoir plus sur cette opportunité ! Candidatures confidentielles
Offre d'emploi
Data engineer H/F offre en CDI uniquement
L’objet de la présente prestation est Développement des projets dans le cadre de la BI entreprise : Tâche 1 : TERADATA - ABINITIO Faire un bilan des graphes ABINITIO sur le projet INSIDE et générer une documentation fonctionnelle pour réécriture. Tâche 2 : Développement des US Dans le cadre des sprints, réalisation des développements Tâche 3 : Intégration dans l'équipe existante Récupération des bonnes pratiques Tâche 4 : Transfert de compétences Reprendre les connaissances techniques et fonctionnelles du sachant en place
Mission freelance
Migrateur Data
Exécution des Run de migration (Échantillon et volumétrie) ; Mettre à disposition les éléments nécessaires permettant des validations statique ; Analyser, développer, livrer, les demandes des compteurs et des balances des régimes conformément aux règles d’architecture de l’écosystème du client (performance, sécurité, exploitabilité) en coordination avec d'autres équipes. Ce livrable a pour objectif de faciliter : La validation de sa migration Le pilotage et la priorisation de ses réhabilitations Gestion des incidents, alerter le responsable des difficultés rencontrées et/ou de la qualité des livrables testés. Définir les outillages nécessaires pour industrialiser les gestes. Capitaliser au fil des migrations dans une logique d’optimisation des coûts et d’une simplification / harmonisation des pratiques. Établir le reporting de son activité et rendre compte de l’avancement des tests auprès du responsable de projet. Apporter un support fonctionnel sur la partie compteur pendant les phases de bascules. Participer aux bascules des données.
Offre d'emploi
Practice Leader Data (H/F)
Nous recherchons un Practice Leader Data pour piloter les équipes et les solutions autour des environnements Microsoft Azure/Databricks et Google Cloud (GCP) . Ce poste clé vous permettra de jouer un rôle stratégique dans le développement des offres Data et Cloud d'une entreprise qui jouant les premiers rôles sur le marché. Vos missions : Avant-vente : Collaborer avec les équipes commerciales pour concevoir des solutions data sur mesure adaptées aux besoins des clients. Leadership et stratégie : Encadrer, former et accompagner les équipes internes (100aine collaborateurs spécialisés sur Microsoft et GCP). Soutenir la montée en compétences des jeunes talents tout en pilotant des projets techniques complexes. Définir la vision et les priorités stratégiques des practices Microsoft et GCP. Participer à l'intégration stratégique de fonctionnalités IA dans les projets Data À propos de l'entreprise : Un acteur incontournable avec une offre complète autour de la Data : Expertise Cloud sur Azure , GCP , Snowflake et Databricks . Transformation des systèmes d'information (ERP, CRM, Supply Chain) et modernisation des plateformes data. Une équipe d'experts Data en France, soutenue par des partenariats stratégiques avec des leaders technologiques. Une culture geek et humaine, avec une forte dynamique d'innovation et une veille technologique active. Profil recherché : Expérience significative dans un rôle de Practice Leader , Data Architect ou similaire. Expertise technique et stratégique sur Azure , Databricks et/ou Google Cloud Platform (GCP) . Forte capacité à accompagner des équipes, définir des visions stratégiques et piloter des projets complexes. Sens du service client et appétence pour le travail collaboratif avec des équipes commerciales. Pourquoi rejoindre ce poste ? Un rôle stratégique au sein d'une organisation leader dans la Data et le Cloud. L'opportunité de piloter des solutions à forte valeur ajoutée sur des technologies de pointe. Une culture d'entreprise dynamique, humaine et tournée vers l'innovation. Candidatures confidentielles
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE
- Réforme des taux de cotisations et assiettes TNS 2025
- Dépassement plafond AE deux années consécutives ?
- 3 mois intercontrats, 6 entretiens client final 6 echecs
- Obligé de faire la plonge pour survivre...
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres