Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Votre recherche renvoie 990 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance

Mission freelance
Consultant SysOps Big Data Cloudera/ Couchbase

Intuition IT Solutions Ltd.
Publiée le
Cloudera

6 mois
100-600 €
Vélizy-Villacoublay, Île-de-France

Nous recherchons un consultant SysOps Big Data Cloudera/ Couchbase pour un client basé à Vélizy (78). La prestation se déroulera au sein de la DSI dans l’équipe IT/IS Business Apps Run qui est responsable de la gestion, du déploiement et du maintien en condition opérationnelle des infrastructures de production des applications métiers. Elle est composée d'une cinquantaine d'ingénieurs en France, en Inde et aux Etats-Unis répartis en six pôles de compétences La prestation se déroulera dans le pôle "BI & Data" où interviennent sept ingénieurs d'exploitation qui gèrent plus de 500 serveurs, supportent une trentaine d'applications et plusieurs centaines d'utilisateurs internes.

Freelance
CDI

Offre d'emploi
Data Engineer

Altedis
Publiée le
Ansible
Apache Airflow
Apache Kafka

24 mois
10k-50k €
100-550 €
Île-de-France, France

Nous recherchons un Data Engineer expérimenté pour un projet d’exposition des données dans le secteur bancaire. Le rôle comprend : L’implémentation et l’évolution des API REST pour l’exposition des données. L’orchestration et le déploiement des traitements de transformation sur différents environnements. La migration des traitements existants vers des environnements modernes comme CDH et OpenShift . Vous travaillerez sur des projets stratégiques en collaboration avec des équipes multidisciplinaires dans un environnement technologique avancé.

Freelance

Mission freelance
Lead Master data SAP MGD

TIM Free
Publiée le
Master Data Management (MDM)
SAP

12 mois
700-750 €
Île-de-France, France

Notre client va passer sur S4 ; deux entités avec deux ERP différents, c'est dans ce contexte que nous recherchons pour un de nos clients, un.e Lead Master Data SAP. Missions : Comprendre les différents environnements S’approprier le design des différents objets mis en place par l’intégrateur, Contrôler les données, leur qualité, complétude Etablir les procédures cibles aussi pour le maintien du référentiel dans le futur… Full périmètre SAP : FI COP SD MM PP QM EWM

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
310-570 €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

CDI

Offre d'emploi
Data Engineer GCP

Tenth Revolution Group
Publiée le

0 €
Île-de-France, France

À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.

CDI

Offre d'emploi
Data Analyst Assurance

CAT-AMANIA
Publiée le
Microsoft Power BI
SAS
SQL

57k-60k €
Paris, France

Pour les besoins d'un client grand compte Banque et assurance, nous recherchons un consultant Data Analyst senior, ayant de l'expérience dans le secteur Assurance. Pour travailler au sein de la Direction du Datahub du client, qui est un centre d’expertise de la donnée, transversal à toute leur branche assurance. Il a vocation à la fois à faciliter les usages de la donnée par les différentes fonctions métiers via le Datalake (pilotage commercial, marketing, actuariat, finance et risque, etc.), et à produire des analyses / modèles plus complexes via le Datalab. Le Data Analyst sera rattaché au pôle Solution et delivery du DataLab et aura la charge de: Cadrer et spécifier les besoins des différents métiers qui en font la demande (étude ou extraction) Travailler en étroite collaboration avec les autres membres du DataLab pour favoriser la réutilisation des études existantes et capitaliser sur les acquis de l’équipe Agir en support des squads FT data afin de les aider à prototyper rapidement et valider les règles de gestion des silos analytiques Réaliser les demandes adressées dans le respect des plannings métiers Veiller à l’application du processus de traitement des demandes en vigueur Restituer agilement en fonction de l’interlocuteur (Powerpoint, Excel, E-mail, PowerBi, code en production …) Privilégier la réutilisabilité de ses livrables Développer en toute agilité au côté des métiers les projets nécessitant la mise en place de dashboards Communiquer avec le reste de l’équipe et les métiers sur les arbitrages, les nouvelles règles et éventuelles anomalies détectées, …

CDI
Freelance

Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance

Amontech
Publiée le
Databricks
Jenkins
Python

1 an
40k-51k €
400-550 €
Île-de-France, France

Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.

CDI

Offre d'emploi
Chef de Projet DATA H/F

CONSORT GROUP
Publiée le

42k-55k €
Île-de-France, France

Mission Descriptif du poste : Vous avez une forte appétence en management des équipes et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de Chef de Projet Data. Votre mission principale consiste à gérer, superviser et contribuer sur tous les aspects des projets data de nos clients, en veillant à ce qu'ils soient livrés dans les délais et respecter les objectifs fixés. Vous serez responsable de la planification, de la coordination et de la mise en œuvre de projets data ; Vous analyserez la performance de votre équipe via plusieurs indicateurs afin de respecter les objectifs fixés ; Vous recommandez des axes d'améliorations en vous appuyant sur la pertinence de vos analyses et votre force de proposition; Vous acculturez les utilisateurs et les clients internes aux outils; Vous accompagnerez les équipes techniques dans l'optimisation des rendus.

Freelance

Mission freelance
DATA SCIENTISTE LLM / RAG

PARTECK INGENIERIE
Publiée le
Docker
Python

12 mois
400-550 €
Paris, France

Le Bénéficiaire souhaite une prestation de Datascientist dans l´objectif d'accompagner dans la prise en main des outils, les accompagnements dans le développement des premiers modèles, leur accompagnements pour apporter une expertise AI si nécessaire. Mais aussi dans la participation active sur la mise en place d'une stratégie des Smart Agent Les missions sont: - Participation à la définition de la stratégie sur les smart agent - Développement de modèle - Revue de code - Partage de connaissances techniques/fonctionnelles et participation actives dans la communauté AI Datascientist - Maitrise du cycle de vie des tests - Mise à jour documentaire (technique et/ou fonctionnelle) - Développement et maintenance des modèles IA en central - Participation à la montée en compétence des CoE IA locaux - Participation à proposer des nouveautés, des améliorations, des recherches qui pourraient aider à nous améliorer dans nos Environnements techniques/fonctionnels souhaités - DeepLearning - NLP - Docker / Kubernetes / MLFlow / Python - Prompting LLM open source : llama, mistral sur des cas d'usages et des données metiers - Déploiement de serveur d'inference LLM : TGI / vllm - RAG : experience dans la mise en place de rag : via similarité search / graph rag - Fine-tuning : Experience en fine-tuning (loral, xlora)

CDI

Offre d'emploi
Data Engineer GCP

Tenth Revolution Group
Publiée le

45k-60k €
Île-de-France, France

Nous recrutons pour une entreprise en pleine croissance et à la pointe des technologies cloud. Cette société cherche un Data Engineer confirmé pour renforcer ses équipes et travailler sur des projets stratégiques à forte valeur ajoutée. Poste de Data Engineer Confirmé : Dans ce rôle, vous serez un acteur clé dans la conception et la mise en œuvre de solutions data robustes et innovantes en utilisant Google Cloud Platform (GCP). Vos missions : Concevoir, développer et maintenir des pipelines de données complexes sur GCP. Mettre en œuvre des solutions d'intégration et de transformation des données adaptées aux besoins métiers. Optimiser les flux de données pour garantir leur performance, leur sécurité et leur scalabilité. Collaborer avec des équipes pluridisciplinaires : data scientists, analystes et architectes. Assurer le suivi et le monitoring des environnements cloud. Proposer des améliorations continues en adoptant les meilleures pratiques de gouvernance des données. Votre profil : Expérience : 3 à 5 ans en tant que Data Engineer avec une expertise reconnue sur GCP. Compétences techniques : Maîtrise des outils GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage. Solides connaissances en Python et SQL pour le développement de pipelines ETL. Compréhension des bases de données relationnelles et non relationnelles (MySQL, MongoDB, etc.). Une expérience avec Apache Beam, Terraform ou Airflow est un atout. Soft skills : Autonomie, esprit d'analyse, capacité à travailler en équipe et goût pour l'innovation. Informations complémentaires : Localisation : Poste basé à Paris, possibilité de télétravail. Contrat : CDI. Rémunération : Attractive, selon profil et expérience. Ne manquez pas cette opportunité de rejoindre un environnement stimulant et de travailler sur des projets d'envergure dans la data !

Freelance
CDI

Offre d'emploi
Data Scientist (H/F)

IT4B Consulting
Publiée le
Data analysis
Data science
PySpark

6 mois
10k-80k €
100-1k €
Paris, France

Nous recherchons pour notre client, grand compte, un Data Scientist confirmé pour une mission longue durée Notre client figure parmi les principaux gérants d'actifs mondiaux assurant la gestion active d'actions, d'obligations et de taux, la gestion passive de fonds indiciels ainsi que la gestion d'actifs non liquides (actifs immobiliers et dettes privées). Prérequis : Data Science : Apprentissage automatique et analyse de données Pratiques MLOps Déploiement de packages Python PySpark Pratiques LLMs LLMOps Rigoureux, organisé, Proactif

Freelance

Mission freelance
Ingénieur Data Expert

Jinane Consulting
Publiée le
Apache Kafka
Java
Python

1 an
100-550 €
Maisons-Alfort, Île-de-France

Poste : Ingénieur Data Lead Expert Expérience : +10 années Localisation : Maison Alfort Démarrage : ASAP Contexte : L’objet de cette consultation est une prestation d’assistance technique pour un développeur Data lead Expert intervenant sur un périmètre du service de Gestion Assurance Export (GAE) au sein de la Direction des Services Informatiques de Bpifrance qui mène à bien les projets informatiques. La mission se déroulera au sein de l'équipe Agile en charge de la réalisation et de la maintenance des applications du SI de Bpifrance Assurance Export. Cette prestation d’assistance technique Data sera supervisée par le Product Manager et le Scrum Master de l’équipe IAE du train SAFe TransSquadExpress. La mission s’exercera au sein de l’équipe de projets dédiée mais pourra être amenée à évoluer au sein d’autres équipes du même groupe de projets ou sur des sujets complémentaires. Missions : On recherche un ingénieur Data qui soit le Lead des développeurs de l'équipe avec la volonté de tirer l'équipe vers des nouvelles pratiques et technologies (Evènementiel, APIsation, scripts Python etc). Son expertise dans ces outils doit amener à des nouvelles pratiques. Il doit être proactif et capable d'aller échanger aves ses pairs d'autres équipes Data au sein de Bpifrance et doit être curieux des nouvelles pratiques et nouveaux outils de marché. La connaissance complémentaire de Datastage serait un vrai plus. Compétences métier : • Maitrise des modélisations décisionnelles • Utilisation de l'évènementiel • Développement d’API • Pratique et expertise dans la pratique de sujets liés à la Data.

CDI

Offre d'emploi
Tech Lead Data Snowflake

Tenth Revolution Group
Publiée le

65k-75k €
Île-de-France, France

Rejoignez un acteur majeur de la logistique et du e-commerce en pleine transformation digitale ! Nous recrutons un Tech Lead Data pour accompagner un groupe leader dans son secteur, au cœur d'un ambitieux projet de modernisation de son infrastructure data. Vous contribuerez à migrer un Datawarehouse MSBI existant vers une Modern Data Platform basée sur Snowflake , tout en pilotant des initiatives stratégiques autour de la donnée. Vos missions principales : Piloter la migration du Datawarehouse actuel (MSBI) vers Snowflake. Concevoir et implémenter une plateforme data moderne pour répondre aux enjeux métiers. Mettre en place un catalogue de services étendu, incluant des solutions de Self-BI et de visualisation de données ( Power BI ). Accompagner les équipes data dans la montée en compétence sur les nouvelles technologies. Assurer la cohérence technique des solutions et garantir leur performance, sécurité et scalabilité. Être un interlocuteur clé entre les équipes techniques, les métiers et les partenaires externes. Profil recherché : Expérience significative en tant que Data Engineer ou Tech Lead Data Expertise technique sur Snowflake et les environnements de Data Platforms modernes. Maîtrise des outils de transformation et visualisation de données : Power BI , DBT, ou équivalent. Solides compétences en migration de systèmes Datawarehouse et gestion de projets techniques complexes. Bon relationnel, leadership naturel et capacité à fédérer autour de projets innovants. Pourquoi rejoindre ce projet ? Intégrer un groupe en pleine transformation, avec une vision stratégique claire sur la data. Travailler sur des projets à fort impact dans un secteur en croissance constante. Évoluer dans un environnement technique innovant et stimulant. Envoyez-nous votre CV ou un message en privé pour en savoir plus sur cette opportunité ! Candidatures confidentielles

CDI

Offre d'emploi
Data engineer H/F offre en CDI uniquement

Proxiad
Publiée le
Docker
JIRA
Kubernetes

40k-70k €
Île-de-France, France

L’objet de la présente prestation est Développement des projets dans le cadre de la BI entreprise : Tâche 1 : TERADATA - ABINITIO Faire un bilan des graphes ABINITIO sur le projet INSIDE et générer une documentation fonctionnelle pour réécriture. Tâche 2 : Développement des US Dans le cadre des sprints, réalisation des développements Tâche 3 : Intégration dans l'équipe existante Récupération des bonnes pratiques Tâche 4 : Transfert de compétences Reprendre les connaissances techniques et fonctionnelles du sachant en place

Freelance

Mission freelance
Migrateur Data

CAT-AMANIA
Publiée le
PostgreSQL

36 mois
100-500 €
Orléans, Centre-Val de Loire

Exécution des Run de migration (Échantillon et volumétrie) ; Mettre à disposition les éléments nécessaires permettant des validations statique ; Analyser, développer, livrer, les demandes des compteurs et des balances des régimes conformément aux règles d’architecture de l’écosystème du client (performance, sécurité, exploitabilité) en coordination avec d'autres équipes. Ce livrable a pour objectif de faciliter : La validation de sa migration Le pilotage et la priorisation de ses réhabilitations Gestion des incidents, alerter le responsable des difficultés rencontrées et/ou de la qualité des livrables testés. Définir les outillages nécessaires pour industrialiser les gestes. Capitaliser au fil des migrations dans une logique d’optimisation des coûts et d’une simplification / harmonisation des pratiques. Établir le reporting de son activité et rendre compte de l’avancement des tests auprès du responsable de projet. Apporter un support fonctionnel sur la partie compteur pendant les phases de bascules. Participer aux bascules des données.

CDI

Offre d'emploi
Practice Leader Data (H/F)

Tenth Revolution Group
Publiée le

90k-120k €
Île-de-France, France

Nous recherchons un Practice Leader Data pour piloter les équipes et les solutions autour des environnements Microsoft Azure/Databricks et Google Cloud (GCP) . Ce poste clé vous permettra de jouer un rôle stratégique dans le développement des offres Data et Cloud d'une entreprise qui jouant les premiers rôles sur le marché. Vos missions : Avant-vente : Collaborer avec les équipes commerciales pour concevoir des solutions data sur mesure adaptées aux besoins des clients. Leadership et stratégie : Encadrer, former et accompagner les équipes internes (100aine collaborateurs spécialisés sur Microsoft et GCP). Soutenir la montée en compétences des jeunes talents tout en pilotant des projets techniques complexes. Définir la vision et les priorités stratégiques des practices Microsoft et GCP. Participer à l'intégration stratégique de fonctionnalités IA dans les projets Data À propos de l'entreprise : Un acteur incontournable avec une offre complète autour de la Data : Expertise Cloud sur Azure , GCP , Snowflake et Databricks . Transformation des systèmes d'information (ERP, CRM, Supply Chain) et modernisation des plateformes data. Une équipe d'experts Data en France, soutenue par des partenariats stratégiques avec des leaders technologiques. Une culture geek et humaine, avec une forte dynamique d'innovation et une veille technologique active. Profil recherché : Expérience significative dans un rôle de Practice Leader , Data Architect ou similaire. Expertise technique et stratégique sur Azure , Databricks et/ou Google Cloud Platform (GCP) . Forte capacité à accompagner des équipes, définir des visions stratégiques et piloter des projets complexes. Sens du service client et appétence pour le travail collaboratif avec des équipes commerciales. Pourquoi rejoindre ce poste ? Un rôle stratégique au sein d'une organisation leader dans la Data et le Cloud. L'opportunité de piloter des solutions à forte valeur ajoutée sur des technologies de pointe. Une culture d'entreprise dynamique, humaine et tournée vers l'innovation. Candidatures confidentielles

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

990 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous