Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Lyon

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 46 résultats.
CDI

Développeur DBT / Data Analyst Engineer H/F

VIVERIS

Contexte de la mission : Dans le cadre de sa stratégie de valorisation de la donnée, un acteur majeur du secteur des télécommunications renforce son équipe Data sur un projet clé de transformation et de modélisation analytique. Vous intégrerez une équipe dynamique et pluridisciplinaire pour concevoir, maintenir et optimiser les modèles de données dans un entrepôt cloud structuré autour des bonnes pratiques modernes de data engineering. L'objectif de la mission est de garantir la fiabilité, la performance et la maintenabilité des pipelines de transformation, en lien étroit avec les équipes Data Engineering, BI et Produit. Responsabilités : Concevoir, développer et documenter des modèles de transformation SQL à l'aide de DBT (Data Build Tool), en respectant les standards de qualité et de performance attendus; Collaborer avec les équipes Data Engineering, BI et Produit pour comprendre les besoins métiers et proposer des modèles pertinents; Mettre en place des tests de données automatisés (tests DBT, assertions) pour garantir l'intégrité des données; Contribuer à l'automatisation des workflows de transformation via des outils d'orchestration tels qu'Airflow, dbt Cloud ou GitHub Actions.

Démarrage
Salaire 35k-45k €⁄an
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
CDI

Data Scientist/IA (H/F)

Amiltone

Le poste Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : - Collecter et préparer des données - Nettoyer, transformer et structurer les données pour les rendre exploitables - Gérer la qualité des données - Construire des modèles prédictifs et des algorythmes de machine learning - Veiller à l'amélioration continue des performances des modèles - Suivre les avancées en data science, machine learning et intelligence artificielle Stack technique: -Machine Learning -Python -SQL -Pandas / Numpy -Flask -Tableau/ Power BI

Démarrage Dès que possible
Salaire 35k-40k €⁄an
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Un Data Engineer DBT ayant un anglais courant sur Lyon

Smarteo

Smarteo recherche pour l'un de ses clients, Un Data Engineer DBT ayant un anglais courant sur Lyon Profil recherché : Data Engineer Tâches à effectuer : Création de pipeline de données pour alimentation d'un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word Smarteo recherche pour l'un de ses clients, Un Data Engineer DBT ayant un anglais courant sur Lyon Profil recherché : Data Engineer Tâches à effectuer : Création de pipeline de données pour alimentation d'un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word

Démarrage Dès que possible
Durée 6 mois
TJM 100-400 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Engineer Snowflake Lyon Anglais courant/sal

WorldWide People

Data Engineer Snowflake Lyon Anglais courant Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Lieu de mission : Lyon TT possible ? Non T0 : Asap Durée : 6 mois minimum Data Engineer Snowflake Lyon Anglais courant Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake

Démarrage Dès que possible
Durée 6 mois
TJM 380-440 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance
CDI

Data Scientist – Développement Deep Learning (F/H)

CELAD

Data Scientist – Développement Deep Learning (F/H) A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (38-40K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 3 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Scientist – Développement Deep Learning pour intervenir chez un de nos clients. 💻💼 Le cœur de votre mission : vous rejoignez une équipe Agile (Scrum) spécialisée Deep Learning, intégrée aux plateaux produits, où vous intervenez en tant que développeur sur la partie Data Science. Concrètement, votre job consiste à 🎯 : - Développer des modèles d’analyse d’images à partir d’architectures Deep Learning (type PyTorch, MMDetection, etc.) - Traiter et structurer la donnée pour alimenter vos algos (OpenCV, Pandas, NumPy sont vos copains) - Automatiser et industrialiser vos modèles dans une logique MLOps (MLflow, DVC, TensorBoard, Optuna…) - Collaborer étroitement avec les équipes produit, dans une ambiance où partage rime avec rigueur 🚀 Pourquoi ce poste va vous plaire ? Parce que : - Vous codez vraiment et vous touchez à toutes les briques : traitement, modélisation, industrialisation. - Vous êtes entouré.e de profils techniques pointus avec qui on peut échanger en profondeur, sans bullshit. - Vous travaillez sur des sujets visuels concrets (image processing), avec un vrai impact terrain. L’environnement est structuré, mais souple : DevOps et Azure DevOps vous facilitent la vie, sans micro-management.

Démarrage Dès que possible
Durée 1 an
Salaire 38k-40k €⁄an
TJM 350 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Développeur Data Spark (H/F)

Insitoo Freelances

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Data Spark (H/F) à Lyon, France. Contexte : Analyser et cartographier, avec les experts métiers et l'équipe de développement, le pipeline de données actuel : les modèles de données des différentes base de données utilisées; les flux de données qui existent entre les différentes sources de données (lignage des données); les règles de validation, de filtrage de calcul actuellement en place lors des transferts de données Assister les architectes dans la définition du nouveau pipeline de données en s'appuyant sur les service cloud Appuyer l'équipe de développement dans la réalisation de la nouvelle solution : Mise en place en place de la solution et des bonnes pratiques associées ; Culture du data engineering ; Expertise sur l'outillage data mise en place (ETL, base de données, Spark, Glue) Les missions attendues par le Développeur Data Spark (H/F) : Expertise dans l'outillage de stockage des données (base de données, fichiers) et le traitement des données (ETL, Spark) Expertise Spark, quelque soit le langage de prédilection (Java, Scala, Python) Maitrise des bonnes pratiques de développements et de la mise en oeuvre des outils liées à la data Maîtrise des technologies du Big Data, des problématiques liées à la volumétrie et aux performance Maîtrise des outils de gestion de code (Git) et de déploiement projet (Terraform) Une séniorité globale supérieure à 10 ans est attendue sur ce poste Plusieurs expertise significatives dans l'analyse de données et la mise en place de pipelines qu'ils soient de type batch/ETL ou événementiel/streaming

Démarrage Dès que possible
Durée 2 ans
TJM 500-800 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data engineer (expert DBT) - Lyon - ASAP & Freelance only

Montreal Associates

📌 𝗠𝗶𝘀𝘀𝗶𝗼𝗻 𝗙𝗿𝗲𝗲𝗹𝗮𝗻𝗰𝗲 – 𝗗𝗮𝘁𝗮 𝗘𝗻𝗴𝗶𝗻𝗲𝗲𝗿 (𝗘𝘅𝗽𝗲𝗿𝘁 𝘀𝘂𝗿 𝗗𝗕𝗧) - 𝗟𝘆𝗼𝗻 - 𝗣𝗮𝘀 𝗱𝗲 𝗦𝗧𝗧 📌 📅 𝗗𝗲́𝗺𝗮𝗿𝗿𝗮𝗴𝗲 𝗔𝗦𝗔𝗣 - 𝟲 𝗺𝗼𝗶𝘀 𝗿𝗲𝗻𝗼𝘂𝘃𝗲𝗹𝗮𝗯𝗹𝗲𝘀 - 𝗣𝗿𝗼𝗷𝗲𝘁 𝗹𝗼𝗻𝗴 𝘁𝗲𝗿𝗺𝗲. ❗ 𝗣𝗮𝘀 𝗱𝗲 𝗦𝗧𝗧 💰 𝗧𝗝𝗠 : 𝗘𝗻𝘁𝗿𝗲 𝟰𝟬𝟬 𝗲𝘁 𝟰𝟳𝟬€ 𝗛𝗧, 𝘀𝗲𝗹𝗼𝗻 𝗽𝗿𝗼𝗳𝗶𝗹. 🎯 𝗖𝗼𝗻𝘁𝗲𝘅𝘁𝗲 𝗱𝗲 𝗹𝗮 𝗺𝗶𝘀𝘀𝗶𝗼𝗻 Nous recherchons un Data Engineer expérimenté sur DBT pour intervenir sur un projet de mise en place de pipelines de données dans un environnement Data Mesh. Vous rejoindrez une équipe data engagée sur un projet structurant pour un client pur Tech. 🧩 𝗩𝗼𝘀 𝗺𝗶𝘀𝘀𝗶𝗼𝗻𝘀 𝗽𝗿𝗶𝗻𝗰𝗶𝗽𝗮𝗹𝗲𝘀 Conception et développement de pipelines de données robustes et scalables Contribution à l’alimentation d’une architecture Data Mesh Collaboration étroite avec les équipes data & métiers Participation à la définition des bonnes pratiques et à la documentation technique On en parle ? N'hésitez pas à candidater ! #DataEngineer #DBT #DataMesh #Snowflake #ETL

Démarrage Dès que possible
Durée 6 mois
TJM 400-470 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Engineer Big Data (H/F)

Insitoo Freelances

Contexte : 3 jours sur site en périphérie lyonnaise + 2 jours télétravail Les missions attendues par le Data Engineer Big Data (H/F) : Notre domaine fournit les services IT pour l’activité Professional Coffee Machine (PCM) : Digital Platform PCM, un datalake Azure dédié et des reportings pour nos clients et équipes internes (hors scope de la recherche) Back-office process (ERP et Field Service Management) : des reportings corporate et locaux sous SAP BW, Analysis for Office ou encore Qlik Sense DATA ENGINEER CONFIRME Dans le cadre de la Digital Platform PCM, nous recherchons un·e Data Engineer confirmé·e qui aura pour missions de prendre en charge des tâches de développement sur des projets de build pour fournir les data pipelines du Datalake et d’intervenir sur le maintien en condition opérationnelle du Datalake. Les développements réalisés permettent aux développeurs Qlik Sense et Azure Dashboard de construire les reports adéquates pour nos clients. Une expérience requise dans ce type d’environnement de 3 ans minimum est pré-requise. Contexte de la mission La mission s’opère en 3 jours sur site et 2 jours en télétravail. Le site est situé à Ecully dont 2 jours au campus et 1 journée au 4M. La mission est un remplacement temporaire d'un membre de l'équipe actuellement composée de 2 Data Engineer et pour une durée de 6 mois minimum. Démarrage souhaitée fin avril/début mai pour une date de fin prévisionnelle fin novembre 2025.

Démarrage Dès que possible
Durée 2 ans
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Project Manager / PMO

Phaidon London- Glocomms

Notre client partenaire recherche un Chef de Projet Data / PMO expérimenté pour une mission freelance de longue durée. Une expérience de travail avec Snowflake et Data Warehousing est requise pour ce poste. Rôle : Chef de projet Data / Product Owner Lieu: Lyon Durée: 12 mois - extensions après 2025 Travail Hybride: 2j teletravaile par semaine Date de début : ASAP Principales responsabilités : Gestion de projet : Planification, suivi et contrôle des phases du projet, y compris la définition des objectifs, des produits à livrer et des délais. Coordination des parties prenantes : Assurer l'interface entre les différentes équipes et les utilisateurs finaux afin de garantir une communication fluide et une collaboration efficace. Gestion des risques : Identifier, évaluer et atténuer les risques liés au projet en mettant en œuvre des plans d'action correctifs. Gouvernance et rapports : Préparer des rapports réguliers sur l'avancement du projet, les performances et tout écart par rapport aux objectifs. Documentation : Organiser la production et la maintenance de la documentation du projet, y compris les spécifications techniques, les plans de test, etc.

Démarrage Dès que possible
Durée 12 mois
TJM 500-650 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance
CDI

Architecte Databricks / Data Engineer – (Lyon)

VISIAN

Dans le cadre du renforcement de la plateforme DARWIN , dédiée à la gestion des énergies renouvelables, nous recherchons un Architecte Databricks . Cette mission de longue durée, basée à Lyon , s’inscrit dans un contexte 100% Azure et agile. Missions Être le référent Databricks en collaboration avec l’architecte et le responsable technique. Assurer la cohérence de la stack CI/CD (Azure DevOps) et des processus GIT . Garantir la qualité des développements Databricks avec SonarQ . Participer à la construction du patrimoine Terraform Databricks . Développer en Python, C#, Vue.JS, .NET Core 3.1, .NET 6, Node.JS, SQL . Déployer sur les environnements de test et production . Interagir avec les équipes Data et Wonderware .

Démarrage Dès que possible
Durée 1 an
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Architect Databricks / Azure / Power BI

Groupe Aptenia

Dans le cadre d’un programme de transformation data , une entreprise recherche un Data Architect senior pour piloter la migration complète de sa plateforme décisionnelle vers une stack moderne basée sur Azure, Databricks et Power BI . Le poste consiste à définir la trajectoire de migration , encadrer les choix technologiques, et coordonner les différents chantiers, de l’architecture à l’implémentation, en lien direct avec les équipes métiers et techniques. Le ou la consultant·e interviendra sur l’ensemble de la chaîne décisionnelle et jouera un rôle clé dans la structuration des outils de pilotage de l’entreprise .

Démarrage Dès que possible
Durée 1 an
TJM 220-700 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
CDI

Data Steward F/H

VISIAN

Enjeux du poste Vous travaillerez en étroite collaboration avec les équipes métiers (data owners et experts métiers) afin de comprendre leurs besoins, co-construire une feuille de route stratégique, et mettre sous contrôle un domaine de données spécifique. Votre objectif : maîtriser les données de ce périmètre métier et de son écosystème applicatif, tout en garantissant la qualité des données au sein de ce domaine. Vos missions Catalogage des données : • Cartographier les données du domaine avec les data owners et documenter les définitions et flux de données • Travailler avec les équipes IT pour assurer le lignage des données (avec les champs techniques) • Maintenir à jour le catalogue de données dans le temps Suivi de la qualité des données et mise en place des correctifs : • Construire des outils de reporting pour le suivi quotidien de la qualité des données • Identifier, analyser et catégoriser les causes des anomalies • Coordonner les actions correctives avec les équipes métier et IT (ponctuelles ou structurelles) • Structurer et améliorer les processus de suivi et de résolution des anomalies • Piloter le plan d’action de remédiation en s’appuyant sur les plateformes IT Contribution aux projets IT : • Accompagner les projets dans la mise en place de standards data • Porter les expressions de besoins liées à la data pour faire évoluer le SI

Démarrage Dès que possible
Salaire 30k-40k €⁄an
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
CDI

Engineer spécialisé en IA & Data

EYON

Missions: Concevoir et déployer des architectures cloud adaptées aux solutions d’IA et de Data Assurer la scalabilité, la performance et la sécurité des plateformes cloud dédiées à l’IA et aux Big Data. Implémenter des pipelines de données sur le cloud (ETL, ingestion en temps réel, stockage scalable). Optimiser les coûts et la gestion des ressources cloud. Automatiser le déploiement et la gestion des infrastructures. Expertise sur des platformes cloud reconnu (AWS, Google Cloud Platforme, Azure potentiellement).

Démarrage Dès que possible
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data engineer (H/F)

Insitoo Freelances

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Date engineer (H/F) à Lyon, France. Contexte : Analyser des solutions EAM proposées par les éditeurs et évaluer leur impact sur les données Les missions attendues par le Data engineer (H/F) : Analyse des solutions éditeurs Conception des stratégies de migration Réaliser des mappings complexes Exploiter les services managés AWS Mise en oeuvre d'un POC Automatisation du déploiement et des contrôles Mise en place du reporting et tableaux de bords Compétences attendues : Expertise AWS confirmée (DMS, Glue, SCT) Expertise ETL Expérience AWS Pilotage par reporting

Démarrage Dès que possible
Durée 2 ans
TJM 100-600 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
CDI
Freelance

Data Scientist (H/F)

Soors

🔍 Contexte et Objectifs Le client renforce son équipe Data pour développer des modèles IA avancés et exploiter les capacités des plateformes Mistral, Lama, Gemini. Vous travaillerez sur des cas d’usage concrets avec une forte dimension POC/MVP et transfert de connaissances. 🛠️ Stack technique Langages : Python, SQL Modèles IA : Mistral, Lama, Gemini Infrastructure : Kubernetes, Docker, Ansible, Helm Cloud : GCP, AWS Outils de visualisation : Kibana 🎯 Missions principales Concevoir et développer des modèles IA avancés Déployer et optimiser les modèles en production (MLOps, CI/CD) Participer aux études de faisabilité et aux choix technologiques Collaborer avec les équipes métiers pour identifier et structurer les besoins Assurer le transfert de compétences et documenter les développements

Démarrage Dès que possible
Durée 2 mois
Lieu Lyon, Auvergne-Rhône-Alpes
CDI

Business Analyst / Project Manager - Data & IA

EYON

Présentation du profil: Ce profil hybride combine les compétences d’un Business Analyst (BA) et celles d’un Project Manager (PM), avec une orientation forte sur le design de solutions Data et Intelligence Artificielle (IA). Fort d’une expérience solide en tant que BA autonome, il maîtrise déjà les aspects liés à l’analyse des besoins, la modélisation de solutions et la gestion des parties prenantes. Il souhaite évoluer vers un rôle de chef de projet, avec une bonne compréhension des planning, coûts et communication.

Démarrage Dès que possible
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous