Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Votre recherche renvoie 1 009 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
DATA ENGINEER (H/F)

Come Together
Publiée le
Big Data

3 mois
420-450 €
Lille, Hauts-de-France

Notre client recherche un(e) Data Engineer Missions : Conception de produits data Mise en place de la CI/CD dans les processus de développement Être garant du cycle de delivery, de la qualité des livrables et l’encadrement & animation des équipes en environnement Agile / DevOps Créer des dataset avec des KPI pour mettre à disposition d'un dashboard front Faire le run des produits data créés dans les périmètres connaissance client, commerce animation et performance. Il faut impérativement connaître Terradata et Python

Freelance

Mission freelance
Data Engineer - Grenoble

STHREE SAS pour HUXLEY
Publiée le
Microsoft Power BI
SQL
Talend

1 an
300-350 €
Grenoble, Auvergne-Rhône-Alpes

Les missions seront : - Une grosse activité de run : supporter les utilisateurs, prise en charge des incidents et des demandes d’évolution BI - Designer les modèles de données du DataWareHouse et des Datasets métier - Proposer des solutions techniques qui seront validées par les experts IT dans le respect des guidelines de l’entreprise et des best practices - Développer et tester en SQL, Talend, PowerBI - Être capable de comprendre des scripts ASP, PowerShell, Python - Mettre en oeuvre l’intégration continue et le déploiement continu (Git) - Mettre à jour la documentation (spécification, exploitation) L’environnement technique est Oracle Database/ Postgres, Talend, Power BI, il y a encore des réalisations en BO (BODI/BOXI/BI4). Des experts techniques internes ou externes (architectes, spécialistes de solutions techniques) pourront accompagner cette personne.

Freelance

Mission freelance
Directeur Data IT

Archytas Conseil
Publiée le
Azure DevOps Services
Docker
Kubernetes

12 mois
200-650 €
Bordeaux, Nouvelle-Aquitaine

Nous recherchons un Directeur Data IT expérimenté pour piloter la transformation numérique d'un de nos clients sur les sujets liés à la data et à l’ IA . Ce rôle stratégique s’inscrit dans une vision globale visant à positionner le client comme un leader en innovation technologique et en exploitation avancée des données. Rattaché au CTO, vous serez chargé(e) de conduire une direction pluridisciplinaire, d’élaborer une vision stratégique et de garantir la performance des plateformes data et IA pour l’ensemble des entités du groupe. Stratégie et Gouvernance Data/IA : Définir la stratégie des plateformes data et IA en adéquation avec les ambitions du groupe, Promouvoir la culture data et IA, y compris l’intelligence artificielle générative (IA Gen), auprès des collaborateurs et des parties prenantes. Représenter le client lors d’évènements internes et externes sur les thématiques data et IA. Gestion opérationnelle : Garantir la disponibilité et l’accessibilité des plateformes data et IA pour toutes les entités du groupe. Organiser des évènements internes pour renforcer l’adoption des solutions data et IA. Superviser une équipe de 45 collaborateurs répartis en 5 pôles : MLOps, ingénieurs data, architectes data, data managers, et ingénieurs machine learning. Conduire la transformation des équipes en mode produit. Gérer les relations avec les principaux éditeurs (Snowflake, Microsoft) et négocier les contrats. Recrutement et développement des talents : Piloter les recrutements et accompagner l’évolution des collaborateurs. Instaurer une dynamique de performance et de montée en compétences. Pilotage budgétaire et gestion de crise : Assurer la gestion des budgets alloués. Mettre en place des plans d’action en cas de crises ou de dysfonctionnements. Collaboration transversale : Collaborer étroitement avec les directions produits B2C, B2B, Advertising et Data Science pour anticiper les besoins et concevoir les roadmaps des plateformes data et IA. Participer aux comités internes (Comité DSI, comité IA Gen, Copil B2B) et représenter les sujets data. Garantir l’excellence opérationnelle des plateformes data et IA. Fédérer les équipes autour de la transformation numérique en mode produit. Déployer une stratégie d’adoption de l’IA générative adaptée aux besoins du groupe. Optimiser les collaborations avec les éditeurs et partenaires stratégiques.

CDI

Offre d'emploi
Tech lead data

BLOOMAYS
Publiée le
Machine Learning
Python
SQL

65k-70k €
Saint-Ouen, Hauts-de-France

Contexte : développement de la nouvelle plateforme data. Leader les développements : guider et encadrer une équipe Data Analytics (data factory / modeling / viz) - Capacité à définir et porter une vision technique de la data sur toute la chaîne de valeur - Concevoir l'architecture applicative et technique des solutions data en colla- boration avec le Data Architecte - Garant des bonnes pratiques et de leur application - Garant de la qualité techniques des livrables de l'équipe - Leader les bonnes pratiques de la data gouvernance : être le référent technique de la data gouvernance pour assurer ses piliers (sécurité, ownership, qualité, etc) - Démocratiser l'usage de la donnée et accélérer la mise en place du Self- - Service sur l'ensembles des layers techniques (data pipeline, Data Lab et Data Viz) - Porter la veille technologique : collecte, raffine et partage les actualités autour de la data

Freelance

Mission freelance
Engineer OPS DATA (H/F)

Wekey
Publiée le
Chatbot
CI/CD
Python

6 mois
600-650 €
Niort, Nouvelle-Aquitaine

Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Engineer OPS DATA H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : · Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure AI · Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science · Apporter un support fonctionnel et technique aux directions métiers · concevoir et développer des pipelines CI/CD Data et Machine Learning, mise en œuvre dans le cycle de vie des produits data science · concevoir et développer de pipelines CI/CD de création de ressources Azure, de web applications et d'environnements de travail à destination des data scientists

Freelance

Mission freelance
Data Scientist – Data Analyst (Présence sur site Obligatoire 3j/s) Nantes (44)

AKERWISE
Publiée le
Azure
DAX
Microsoft Power BI

1 an
100-450 €
Nantes, Pays de la Loire

✅ Nous vous serions reconnaissants de bien vouloir nous adresser un bref message expliquant les raisons de votre candidature et votre intérêt pour cette mission. ✅ Par ailleurs, nous vous remercions de nous confirmer que vous avez bien pris en compte le lieu de la mission ainsi que l’obligation de présence sur site trois jours par semaine. 🔴 La mission ne peut pas se faire en full Remote (Présence sur site hebdo obligatoire - Condition non négociable) Identifier et modéliser les problématiques métier ainsi que celles du pôle concerné. Définir précisément le périmètre des données requises pour élaborer une solution technique adaptée. Concevoir et développer des modèles de machine learning performants. Transformer les résultats des analyses de données en modèles clairs, exploitables et orientés vers l’action. Le cas échéant, concevoir des visualisations pertinentes pour répondre à des besoins cartographiques spécifiques. Évaluer la charge de travail nécessaire pour les différents traitements et actions techniques planifiés. Optimiser la structure des données des projets menés par l’équipe. Développer des scripts Python performants et optimisés. Mettre en place les tables ou vues indispensables aux projets data de l’équipe. Collaborer avec les équipes opérationnelles de la Team Data pour industrialiser les processus de collecte, traitement, supervision et restitution des données.

Freelance

Mission freelance
Data Engineer h/f

HAYS France
Publiée le
Apache
AWS Cloud
Java

6 mois
400-650 €
La Défense, Île-de-France

Notre client, recherche un consultant en freelance pour une mission de longue durée, dans le secteur Banque et assurances. Nous recherchons un expert en services professionnels Apache Flink. En tant qu'expert Apache Flink, il/elle sera responsable du développement et de la maintenance des applications Flink, de l'optimisation des performances et de la résolution des problèmes qui pourraient survenir. Il/elle doit avoir une compréhension approfondie du traitement de flux et du traitement par lots utilisant Apache Flink. De solides compétences en programmation en Java ou Scala sont requises. Une expérience avec d'autres technologies de big data telles que Hadoop et Spark est un plus. Livrables : Développement et déploiement d'applications Flink • Compléter un ensemble d'applications Flink entièrement fonctionnelles pour le traitement par lots et le traitement de flux, intégrées aux sources de données requises. Optimisation des performances • Fournir des pipelines Flink optimisés, ajustés pour la performance et l'efficacité des ressources, avec des benchmarks et des rapports sur les améliorations apportées. Configuration du cluster Flink • Déployer et configurer un cluster Flink prêt pour la production, en s'assurant qu'il est optimisé pour l'évolutivité et la tolérance aux pannes. Configuration de la surveillance et des alertes • Mettre en place un système de surveillance (par exemple, Prometheus, Grafana) pour suivre les performances des applications et configurer des alertes pour les problèmes critiques. Résolution des problèmes • Fournir un rapport sur tous les problèmes liés à Flink identifiés et résolus, y compris les goulets d'étranglement de performance et les échecs de tâches. Documentation • Remettre une documentation détaillée couvrant l'architecture des applications, l'optimisation des performances, les procédures de dépannage et les meilleures pratiques opérationnelles. Transfert final de connaissances • Conduire une session finale de transfert de connaissances avec l'équipe interne, en s'assurant qu'elle est pleinement capable de maintenir et d'étendre la configuration Flink livrée.

CDI

Offre d'emploi
Analyse DATA (H/F)

CELAD
Publiée le
Data analysis
ETL (Extract-transform-load)
ODI Oracle Data Integrator

40k-43k €
Dijon, Bourgogne-Franche-Comté

📑 CDI (max 43K€) - 🏠 1 jour de télétravail / semaine après 3 mois de mission - 📍 Dijon - 🛠 Expérience de 2 ans minimum (hors stages / alternance) Prêt.e à donner du sens aux données ? Chez CELAD, chaque projet est une aventure, et celle-ci pourrait être la vôtre ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Analyste DATA pour intervenir chez un de nos clients. 💻💼 🎯 Votre rôle au quotidien : Dans une équipe soudée, votre rôle sera clé pour concevoir des solutions de données innovantes et fiables. Vous contribuerez activement à : - Créer et optimiser des pipelines de données en environnement ELT (Semarchy, ODI, Talend) - Transformer et enrichir les données pour qu'elles soient directement exploitables par les équipes métiers (actuaires, data scientists) - Documenter vos travaux pour assurer un suivi clair et durable ⚙️ Le contexte qui vous attend : - Qualité avant tout : notre équipe veille à la fiabilité et à la cohérence des données utilisées dans le système décisionnel assurance - Contrôle et conformité : vous participerez à la mise en place de contrôles de données, qu’ils soient réglementaires ou internes, pour sécuriser les activités des équipes du groupe

Freelance
CDI

Offre d'emploi
Data Analyst Expérimenté

Deodis
Publiée le
Microsoft Power BI
Microstrategy
SQL

3 ans
40k-50k €
400-450 €
Montpellier, Occitanie

Vous intégrerez le Chapitre Data qui intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Montpellier mais aussi ceux des autres sites France. Missions : Activités data digital (tracking et data analyse associée) : Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage Réaliser les spécifications et recettes du tracking Collecter et extraire les données nécessaires à l’analyse Construire des tableaux de bord Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. Présenter le rendu aux squads métiers Il serait apprécié d’ajouter une vision marketing lors de la définition du tracking et de faire le lien avec les problématiques métiers. Evolutions des activités en temps 2 – activités BI Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses. Il pourrait aussi être demandé, selon l'évolution de la mission, à l’intervenant/e externe d'intervenir sur la : Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées

Freelance

Mission freelance
data engineer python / spark MLOPS senior

Gentis Recruitment SAS
Publiée le
Apache Spark
Machine Learning
MySQL

3 ans
400-600 €
Paris, France

Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus.

Freelance

Mission freelance
Ingénieur de production – MCO DATA -N3

KEONI CONSULTING
Publiée le
DevOps
ITIL
Jenkins

12 mois
100-350 €
Paris, France

CONTEXTE : Objectif global : Participer à la mise en condition opérationnelle du périmètre de la production Data Métiers MISSIONS : Le candidat idéal aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur Google Cloud Platform (GCP) avec des bases solides en DevOps. Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l'industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital. Kéoni Consulting aide les entreprises à: Faire la différence Innover et créer Réinventer votre business Satisfaire les clients Gagner en avantages compétitifs Devenir le leader de leur secteur Devenir le leader de votre secteur Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation)

Freelance

Mission freelance
Data OPS

STHREE SAS pour HUXLEY
Publiée le

12 job_posting.null
Asnières-en-Poitou, Nouvelle-Aquitaine

Identifier dès la phase d'idéation, avec les concepteurs et les développeurs, les éléments permettant l'exploitabilité, la performance et la supervision sur tout le cycle de vie des produits Accompagner la squad sur les dimensions performance, robustesse, sécurité et fiabilité tout au long du cycle de vie des produits SI Contribuer à la mise à disposition des environnements Automatiser et industrialiser dans un logique Devops pour servir le déploiement continu Contribuer à l'amélioration continue du produit

Freelance
CDI

Offre d'emploi
DATA ENGINEER SPARK/SCALA

UCASE CONSULTING
Publiée le
Apache Airflow
Apache Spark
Jenkins

6 mois
40k-45k €
400-550 €
Paris, France

Conception et développement de pipelines de données : Concevoir et développer des pipelines de données robustes et évolutifs utilisant Apache Spark et d’autres outils Big Data. Intégrer et transformer des données en temps réel ou en batch à partir de sources variées (bases de données, APIs, fichiers plats, etc.). Implémenter des solutions de traitement de données massives, principalement avec Spark (Scala et Python). Optimisation et maintenance : Assurer l'optimisation des performances des pipelines de données (gestion des ressources Spark, optimisation des requêtes, réduction des latences, etc.). Maintenir et améliorer la fiabilité des processus de traitement de données et des infrastructures associées. Automatisation des processus : Mettre en place et gérer des workflows d’automatisation des tâches avec Apache Airflow . Automatiser le déploiement et l'exécution des pipelines de données à l'aide de Jenkins . Collaboration avec les équipes de data science et d’infrastructure : Collaborer avec les data scientists pour comprendre les besoins en données et optimiser leur accès. Travailler étroitement avec les équipes d’infrastructure pour assurer la stabilité et la scalabilité des pipelines de données. Veille technologique : Se tenir informé des évolutions des technologies Big Data et des bonnes pratiques pour intégrer de nouvelles fonctionnalités dans les pipelines. Langages de programmation : Scala et Python : Expérience confirmée dans la programmation de pipelines de données en Scala (pour Spark) et en Python. Technologies Big Data : Apache Spark : Maîtrise de Spark pour le traitement de données massives, avec une compréhension approfondie de ses API en Scala et Python. Apache Airflow : Expérience avec la gestion et l'orchestration de workflows de données dans un environnement de production. Outils de CI/CD : Jenkins : Expérience avec Jenkins pour l’automatisation des déploiements et des tests des pipelines de données. Bases de données et gestion des données : Connaissances solides des bases de données relationnelles (SQL, PostgreSQL, etc.) et NoSQL (Cassandra, MongoDB, etc.).

CDI

Offre d'emploi
Data Engineer (H/F)

Harry Hope
Publiée le

35k-45k €
Vandœuvre-lès-Nancy, France

Directement intégré à la DSI, et sous la responsabilité du responsable Data, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données. Vous vous assurez que les données soient facilement accessibles, de haute qualité et bien organisées pour répondre aux besoins des équipes d'analyse et des data scientist. Vous serez amené à : - Construire et maintenir des pipelines ETL (Extract, Transform, Load) - Intégrer des données issues de plusieurs sources (BDD, API, fichiers, etc.) - Configurer et gérer les bases de données relationnelles et NoSQL - Mettre en place des processus pour garantir la qualité, la cohérence et l'intégrité des données - Automatiser les processus de nettoyage et de transformation des données - Travailler en étroite collaboration avec les Data Scientist et Analyst - Surveiller les flux de données - Maintenir et documenter les flux et l'infrastructure des données

Freelance

Mission freelance
PRODUCT OWNER DATA

PARTECK INGENIERIE
Publiée le
Data management

24 mois
100-610 €
Paris, France

Profil recherché : Product Owner orienté technique / data Issu.e d'une formation bac+5 avec une expérience et/ou connaissance prononcée dans le domaine de la data, vous serez rattaché.e au hierarchiquement au responsable du domaine. Vous serez amené.e à vous approprier les différents processus d'ingestion et de traitement automatisé des données entrantes s. En tant que Product Owner, vous serez le garant de la vision produit en étroite collaboration avec le Tech Lead et le Product manager de l'équipe pour définir les nouvelles évolutions ou corrections à apporter dans un contexte SAFe. Vos principales missions s'articuleront autour des axes suivants : - mise en place d'ateliers collaboratifs avec le métier pour définir les nouvelles règles à appliquer - rédaction des user stories et Features - validation (test) des user stories et Tests E2E - préparation des sprints planning - Cadrage de besoins métiers en collaboration avec le PM et métiers - restitution du travail effectué par l'équipe à chaque sprint (via la sprint review) - etc Un background technique et/ou data est primordial pour ce poste.

CDI
Freelance

Offre d'emploi
Data Engineer GCP

INGENIANCE
Publiée le
Github
Python
SQL

1 an
45k-60k €
500-550 €
Île-de-France, France

Le data Engineer, rattaché(e) à l'équipe Lead Ingénieur Analytic sera chargé de concevoir, Développer, et optimiser données de données et des solutions analytiques. Il(elle) travaillera en collaboration avec les parties prenantes, implémentera les bonnes pratiques, tirera parti des technologies afin de produire des données de hautes qualités, et piloter les domaines de productions data. Son expertise en data engineering, analyse, et problem solving supportera le pilotage data et les prises de décisions. Taches & missions : Concevoir et mettre en œuvre des pipelines de données évolutifs et des architectures de données Mettre en œuvre des processus d'intégration et de transformation des données Collaborer avec les parties prenantes pour comprendre les exigences et les priorités de l'entreprise Garantir les meilleures pratiques en matière d'ingénierie des données et d'analyse Construire et maintenir des entrepôts de données et des marts de données Développer et optimiser des modèles analytiques à l'aide de la modélisation des entrepôts de données (data marts) Assurer la qualité, l'intégrité et la gouvernance des données dans l'ensemble des systèmes par le biais de domaines de données. Automatiser les processus de données et les flux de travail pour gagner en efficacité Contrôler et optimiser les performances des systèmes et l'utilisation des ressources Évaluer et intégrer de nouvelles technologies et de nouveaux outils Dépanner et résoudre les problèmes et incidents liés aux données Contribuer à la documentation et aux initiatives de partage des connaissances Participer aux revues de code et aux sessions de programmation par les pairs Les compétences nécessaires : ETL /ELT Data Modeling Modélisation sémantique SQL (BigQuery, Postgres…) Data Transformation API Cloud platforms (ex: AWS, GCP) Sens des affaires Data Analyse Python Statistiques Big Data Contrôle des versions CI/CD DevOps BI

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1009 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous