Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 224 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Ingénieur/Data Ops (H/F) remote

Mindquest
Publiée le
Big Data
PySpark
Scala

2 mois
400-550 €
Paris, France

Vous serez en charge de : Concevoir, implémentez et fournir des solutions pour les problématiques data. L’intégration et la collecte des données issues des applications tierces (CRM, réseaux sociaux, etc.) ; a conception, le développement et déploiement de nouveaux flux Spark pour les différents besoin métiers (finance, support, industrie…) La caractérisation des architectures des produits technologiques ; Choix d’architecture en anticipant les besoins de scalabilité La planification et l’orchestration des flux afin d’optimiser la mise à disposition de données. Détecter les points bloquants ou les chaînons manquants dans le cycle de traitement des données, et à proposer des solutions à soumettre à leurs collaborateurs. D’assurer la continuité de service et le monitoring des flux développés. Documentation : capitalisation des savoirs, retours d'expérience et fiches de best practices pour aider à la montée en compétencesdes équipes métier. De la veille technologique : proposer de nouvelles solutions techniques pour challenger le fonctionnement actuel et optimiser les temps de traitements tout en réduisant les coûts. Évangéliser les meilleures pratiques dans le traitement de la data. Vous travaillerez en relation avec les équipes responsables des infrastructures et des bases de données ainsi qu’avec les équipes de data analystes et de data scientistes, avec l'appui du chef de projet et en relation directe avec les équipes métiers. Environnement technique : • Spark , PySpark , Scala • HDFS, YARN, Hive, SQL Server, Airflow, Postgresql, kafka • Python, Java, Shell • API, Web services • Git Stash, Ansible, YAML • Puppet • Ansible • CI/CD • Docker / Kubernetes • Agilité / Scrum • la gestion de l’environnement, des tests unitaires, de l’automatisation et des versions ;

CDI

Offre d'emploi
Senior Data Engineer / Data Ops

Tenth Revolution Group
Publiée le

50k-65k €
Lyon, Auvergne-Rhône-Alpes

Je recrute pour l'un de mes clients finaux basé à Lyon , un acteur majeur spécialisé dans l'analyse et la compréhension des marchés immobiliers et résidentiels . Avec une approche innovante, ils accompagnent les acteurs de l'immobilier dans leurs décisions stratégiques grâce à des données fiables et des analyses pointues. 👉 Vos missions : Vous rejoindrez une équipe tech engagée et dynamique, où vous serez en charge de : Concevoir et optimiser les pipelines de données à l'aide d'Airflow et dbt Développer des solutions robustes en Python et SQL Gérer et monitorer les infrastructures de données containerisées avec Docker et Kubernetes Assurer la qualité et la disponibilité des données grâce à des outils de monitoring comme Prometheus Collaborer avec les équipes produit et métier pour répondre aux besoins data stratégiques 🔧 Stack technique : Orchestration : Airflow Transformation : dbt Langages : Python, SQL Bases de données : PostgreSQL Containerisation : Docker, Kubernetes Monitoring : Prometheus 🎯 Profil recherché : Vous avez une expérience significative (5 à 8 ans) en tant que Data Engineer et/ou DataOps Vous maîtrisez les technologies mentionnées ci-dessus Vous êtes autonome, rigoureux(se) et aimez travailler en équipe Une expérience dans un environnement agile est un plus 💼 Pourquoi rejoindre ce client ? Un client final reconnu, où la data est au cœur des décisions stratégiques Des projets variés et stimulants dans un environnement tech moderne Une entreprise à taille humaine, favorisant la collaboration et la bienveillance Un cadre de travail agréable à Lyon, au sein d'une équipe dynamique 👉 Vous êtes intéressé(e) ou souhaitez en savoir plus ? Contactez-moi directement avec votre CV !

Freelance

Mission freelance
Tech lead data - GCP

KatchMe Consulting
Publiée le
Big Data
Cloud

6 mois
400-600 €
Île-de-France, France

Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.

CDI

Offre d'emploi
Chef de projet Data (H/F)

Amiltone
Publiée le
Big Data
chef
De

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur

Au sein de l'équipe déjà existante, vous avez en charge les missions suivantes : - La gestion et le pilotage de projet - Gestion des équipes et des plannings - Reporting des activités et des tableaux de bord - Rédaction de procédures et modes opératoires - Formaliser les besoins implicites et explicites des clients - Participer au choix des différentes solutions Alors ? Prêt à devenir Amiltonien ? 🎉 N'hésitez pas à postuler si vous vous reconnaissez ! De formation supérieure BAC+5 (Master ou école d'ingénieur) spécialisé dans l'informatique, vous justifiez d'au moins 3 ans d'expérience dans un poste similaire. Vous maitrisez la gestion de projet car vous avez expérimenté la gestion de projet de bout en bout. Vous avez des connaissances techniques, notamment en BDD Oracle (SQL). Vous disposez d'une aisance relationnelle et d'une excellente communication orale et écrite. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.

CDI

Offre d'emploi
Data scientist (H/F)

Amiltone
Publiée le
Big Data
h-f
scientist

35k-40k €
Lille, Hauts-de-France

Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.

Freelance

Mission freelance
Consultant BI (H/F)

Link Consulting
Publiée le
Big Data
ETL (Extract-transform-load)

1 mois
500-550 €
Toulouse, Occitanie

Notre client, un acteur majeur du secteur industriel, recherche un Data Engineer (H/F) à Toulouse, pour accompagner la gestion et l'optimisation des flux de données au sein de son infrastructure. Vous jouerez un rôle clé dans la mise en place et le suivi des processus ETL, ainsi que dans la visualisation des données. Vos missions : * Concevoir, déployer et optimiser des flux ETL (notamment avec des outils tels que Talend) pour garantir le bon traitement et l'intégration des données. * Gérer et transformer les données en informations exploitables à l’aide d’outils de visualisation comme Power BI et éventuellement Business Objects (BO). * Collaborer avec les équipes techniques et métiers pour comprendre les besoins en données et développer des solutions adaptées. * Assurer la qualité et la fiabilité des données, en mettant en place des processus de validation et de suivi. * Contribuer à l'amélioration continue des systèmes de gestion de données et des flux ETL. Compétences techniques : * Expertise dans la gestion des flux ETL avec des outils tels que Talend ou équivalents. * Bonne maîtrise des outils de visualisation de données, en particulier Power BI (et idéalement Business Objects). * Solides compétences en gestion de bases de données et en transformation de données. * Capacité à travailler en collaboration avec des équipes techniques et métiers pour assurer la cohérence des données.

Freelance

Mission freelance
Data Cloud Architect

EMGS CONSULTING
Publiée le
Architecture
Azure
Big Data

6 mois
550-600 €
Courbevoie, Île-de-France

En tant que membre de l'équipe Data Capture, ce poste requiert une solide expertise technique et architecturale, ainsi qu'une expérience pratique significative dans les technologies Cloud, le développement de microservices et l'architecture pilotée par les événements (Event Driven Architecture). Il implique également une collaboration étroite avec les équipes informatiques du Groupe s, les partenaires métiers, les partenaires externes et tous les membres de l'équipe d'intégration. Objectifs et livrables : Concevoir et proposer des solutions autour des données en utilisant les technologies Azure Cloud dans notre cadre de travail Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie "Data as a Service" conformément aux meilleures pratiques architecturales Concevoir et développer des API/microservices pour enrichir notre cadre de solutions Soutenir la stratégie d'architecture pilotée par les événements basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l'enrichissement en libre-service Participer à la modernisation et à la sensibilisation technologique au sein de l'équipe Data Capture et dans l'organisation Data & Analytics Être le référent au sein de l'équipe sur tous les sujets liés au cloud Animer des ateliers et faciliter la collecte des exigences Accompagner les Data Engineers sur les sujets liés au cloud Soutenir l'équipe Sécurité sur les sujets associés Contribuer à la feuille de route et à l'évolution de Data Capture Challenger et accompagner les fournisseurs externes

Freelance

Mission freelance
Architecte DataOps/Systems/GPU (H/F)

NAVIGACOM
Publiée le
Automatisation
Cloud
Data science

6 mois
400-800 €
Montreuil, Île-de-France

Pour un client du secteur bancaire, nous recherchons un Architecte DataOps/Systems/GPU expérimenté pour rejoindre l'équipe DataOps/DataLab au sein de la division AI & Innovation. Vous serez chargé de concevoir, implémenter, et superviser les plateformes de Data Science et AI, tout en renforçant les pratiques DevSecOps et GitOps. En tant qu’ Architecte DataOps/Systems/GPU , vos principales responsabilités incluent : Renfort des Équipes Systèmes et GPU Grid : Participer à la conception, à l'implémentation et au support des produits de Data Science/AI (exploration, MLOps, inférence, GPU Grid). Amélioration Continue : Contribuer à l'amélioration continue des produits et services de l'équipe, en intégrant les meilleures pratiques et innovations du marché. Gestion du Cycle de Vie des Produits : Automatiser et industrialiser les solutions de Data Science en suivant des approches "Cloud Native" basées sur Kubernetes. Supervision des Plateformes : Assurer la maintenance, la supervision et la fiabilisation des 15+ plateformes de Data Science (production et hors production). Garantir la robustesse et la performance des infrastructures en environnement Cloud et on-premise.

CDI
Freelance

Offre d'emploi
Cloud data engineer / Data analyst

WINSIDE Technology
Publiée le
AWS Cloud

3 mois
43k-50k €
350-450 €
Croix, Hauts-de-France

Profil : BI Engineer / Analytics Engineer Expérience : Confirmé (Ce qui devrait correspondre à un minimum de 2 ans d'expérience. Plus junior possible si forte autonomie). Obligatoire : Data Visualization (Dashboarding), Transformation de données (SQL) Obligatoire : Pratique de la data dans un environnement Cloud Obligatoire : Analytics engineering (modélisation de données) Souhaitable : Analyse sur base de données provenant d'un ERP (idéalement SAP). Domaine fonctionnel souhaitable : Industrie / Corporate La Stack : Minimum & Obligatoire : Cloud (AWS, GCP ou Azur), SQL - avancé, DBT - basic, Power BI - basic Souhaitable : GCP Posture : Rigoureux et pragmatique. A l'aise dans la communication avec le métier en direct. Autonome techniquement et fonctionnellement Modalité : Date de début : 5 février (possible avant / au plus tard 19 février) Durée de la mission : jusque fin Q2 (+ Potentielle extension sur Q3) Présence : Présentiel (Possibilité 1j / semaine en TT maximum)

Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
Big Data
Consultant

24 mois
275-550 €
Nanterre, Île-de-France

Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)

CDI

Offre d'emploi
Data Engineer - Retail H/F

VIVERIS
Publiée le

40k-50k €
Lille, Hauts-de-France

Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans le cadre de nos priorités stratégiques DATA, nous cherchons un DATA Engineer expérimenté. Vos missions et responsabilités : Vous rejoignez l'équipe Supply Chain en charge des échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Actuellement l'équipe est composée de 3 ingénieurs Data, 1 Product Owner, 1 Scrum Master, 2 Business Analyst et 1 Tech Lead. Nous recherchons un ingénieur Data pour renforcer l'équipe pour assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Vos missions : - Traitement d'activités de support / maintenance corrective ; - Analyse et cadrage technique des différents besoins ou problématiques remontées par les Bus ; - Réalisation et maintien de la documentation technique du produit (Spécification technique, dossier d'architecture, etc...) ; - Réalisation des développements du produit (Modules GCP, Terraform, Python, BigQuery) ; - Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops)) ; - Appliquer les normes de qualités définies pour le groupe Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la Data.

Freelance

Mission freelance
Data Manager

Mon Consultant Indépendant
Publiée le
Data management

6 mois
400-500 €
Luxembourg

Nous recherchons pour un de nos clients au Luxembourg un Data Manager. Profil recherché : Besoin de renforcer l’équipe Data Management sur les sujets suivants : Participer au déploiement de l’outil de catalogue de données (DataGalaxy) Alimenter et maintenir le catalogue de données Identifier les data stewards et data owners des uses-cases documentés Accompagner et fournir un support aux data stewards dans la documentation Gestion du changement Promouvoir le catalogue de données en interne Contribuer à la définition de la gouvernance des données non structurées Travailler en étroite collaboration avec les équipes CISO, DPO et informatique Définir les règles de gouvernance de données et priorités associées Analyser l’impact fonctionnelle et techniques des règles de gouvernance Mettre en place un suivi et audit des règles de gouvernance Identifier les nouveaux processus liés à ces règles de gouvernance Définir les rôles et responsabilités autour de ces règles et outils utilisés Formation / Evangélisation / Communication auprès des équipes métiers Gestion du changement

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data
ingenieur

24 mois
250-500 €
Paris, Île-de-France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
Data Manager & gouvernance des données (EBX ou Colibra)

WINSIDE Technology
Publiée le
Data management
Microsoft Power BI

3 ans
400-600 €
Paris, France

Mise en œuvre et gestion du cadre de gouvernance des données au sein du département financier (> 500 personnes), en se concentrant sur les éléments de données critiques (CDE), la qualité des données, la coordination des Data Stewards et l'animation des organes de gouvernance (DataBoard et Data Forum). Livrables demandés :Documentation du cadre de gouvernance des données Mise en œuvre des indicateurs de qualité des données (IQD) Animation et reporting mensuels du Data Forum Mises à jour trimestrielles du DataBoard Exécution et documentation des contrôles internes Fourniture de supports et sessions de formation

CDI
Freelance

Offre d'emploi
Data Engineer H/F

Proxiad
Publiée le
Azure
Java
Kubernetes

3 ans
40k-70k €
400-550 €
Île-de-France, France

A ce titre, le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Data Engineering sur le Datalake Azure. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : -Définition de l'architecture en ré-utilisant au maximum l'existant -L'assistance et le support aux différentes applications pour envoyer leur données dans Azure et mise en place d'un Framework de monitoring et de contrôle de la qualité de la donnée centralisé. -Proposition d'architecture des données métier en prenant en compte les enjeux de performance et de ségrégation des données à moyen et long terme. -Implémentation en Java des Data set et transformations nécessaires pour rendre les données dans Azure exploitables par les différents Utilisateurs et/ou Bénéficiaires Data Scientists (coté métier). -L'assistance aux différents Utilisateurs et/ou Bénéficiaires Data Scientists sur l'utilisation des outils Azure. - La conduite du changement et mise en place des process nécessaires à la maintenance de l'application dans Azure

Freelance

Mission freelance
Freelance Data Governance Practitioner

MGT Conseil
Publiée le
Big Data

6 mois
350-500 €
Bruxelles, Bruxelles-Capitale, Belgique

Nous recherchons un consultant expérimenté en gouvernance des données pour accompagner notre client dans la conception et la mise en œuvre d’une stratégie complète de gouvernance des données pour les Technologies Connectées. Cette mission vise à garantir la conformité aux réglementations en matière de protection des données et à intégrer les principes de protection des données dans le cycle de développement. Rôles et Responsabilités Concevoir une stratégie et une feuille de route pour la gouvernance des données des voitures connectées avec une approche centrée sur le client. Mettre en place un programme de conformité pour les Technologies Connectées, en garantissant le respect des réglementations (RGPD, protection des données, droit de la concurrence, anonymisation/minimisation des données). Réaliser des analyses d’impact sur la vie privée pour de nouveaux produits, fonctionnalités et services afin de réduire les risques liés à la confidentialité. Collaborer avec les équipes de développement produit pour intégrer les principes de "privacy by design". Être un interlocuteur clé pour les projets liés à la confidentialité, en comprenant les exigences techniques et fonctionnelles. Fournir des conseils sur la collecte, le traitement et le partage des données aux parties prenantes internes. Surveiller les évolutions des lois, réglementations et normes sectorielles en matière de protection des données pour maintenir la conformité. Collaborer avec les conseillers juridiques et les consultants externes sur des problématiques complexes de confidentialité. Définir et animer des formations sur l’utilisation des données des véhicules au sein de l’organisation, y compris pour les filiales et les distributeurs. Compétences requises Expertise confirmée en gouvernance des données et en réglementation sur la protection des données (RGPD, conformité, anonymisation des données). Expérience avérée dans la réalisation d’analyses d’impact sur la vie privée et l’intégration des principes de "privacy by design". Capacité à collaborer avec des parties prenantes techniques et fonctionnelles. Bonne maîtrise des évolutions des lois et des normes sectorielles en matière de confidentialité. Excellentes compétences en communication et en animation de formations. Maîtrise de l’anglais (indispensable). Détails Date de début : Dès que possible Durée : 6 mois (renouvelable) Lieu : Télétravail intégral, avec un déplacement par mois à Bruxelles. Taux journalier : 520 €/jour

224 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous