Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 47 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance

Product Owner on Cloud Azure : Monitoring, Observabilité & Data - 92 - English mandatory

Montreal Associates

📢 𝐏𝐫𝐨𝐝𝐮𝐜𝐭 𝐎𝐰𝐧𝐞𝐫 𝐨𝐧 𝐂𝐥𝐨𝐮𝐝 𝐀𝐳𝐮𝐫𝐞 – 𝐌𝐨𝐧𝐢𝐭𝐨𝐫𝐢𝐧𝐠, 𝐎𝐛𝐬𝐞𝐫𝐯𝐚𝐛𝐢𝐥𝐢𝐭𝐞́ & 𝐃𝐚𝐭𝐚 📍 𝟗𝟐 – 𝐏𝐫𝐞́𝐬𝐞𝐧𝐭𝐢𝐞𝐥 𝐡𝐲𝐛𝐫𝐢𝐝𝐞 🗓 𝐀𝐒𝐀𝐏 🎙️ 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐟𝐥𝐮𝐢𝐝𝐞 𝐨𝐛𝐥𝐢𝐠𝐚𝐭𝐨𝐢𝐫𝐞 ✒️ 𝐅𝐫𝐞𝐞𝐥𝐚𝐧𝐜𝐞 𝐨𝐧𝐥𝐲 - 𝐏𝐚𝐬 𝐝𝐞 𝐒𝐓𝐓 🎯 𝐕𝐨𝐭𝐫𝐞 𝐦𝐢𝐬𝐬𝐢𝐨𝐧 Dans un environnement cloud et data-driven, vous piloterez la roadmap produit d'une équipe dédiée à l'Observabilité et à la Data, en assurant la bonne traduction des besoins métier en solutions techniques performantes. 🔍 𝐕𝐨𝐬 𝐨𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 ✅ Recueillir, formaliser et prioriser les besoins métiers et techniques ✅ Définir et maintenir le backlog produit ✅ Assurer la qualité et la pertinence des solutions livrées ✅ Collaborer avec les équipes de développement et animer les cérémonies Agile/Scrum ✅ Suivre et analyser les KPIs de performance pour l’amélioration continue ✅ Assurer une veille technologique sur les outils de monitoring et data 🛠 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 Cloud & Conteneurs = > Azure Kubernetes Service (AKS), Azure Functions Stockage & Bases de données => Azure Blob Storage, ADLS Gen2, PostgreSQL, ElasticSearch, Delta Lake Streaming & Messagerie => Event Hub, RabbitMQ Data Engineering & Logging => Apache Airflow, Apache Spark, Logstash, Azure Log Analytics Visualisation => Grafana CI/CD & Collaboration => GitHub #ProductOwner #Data #Monitoring #Observabilité #Cloud #Azure

Démarrage Dès que possible
Durée 7 mois
TJM 500-650 €⁄j
Télétravail Télétravail partiel
Lieu Nanterre, Île-de-France
Freelance
CDI

Développeur Big Data - entre 5 et 9 ans

Digistrat consulting

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad Financing & Risk qui aujourd'hui développe et gère un datalake (RiskLake). 🤝 Expertises indispensables Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer du RiskLake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets

Démarrage Dès que possible
Durée 3 ans
Salaire 38k-50k €⁄an
TJM 400-420 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDD

Data Engineer H/F

SMARTPOINT

• Développer et maintenir des architectures Data évolutives et scalables . • Mettre en place et optimiser les flux de données (ETL, ELT) • Participer à l’industrialisation des traitements de données . • Implémenter les bonnes pratiques DevOps & CI/CD (automatisation, tests, monitoring) • Participer aux échanges techniques et contribuer à l’amélioration continue des solutions. • Documenter et partager les bonnes pratiques avec les autres membres de l’équipe.

Démarrage Dès que possible
Durée 12 mois
Salaire 45k-50k €⁄an
TJM 450-500 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance
CDI

Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Démarrage Dès que possible
Durée 3 ans
Salaire 38k-43k €⁄an
TJM 300-400 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Tech Lead Dev (GCP/JAVA)

Groupe Aptenia

Accompagnement de l’évolution fonctionnelle du produit Pilotage technique de l’équipe de développement. Réalisation des développements applicatifs (Java, Spark, SQL, GCP). Suivi de production et participation aux activités de maintenance. Réussite de la migration des environnements vers GCP. Participation à la migration technique continue des composants applicatifs. Documentation technique et partage de la connaissance au sein de l’équipe. Garantie de la continuité de service sur l’application critique.

Démarrage Dès que possible
Durée 3 mois
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Toulouse, Occitanie
Freelance
CDI

DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

TOP TECH

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
Salaire 45k-55k €⁄an
TJM 500-700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Administrateur plateforme Big Data (Cloudera Data Platform)

Streamlink

Les rôles de la DSI sur cette plateforme nommée GAIA sont multiples : • Développer les pipelines d’ingestion de nouvelles données • Industrialiser les développements (ingestions, data preps, algorithmes) • Assurer le bon fonctionnement technique de la plateforme • Assurer le support aux utilisateurs en cas d’anomalie et de questions sur l’utilisation de la plateforme La DSI souhaite renforcer son équipe d’administrateurs BigData grâce à une prestation d’assistance. Expertises / compétences Compétences techniques nécessaires • Linux (RedHat 8), Shell scripting • Security (LDAP, Kerberos, SSL, IDM) • Cloudera, HDFS, YARN, Hive, Oozie, Spark, Knox, Zeppelin, Nifi • Centreon, Ansible • Python et Scala sur environnement distribué. • SQL • Maitrise des systèmes d'informations et logiciels (outils bureautiques courants, SharePoint, Power BI, etc.) Soft skills : • Communiquer efficacement (ex : présentation des incidents en Comité de Pilotage Big Data). La mission se fait en relation avec les utilisateurs métiers et en interaction avec l’équipe des administrateurs et des data Engineers de la plateforme. Il est donc essentiel que les communications soient les plus fluides possibles, • Aimer travailler en équipe, • Être réactif et autonome, • Dialoguer avec aisance pour coordonner les intervenants sur des domaines techniques différents, • Esprit de synthèse pour rédiger des documentations utilisateur facilement utilisables et en minimisant les erreurs sur le contenu. Activités La prestation consiste à assurer l’administration des plateformes BigData ainsi que le support aux utilisateurs tant sur les anomalies que sur les demandes de support à l’utilisation de la plateforme GAIA. En détail, l'ensemble des tâches des administrateurs sont les suivantes : Exploitation de la plateforme : • Configurer, surveiller et optimiser les systèmes de stockage et de traitement des données, tels que les clusters de serveurs et les bases de données distribuées. (Cloudera) • Effectuer les taches de MCO quotidiennes (vérification de l’état des jobs et de la plateforme) • Assurer la sécurité des données en mettant en place des mesures de protection, des politiques de contrôle d’accès et des stratégies de sauvegarde/récupération. • Assurer l’ordonnancement des chaines d’ingestion et des analytiques tournant sur les plateformes • Participer aux projets d’évolution des plateformes BigData • Gérer la performance des plateformes Big Data. • Participer à la maintenance des environnements en appliquant des mises à jour. • Automatiser les tâches récurrentes à l’aide de scripts pour optimiser la gestion des systèmes. • Produire et maintenir la documentation d’exploitation de la plateforme • Contribuer à l’amélioration continue de l’exploitabilité et de la qualité de service de la plateforme • Maintenir et améliorer les KPI de suivi du fonctionnement de la plateforme Le livrable associé est la documentation à jour des dernières modifications de paramétrage de la plateforme.

Démarrage Dès que possible
Durée 9 mois
TJM 100-470 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
CDI
Freelance
CDD

DEVELOPPEUR / DevOps - Java Spark Azure

HIGHTEAM

Dans ce cadre, la prestation consistera à contribuer à/au(x) : Planification et conception en collaboration avec les différents utilisateurs et/ou bénéficiaires (étude, design des sujets). Développement des fonctionnalités. Mise en place de tests fonctionnels basés sur la méthode BDD (Behavior Driven Development). Analyse de données pour prise de décision ou amélioration continue. Revue de code dans une démarche de qualité logicielle et de partage des bonnes pratiques. Suivi de la production et support technique aux utilisateurs. Le tout réalisé en mode Agile , selon le framework SAFe (Scaled Agile Framework).

Démarrage Dès que possible
Durée 3 ans
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance
CDI
CDD

Senior Data engineer - Cloud Azure

HIGHTEAM

Dans ce cadre , la prestation consiste à contribuer à : - L'intégration des cas d’usages Datalake dans le SI avec l'Architecture Techniques - Identifier et prévenir les risques éventuels de dérapages en terme de coûts et de délais afin de mitiger le risque identifié - Développement et Implémentations des collectes de données, des jobs de traitement et Mapping de données (Spark/Scala/SparkSQL) - Développement des moyens de restitution via génération de fichier et ou API & Dashboarding ( Java Spring Batch/Boot, rest API, Postgres) - A l'amelioration de la chaîne de livraison continue ( Jenkins, Sonar, Nexus , Kubernetes) - Mise en place de la revue de code avec l'entité - Initiatives projet sur la migration Azure Avec l'Architectures Techniques dans les choix d'implémentation au sein du SI, la prestation consistera à contribuer à/au(x) : - Préconisations en termes d'architecture big data - Mise en place des moyens techniques en conformité avec les lignes directrices fixées par les métiers, les normes et standard SG - La garantie de la qualité et de la maintenance technique du produit - Bon fonctionnement de la stratégie de test du produit - La veille technique

Démarrage Dès que possible
Durée 3 ans
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Ingénieur Cloud Data GCP

Cherry Pick

En quelques mots Cherry Pick est à la recherche d'un "Ingénieur Infra et Exploitation" pour un client dans le secteur de XXX Description 📌 Contexte de la mission Intégrée à la Direction Technique du Numérique , cette mission vise à renforcer l’équipe en charge de la plateforme Data du groupe. Cette plateforme joue un rôle central dans la stratégie data du groupe, entre exploitation de la donnée utilisateur, connaissance client et outils de pilotage. Le prestataire interviendra sur l’ensemble des cycles Build & Run de l’infrastructure Cloud, en lien étroit avec les équipes Data, Exploitation et Développement. 🎯 Responsabilités principales BUILD : Analyse des besoins d’hébergement pour les développements Data Industrialisation et automatisation des infrastructures (public et privé) Construction et planification des environnements cloud Référent technique auprès des équipes projets RUN : Supervision et exploitation quotidienne de la plateforme Suivi des alarmes, diagnostics et résolution des incidents Contribution à la documentation technique Veille technologique continue

Démarrage
Durée 12 mois
TJM 610-650 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

Data Engineer Python - pipelines d'orchestration de modèles ML

VISIAN

Contexte : Nous recherchons un(e) développeur(se) Python passionné(e) pour rejoindre une équipe spécialisée dans la création de pipelines d'orchestration de modèles ML (préparation de features, entraînement, tuning et inférence). Ces pipelines permettent aux Quants & Data Scientists d’ industrialiser l’utilisation des modèles de Machine Learning pour la prévision de la consommation et de la production d’énergie. Missions : Concevoir et développer des pipelines de données pour le cycle de vie des modèles ML. Collaborer avec les Quants et Data Scientists pour résoudre les problématiques liées aux modèles de Machine Learning. Optimiser les processus d’entraînement et de déploiement des modèles. Contribuer à l’amélioration de la plateforme dédiée au forecasting en exploitant l’IA et le Big Data.

Démarrage Dès que possible
Durée 1 an
Salaire 10k-45k €⁄an
TJM 100-550 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance
CDI
CDD

DATA ENGINEER CONFIRME

Geniem

Nous recherchons pour notre client, un grand groupe international situé dans la périphérie de Lyon, un·e Data Engineer confirmé·e qui aura pour missions de prendre en charge des tâches de développement sur des projets de build pour fournir les data pipelines du Datalake et d’intervenir sur le maintien en condition opérationnelle du Datalake. Les développements réalisés permettent aux développeurs Qlik Sense et Azure Dashboard de construire les reports adéquates pour les clients. Anglais courant indispensable.

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 400-550 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance
CDI

Tech lead Java Spark

CAT-AMANIA

Nous recherchons un(e) Tech lead Java Spark pour le compte de notre client, dans le secteur aéronautique. L'objectif du poste est de reprendre l'activité d'un Tech lead interne et : Accompagner l’évolution du produit en relation en avec le métier Piloter techniquement l’équipe Le contexte étant international, la maîtrise de l'anglais est indispensable. Projet en Agilité. Equipe totale de 15 personnes dont 3 sur le projet présenté. Des déplacements ponctuels sont prévus sur Paris. (1 à 2 / an) Le poste : 50% d'innovation 40% de migration technique 10% continuité Ratio : 70% de développement 30% hors développement (Architecture, Communication, Accompagnement d'équipe, ...)

Démarrage Dès que possible
Durée 12 mois
Salaire 40k-48k €⁄an
TJM 400-450 €⁄j
Télétravail Télétravail partiel
Lieu Toulouse, Occitanie
Freelance

Data SysOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

YGL consulting

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
TJM 700-800 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer Nantes

AUBAY

Aubay Grand Ouest recherche un Data Engineer, dans le cadre de l’accélération de l’IA chez son client grand compte du secteur bancaire. L’activité portera sur la transformation de la solution d’industrialisation de l’IA vers une nouvelle solution logicielle. Localisation : Nantes et périphérie sur site client Télétravail : 2 jours par semaine Les missions sont : 1. Cadrage Collaboration avec les équipes métiers pour comprendre leurs problématiques liées aux verbatims clients Accompagnement de la rédaction des spécifications fonctionnelles 2. Mise en place d’un dispositif d’annotation Création d’échantillons (jeux d’apprentissage, de validation et de test) Définition des règles d’annotation Création d’un formulaire sur l’outil d’annotation 3. Détection de topics et classification de verbatims Détection des topics abordés dans les verbatims et construire une catégorisation de verbatims avec l'aide du métier reposant sur les topics détectés Classification des verbatims dans chaque catégorie Intégration de l’analyse de la tonalité 4. Déploiement et suivi Optimisation des modèles pour garantir leur performance en production Développement des pipelines d’inférence robustes pour l’intégration des modèles dans les systèmes existants Collaboration avec l’équipe MLOps pour le déploiement. Suivi de la fiabilité des modèles et identifier les biais ou dérives dans le temps et procéder à leur amélioration le cas échéant. 5. Documentation et veille technologique Documentation toutes les étapes des projets pour assurer la traçabilité et la reproductibilité. Suivi de évolutions technologiques dans les domaines de l’IA Environnement technique : python, Poetry, FastApi, spark (et donc pyspark), SQL, cassandra et postgresql, Kafka, GitLab CI, Docker, Airflow, MLflow, Conda, APIs RESTful.

Démarrage Dès que possible
Lieu Nantes, Pays de la Loire
Freelance

Data Engineer confirmé (Azure)

COEXYA

Pour un client grand compte du secteur de l’électroménager qui recherche un·e Data Engineer confirmé·e pour renforcer son équipe IT Data dans le cadre d’un projet international. Projet de build et maintien opérationnel du datalake Azure. Équipe actuelle de 2 Data Engineers. Rôle attendu Développement de pipelines de données sur datalake Azure (build & run) Maintien en condition opérationnelle des flux de données Support aux équipes BI (Qlik Sense / Azure Dashboard) Participation à des projets internationaux Intégration dans une équipe agile transverse

Démarrage Dès que possible
Durée 6 mois
TJM 460-520 €⁄j
Télétravail Télétravail partiel
Lieu Écully, Auvergne-Rhône-Alpes

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous