Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 239 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer EXPERT APACHE FLINK

PARTECK INGENIERIE
Publiée le
Apache Spark
Scala

1 an
500-800 €
La Défense, Île-de-France

Nous recherchons un expert en service professionnel Apache Flink , pour Implémenter un pipeline d'ingestion de données dans Flink ! En tant qu'expert Apache Flink, vous serez responsable du développement et de la maintenance des Applications Flink, de l'optimisation des performances et du dépannage de tout problème pouvant survenir. Vous devez avoir une compréhension approfondie du traitement de flux et du traitement par lots à l’aide d’Apache Flink. De solides compétences en programmation en Java ou Scala sont requises. Une expérience avec d'autres technologies Big Data telles que Hadoop et Spark est un plus. Responsabilités : • Développer et maintenir des applications Apache Flink • Optimiser les performances et assurer l’évolutivité • Dépanner et résoudre tout problème Livrables : • Développer et Déployer des Applications Flink : Complétez un ensemble entièrement fonctionnel d'applications Flink pour le traitement par lots et par flux, intégré aux sources de données requises. • Optimisation des performances : Fournissez des pipelines Flink optimisés, optimisés pour les performances et l'efficacité des ressources, avec des tests de référence et des rapports sur les améliorations apportées. • Configuration du cluster Flink : Déployez et configurez un cluster Flink prêt pour la production, en vous assurant qu'il est optimisé pour l'évolutivité et la tolérance aux pannes. • Configuration de la surveillance et des alertes : Mettez en œuvre un système de surveillance (par exemple, Prometheus, Grafana) pour suivre les performances des applications et configurer des alertes en cas de problèmes critiques. • Résolution du problème : Fournissez un rapport sur tous les problèmes liés à Flink identifiés et résolus, y compris les goulots d'étranglement des performances et les échecs de tâches. • Documentation : Remettez une documentation détaillée couvrant l’architecture des applications, le réglage des performances, les procédures de dépannage et les meilleures pratiques opérationnelles. • Transfert de connaissances : Organisez une session finale de transfert de connaissances avec l'équipe interne, en vous assurant qu'elle est pleinement capable de maintenir et de développer la configuration Flink fournie.

Freelance
CDI

Offre d'emploi
Développeur Data / BI - Asset Management

Amontech
Publiée le
Azure Data Factory
Azure DevOps Services
BI

1 an
40k-50k €
400-550 €
Île-de-France, France

Nous recherchons un Développeur Data / BI pour rejoindre l'équipe Support Fund Management et contribuer à des projets stratégiques dans le domaine de l'Asset Management. Vous serez impliqué dans les évolutions d'une plateforme BI et la maintenance de traitements Python en lien avec les équipes métiers : gérants, Trading, Middle Office, Risque, Reporting, et Compliance. Participation au cadrage des solutions à implémenter Développement des User Stories (US) Suivi de la recette, mise en production et maintenance Rédaction de documentation Amélioration continue des modèles de développement Veille au respect des standards techniques Très bonne connaissance des outils BI de Microsoft SQL Server 2012/2016 (SSIS, SSRS, SSAS) Expertise sur les bases de données relationnelles et SQL Très bonne maîtrise de la plateforme Azure BI Data Factory Compétences confirmées en Python et librairie Pandas Connaissance en Azure DevOps

Freelance
CDI

Offre d'emploi
ENGINEER JAVA / DATA H/F

Proxiad
Publiée le
Apache Kafka
Java
Kubernetes

3 ans
10k-77k €
100-540 €
Île-de-France, France

La prestation concerne l’entité utilisateur Data Mining, qui a en charge du développement d'outils de data mining pour la ligne métier Fixed Income. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Data Engineering. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : 1. Gestion de l’intégration des données dans le DataLake Azure Analyse des données et croisement de ces dernières Analyses des restitutions responsives et mise en avant de la valeur ajoutée des données 2. Support de la solution et ses composants Environnement technique /Expertises : 1. - Java - Spark - Kubernetes - MS Azure - Kafka - Microsoft PowerBI - Cosmos DB - PosgreSQL

CDI
CDD
Freelance

Offre d'emploi
Architecte Azure Data

THE PORTERS
Publiée le
Azure
Azure Data Factory
Azure DevOps Server

12 mois
34k-80k €
300-700 €
Toulouse, Occitanie

Dans le cadre d’un projet agile, nous recherchons un Architecte Azure expérimenté dans la data pour accompagner notre client dans la conception et la mise en œuvre de solutions cloud sécurisées et conformes aux meilleures pratiques. Ce rôle nécessite une expertise approfondie de l’écosystème Azure, notamment sur les contraintes spécifiques des landing zones. Définir et améliorer les standards et les patterns d'architecture. Rédiger la documentation technique : ARD, HLD, LLD, guides d’exploitation et de bonnes pratiques. Collaborer étroitement avec les équipes agiles et les parties prenantes grâce à un excellent relationnel. Ecosystème Azure Data : Azure Synapse Analytics Azure Data Lake Storage Gen2 (ADLS Gen2) Azure Data Factory Azure SQL Power BI Landing Zone Azure : Expertise avérée dans leur conception et gestion. Services réseaux dans Azure : Configuration et optimisation. Infrastructure as Code : Terraform. Outils DevOps : Azure DevOps. Certification Azure : Un atout significatif.

Freelance

Mission freelance
Ingénieur Data

ALLEGIS GROUP
Publiée le
Big Data
PySpark
Scala

3 mois
150-650 €
Île-de-France, France

TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).

Freelance

Mission freelance
Data Manager

FREEZY
Publiée le
Data analysis
Data management
Data mining

3 mois
500-700 €
Nord, France

Nous recherchons pour notre client, un Data Manager dans le cadre d'un projet Salesforce, en Freelance ou Portage salarial Mission : Maîtrise de l’architecture et des composants de modélisation Salesforce S’approprier les notions de référentiels de données relatives aux business du groupe Comprendre les dépendances relationnelles entre les différents objets et processus métiers Traduire un besoin fonctionnel en spécification détaillées digitales Expérience sur des projets d’intégration de données, participer aux workshop intégration avec le digital (ERP <> CRM) Notion de gouvernance et compliance Alimenter le département Data Gouvernance avec catalogue de données, data owners, assurer le lien avec les projets Notions de compliance RGPD, data retention Conseiller l’équipe sur la conception technique des modèles de données, grâce à sa compréhension des données et de l’impact sur les activités data (intégration de données, reporting, analyse de données)

CDI

Offre d'emploi
Data engineer

CAT-AMANIA
Publiée le
Hadoop

Paris, France

prestation qui devra contribuer à des sujets tranversaux couvrant les activités aussi bien pre-closing/origination(front) que post-closing/financements structurés(back), sur les programmes Datalake, Interlagos ainsi que sur Pegasus, programme de refonte du modèle opérationnel de GLBA (orginate to distribute). Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. La prestation devra avoir une expertise des différents aspects techniques de son socle (Azure, Scality, Spark, Hive, Postgre) et de l'architecture technique préconisée au sein de GBTO. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre , la prestation consiste à contribuer à : - L'intégration des cas d’usages Datalake dans le SI avec l'Architecture Techniques - Identifier et prévenir les risques éventuels de dérapages en terme de coûts et de délais et proposer le cas échéant des moyens pragmatiques et cohérentes afin de mitiger le risque identifié. - Développement et Implémentations des collectes de données, des jobs de traitement et Mapping de données (Spark/Scala/SparkSQL) - Développement des moyens de restitution via génération de fichier et ou API & Dashboarding ( Java Spring Batch/Boot, rest API, Postgres) - A l'amelioration de la chaîne de livraison continue ( Jenkins, Sonar, Nexus , Kubernetes) - Mise en place de la revue de code avec l'entité Avec l'Architectures Techniques dans les choix d'implémentation au sein du SI - Contribuer aux préconisations en termes d'architecture big data - Mise en place des moyens techniques en conformité avec les lignes directrices fixées par les métiers, les normes et standard SG - Garantir de la qualité et de la maintenance technique du produit - S'assurer que la stratégie de test du produit est bien respectée - Contribution à la veille technique du périmètre et à sa diffusion

Freelance

Mission freelance
Data Engineer Spark/Scala F/H

SMARTPOINT
Publiée le
Apache Spark
AWS Cloud
Azure

12 mois
400-500 €
Île-de-France, France

Nous recherchons un(e) Data Engineer spécialisé(e) en Spark et Scala pour rejoindre notre équipe Data. Vous contribuerez à la conception, au développement, et à l’optimisation des pipelines de données à grande échelle, ainsi qu’à l’implémentation des meilleures pratiques de gestion et de traitement des données. Concevoir, développer et maintenir des pipelines de données scalables et robustes en utilisant Spark et Scala. Intégrer et transformer des données provenant de différentes sources (bases de données, fichiers, APIs, etc.). Assurer la qualité, la performance et la sécurité des flux de données. Participer à l’optimisation des performances des traitements Big Data. Collaborer avec les équipes Data Science, BI et Développement pour répondre aux besoins des projets. Implémenter les meilleures pratiques en matière de gestion des données et d’architecture. Surveiller et résoudre les incidents liés aux flux de données en production. Compétences techniques : Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée). Solides compétences en conception et optimisation de flux ETL. Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL. Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP). Connaissance des écosystèmes Hadoop et des frameworks Big Data.

Freelance

Mission freelance
PMO/Chef de projet MDM-référentiels produits

KatchMe Consulting
Publiée le
Data management
Master Data Management (MDM)

12 mois
400-700 €
Paris, France

Dans le cadre du développement de projets data complexes, notre client recherche un PMO Senior Data en freelance, capable de faire le lien entre les besoins métiers et la delivery des projets. Le PMO senior interviendra sur une plateforme de données comprenant des systèmes comme SAP, Salesforce, Informatica, et des référentiels clients, et devra assurer la bonne coordination entre les différentes équipes projet tout en respectant les contraintes métier. En tant que PMO Senior Data , vos responsabilités seront les suivantes : Médiation et Coordination : Servir d'intermédiaire entre les différentes parties prenantes, en particulier les équipes métier et les équipes techniques (data engineering, analytics, etc.). Suivi des projets Data : Assurer la bonne gestion des projets data, de la planification à la livraison, en garantissant le respect des délais, des coûts et des objectifs. Gestion des référentiels : Apporter une expertise sur les référentiels clients et autres données essentielles (MDM - Master Data Management), et superviser la gouvernance des données. Communication avec les parties prenantes : Garantir une communication fluide avec les responsables métiers pour comprendre leurs besoins et les traduire en exigences techniques claires. Pilotage de la delivery : Suivre les indicateurs clés de performance (KPIs) des projets data, en identifiant rapidement les risques et en proposant des solutions pour les résoudre. Mise en place des bonnes pratiques : Mettre en place des processus et des méthodologies adaptées à la gestion de projets data complexes, tout en renforçant la gouvernance des données.

CDI

Offre d'emploi
Data Analyst Senior F/H

XELIANS
Publiée le
Analyse
Data management
Data mining

65k-75k €
Villeneuve-la-Garenne, Île-de-France

Envie de participer à un projet ambitieux ? Envie d’allier la technique au relationnel ? Pilotage, coordination et gestion sont tes maîtres mots ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer notre DSI afin de définir la gouvernance et les politiques d’utilisation de la donnée au sein du Groupe, et de fournir des informations pertinentes et exploitables pour les métiers afin de les aider à prendre des décisions éclairées et d'optimiser leurs processus. Ton quotidien sera rythmé par : L’identification des besoins en données de l'entreprise et leurs objectifs d'analyse La participation aux ateliers d’expression des besoins internes La compréhension des problématiques métiers et leur traduction de manière analytique La définition et la garantie de la gouvernance des données de l’entreprise La rédaction des spécifications d’automatisation des règles de gestion des données La maîtrise de la qualité des données tout au long de leur traitement La mise en place et maintien du catalogue de données La collecte des données à partir des différentes sources Le nettoyage et la préparation des données L’analyse des données La création des tableaux de bord, des graphiques et des visualisations L’élaboration de rapports et des recommandations

Freelance
CDI

Offre d'emploi
Data Engineer

OPSKY
Publiée le
Apache Kafka
Apache Spark
Hadoop

12 mois
10k-50k €
100-540 €
Nantes, Pays de la Loire

Nous recherchons un Data Engineer expérimenté (+4 ans) pour rejoindre une mission stratégique d’un an au sein d’une grande organisation bancaire. 📍 Lieu : Nantes, avec 3 jours de présence sur site par semaine. 📅 Dates : Début le janvier 2025, fin le décembre 2025. Concevoir et développer des architectures techniques robustes. Tester, déployer et garantir la stabilité des solutions en production. Accompagner l’équipe dans une logique d’amélioration continue (qualité du code). Contribuer aux pratiques et outils de Machine Learning. Techniques : Spark (streaming et batch), Kafka, Java. PySpark/Python (pandas, NumPy, scikit-learn, matplotlib). Stack Hadoop Cloudera : HDFS, Hive, HBase, Phoenix. DevOps : GIT, Jenkins, ELK, Grafana, SonarQube. Voici une proposition d’offre adaptée pour une plateforme qui ne permet pas de liens directs : [Data Engineer - Mission Freelance à Nantes - Janvier à Décembre 2025] Nous recherchons un Data Engineer expérimenté (4 à 7 ans) pour rejoindre une mission stratégique d’un an au sein d’une grande organisation bancaire. 📍 Lieu : Nantes, avec 3 jours de présence sur site par semaine. 📅 Dates : Début le 06 janvier 2025, fin le 31 décembre 2025. Disponibilité : 5 jours par semaine, possibilité d’interventions le samedi. Vous intégrez la Squad DATA ESG, une équipe agile (Scrum) de 8 personnes, dédiée aux projets de finance durable et aux enjeux réglementaires et commerciaux. En tant que Data Engineer, vous serez impliqué dans : 90% Data Engineering : développement sur la stack Cloudera, manipulation des données via la plateforme ZEBRA (Big Data). 10% Data Science : contribution à la création de modèles Machine Learning pour des données ESG et énergétiques. Concevoir et développer des architectures techniques robustes. Tester, déployer et garantir la stabilité des solutions en production. Accompagner l’équipe dans une logique d’amélioration continue (qualité du code). Contribuer aux pratiques et outils de Machine Learning.

CDI
Freelance

Offre d'emploi
Ingénieur DevOps - Exploitation (H/F)

CITECH
Publiée le
Apache Tomcat
AWS Cloud
DevOps

3 ans
40k-60k €
300-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

🙌🔽 Les tâches à effectuer seront donc les suivantes : 🔽🙌 🔸 Assurer le bon fonctionnement, la disponibilité et la continuité des services, l’administration et l’exploitation des applications du domaine Clients, (dans le respect des engagements de résultats, de délais et de coûts), ainsi que la communication sur incident et opérations planifiées ; 🔸 Contribuer à la mise en œuvre, l’animation et la gestion de processus opérationnels d’Applications (ITIL) tels que la gestion des incidents, la gestion des problèmes, la gestion de configuration, la gestion des changements et la gestion de mise en production ; 🔸 Assurer la Vérification d’Aptitude au Bon Fonctionnement Opérationnel (VABFO) des applications du domaine sur les environnements de pré-production, dans le respect des engagements de services attendus ; 🔸 Réaliser les mises en production ; 🔸 Rendre compte auprès du manager opérationnel 🔸 Contribuer à la création, la modification ou la suppression de services applicatifs en production, en facilitant la transition de l’état projet à l’état opérationnel, dans le respect des exigences métiers ; 🔸 Contribuer à la mise à disposition, de manière industrielle et dans un contexte devops, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs du domaine Client 🔸 Contribuer en continu à l’amélioration du fonctionnement des applicatifs et services associés

Freelance
CDI

Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote

skiils
Publiée le
Apache Kafka
Apache Spark
Scala

1 an
12k-200k €
100-320 €
Île-de-France, France

skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)

Freelance

Mission freelance
Expert Azure Cloud H/F

Management Square
Publiée le
Azure
Azure Data Factory

2 ans
520-600 €
Île-de-France, France

En tant qu'Expert Azure Cloud, vous serez responsable de la conception, de l'implémentation et de la gestion des solutions cloud sur Microsoft Azure. Vous jouerez un rôle clé dans l'optimisation et la sécurisation de l'infrastructure cloud. Principales responsabilités Concevoir et déployer des architectures cloud sécurisées et évolutives sur Microsoft Azure Gérer et optimiser les services Azure existants pour garantir la performance, la fiabilité et l'efficacité des coûts Développer et mettre en œuvre des procédures de monitoring, backup et sécurisation des objets Azure Assurer la sécurité et la conformité des environnements cloud Azure Collaborer avec les équipes Architecture et Développement pour intégrer les meilleures pratiques DevOps et CI/CD Fournir un support technique et former les équipes internes sur les solutions Azure Planifier et exécuter les migrations d'infrastructures et d'applications vers Azure Assurer une veille technologique sur les dernières innovations Azure

Offre premium
Freelance

Mission freelance
MCO / deploiement d'applications digitale

SKILLWISE
Publiée le
Apache Tomcat
AWS Cloud
Control-M

18 mois
250-750 €
Paris, France

La mission se concentre autour de 2 grands périmètres : le Maintien en Conditions Opérationnelles des applications sur le domaine digital (compte clients, frontaux) l'homologation en pre-production et la mise en production des applications La mission se réalisera dans un contexte "devops". - Assurer le bon fonctionnement, la disponibilité et la continuité des services, l’administration et l’exploitation des applications du domaine Clients, (dans le respect des engagements de résultats, de délais et de coûts), ainsi que la communication sur incident et opérations planifiées ; - Contribuer à la mise en œuvre, l’animation et la gestion de processus opérationnels d’Applications (ITIL) tels que la gestion des incidents, la gestion des problèmes, la gestion de configuration, la gestion des changements et la gestion de mise en production ; - Assurer la Vérification d’Aptitude au Bon Fonctionnement Opérationnel (VABFO) des applications du domaine sur les environnements de pré-production, dans le respect des engagements de services attendus ; - Réaliser les mises en production ; - Rendre compte auprès du manager opérationnel - Contribuer à la création, la modification ou la suppression de services applicatifs en production, en facilitant la transition de l’état projet à l’état opérationnel, dans le respect des exigences métiers ; - Contribuer à la mise à disposition, de manière industrielle et dans un contexte devops, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs du domaine Client - Contribuer en continu à l’amélioration du fonctionnement des applicatifs et services associés

Freelance

Mission freelance
Consultant Produit / Intégrateur LLM

STHREE SAS pour HUXLEY
Publiée le
Apache Spark
Hadoop
Java

1 an
200-300 €
Nantes, Pays de la Loire

Description du Poste: Le consultant produit / intégrateur aura pour mission de participer à la mise en place d'un socle LLM (Large Language Model) permettant de mettre à disposition les LLM identifiés tout en garantissant l'homogénéité de leur usage. Définition de l'Architecture: Définir l'architecture à mettre en œuvre pour les LLM. Développer les composants permettant de qualifier, exposer et instancier les modèles tout en assurant leur supervision. Développement de l'Offre Big Data: Participer au développement de l'offre socle Big Data basée sur Cloudera. Support et Assistance: Assister les développeurs fonctionnels dans la conception des solutions bancaires en utilisant les outils développés par la squad. Aider à la résolution d'incidents et au suivi de production. Prendre en charge des tickets de développement ou de support. Être force de proposition pour des améliorations des produits gérés, en respectant les normes de l'architecture du SI. Intégration Équipe: S'intégrer à l'équipe existante et collaborer efficacement avec les membres de l'équipe.

239 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous