Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 71 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Expert Databricks - Développement Python

ABALSIA CONSULTING
Publiée le
Databricks
PySpark
Python

1 an
400-600 €
Île-de-France, France

Conception de solutions azure, optimisation de l'efficacité et de la qualité de la gestion des données en mettant en œuvre des processus automatisés, des normes de sécurité et une collaboration interfonctionnelle pour faciliter l'analyse et la prise de décision Conception et création des chaînes ci/cd pour databricks et data factory Développement des pipelines data ETL, ETL (Azure Data Factory, Databricks) Création des pipelines d’ingestion avec rivery Développement d’une solution Spark SQL pour extraire, copier et anonymiser les données dans un autre environnement Mise en place des solutions de monitoring et d’alerting Développement d’une solution finops sur databricks Participation a l’upgrade de Databricks, metastore vers unity catalog.

Freelance

Mission freelance
Developer Trading

JCW Search Ltd
Publiée le
Kubernetes
Python
Scala

6 mois
400-600 €
Île-de-France, France

JCW est à la recherche d'un Developer Trading qui pourrait commencer une nouvelle mission pour 2025, pour l’un de ces clients. LE CONSULTANT: Connaissance des cinématiques de prise et transmission d’ordres Equities en intermédiation Connaissance des produits dérivés sera un avantage Connaissance de l'environnement de trading en temps-réel Connaissance du trading algorithmique Equities Connaissance des process DevOps Maitrise de SQL, Python, Scala Connaissance Openshift et/ou Kubernetes Développement Cloud-based LA MISSION: Démarrage: Janvier/ Février Durée: 6 mois renouvelables Localisation: Ile-de-France Fréquence : 3 jours sur site - 2 jours de télétravail Si vous êtes intéressés ou connaissez des personnes qui pourraient l'être, merci de m'envoyer vos CVs à pour une considération immédiate.

Freelance
CDI

Offre d'emploi
Data Engineer AWS

KP2i
Publiée le
Apache Spark
API
API Platform

1 an
13k-63k €
200-700 €
Paris, France

Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants

Freelance

Mission freelance
Architecte Data (H/F)

HOXTON PARTNERS
Publiée le
Hadoop
Nosql
Python

6 mois
500-800 €
Guyancourt, Île-de-France

Dans le cadre de sa stratégie data, nous recherchons pour l'un de nos clients Architecte Data pour renforcer son équipe. Vous serez rattaché(e) au Responsable du Pôle Architecture Entreprise et jouerez un rôle clé dans la conception et la gestion de l’architecture des données. Conception d’architecture : Définir les flux de données, choisir les solutions de stockage (bases relationnelles, NoSQL, data lakes, entrepôts de données). Modélisation des données : Élaborer des modèles relationnels et dimensionnels pour une exploitation optimale. Qualité et gouvernance des données : Assurer l’intégrité, la cohérence, et la disponibilité des données. Sécurité et conformité : Mettre en place des mécanismes répondant aux normes RGPD et autres régulations. Optimisation des performances : Collaborer avec les équipes techniques pour garantir la scalabilité et l'efficacité des systèmes. Veille technologique : Intégrer les innovations pertinentes dans les solutions déployées.

Freelance
CDI

Offre d'emploi
Ingénieur(e) Data/Expert(e) Apache Flink

HIGHTEAM
Publiée le
Apache Kafka
AWS Cloud
Big Data

3 ans
10k-55k €
100-550 €
Île-de-France, France

Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique.

Freelance

Mission freelance
Data Engineer EXPERT APACHE FLINK

PARTECK INGENIERIE
Publiée le
Apache Spark
Scala

1 an
500-800 €
La Défense, Île-de-France

Nous recherchons un expert en service professionnel Apache Flink , pour Implémenter un pipeline d'ingestion de données dans Flink ! En tant qu'expert Apache Flink, vous serez responsable du développement et de la maintenance des Applications Flink, de l'optimisation des performances et du dépannage de tout problème pouvant survenir. Vous devez avoir une compréhension approfondie du traitement de flux et du traitement par lots à l’aide d’Apache Flink. De solides compétences en programmation en Java ou Scala sont requises. Une expérience avec d'autres technologies Big Data telles que Hadoop et Spark est un plus. Responsabilités : • Développer et maintenir des applications Apache Flink • Optimiser les performances et assurer l’évolutivité • Dépanner et résoudre tout problème Livrables : • Développer et Déployer des Applications Flink : Complétez un ensemble entièrement fonctionnel d'applications Flink pour le traitement par lots et par flux, intégré aux sources de données requises. • Optimisation des performances : Fournissez des pipelines Flink optimisés, optimisés pour les performances et l'efficacité des ressources, avec des tests de référence et des rapports sur les améliorations apportées. • Configuration du cluster Flink : Déployez et configurez un cluster Flink prêt pour la production, en vous assurant qu'il est optimisé pour l'évolutivité et la tolérance aux pannes. • Configuration de la surveillance et des alertes : Mettez en œuvre un système de surveillance (par exemple, Prometheus, Grafana) pour suivre les performances des applications et configurer des alertes en cas de problèmes critiques. • Résolution du problème : Fournissez un rapport sur tous les problèmes liés à Flink identifiés et résolus, y compris les goulots d'étranglement des performances et les échecs de tâches. • Documentation : Remettez une documentation détaillée couvrant l’architecture des applications, le réglage des performances, les procédures de dépannage et les meilleures pratiques opérationnelles. • Transfert de connaissances : Organisez une session finale de transfert de connaissances avec l'équipe interne, en vous assurant qu'elle est pleinement capable de maintenir et de développer la configuration Flink fournie.

Freelance
CDI

Offre d'emploi
DATA ENGINEER SPARK/SCALA

UCASE CONSULTING
Publiée le
Apache Airflow
Apache Spark
Jenkins

6 mois
40k-45k €
400-550 €
Paris, France

Conception et développement de pipelines de données : Concevoir et développer des pipelines de données robustes et évolutifs utilisant Apache Spark et d’autres outils Big Data. Intégrer et transformer des données en temps réel ou en batch à partir de sources variées (bases de données, APIs, fichiers plats, etc.). Implémenter des solutions de traitement de données massives, principalement avec Spark (Scala et Python). Optimisation et maintenance : Assurer l'optimisation des performances des pipelines de données (gestion des ressources Spark, optimisation des requêtes, réduction des latences, etc.). Maintenir et améliorer la fiabilité des processus de traitement de données et des infrastructures associées. Automatisation des processus : Mettre en place et gérer des workflows d’automatisation des tâches avec Apache Airflow . Automatiser le déploiement et l'exécution des pipelines de données à l'aide de Jenkins . Collaboration avec les équipes de data science et d’infrastructure : Collaborer avec les data scientists pour comprendre les besoins en données et optimiser leur accès. Travailler étroitement avec les équipes d’infrastructure pour assurer la stabilité et la scalabilité des pipelines de données. Veille technologique : Se tenir informé des évolutions des technologies Big Data et des bonnes pratiques pour intégrer de nouvelles fonctionnalités dans les pipelines. Langages de programmation : Scala et Python : Expérience confirmée dans la programmation de pipelines de données en Scala (pour Spark) et en Python. Technologies Big Data : Apache Spark : Maîtrise de Spark pour le traitement de données massives, avec une compréhension approfondie de ses API en Scala et Python. Apache Airflow : Expérience avec la gestion et l'orchestration de workflows de données dans un environnement de production. Outils de CI/CD : Jenkins : Expérience avec Jenkins pour l’automatisation des déploiements et des tests des pipelines de données. Bases de données et gestion des données : Connaissances solides des bases de données relationnelles (SQL, PostgreSQL, etc.) et NoSQL (Cassandra, MongoDB, etc.).

Freelance
CDI

Offre d'emploi
INGENIEUR SYSTEMES ET RESEAUX

TS-CONSULT
Publiée le
Cisco ASA
Juniper
SCADA

6 mois
10k-45k €
100-460 €
Lyon, Auvergne-Rhône-Alpes

Bonjour a tous, INGENIEUR SYSTEMES ET RESEAUX (H/F) Vous serez intégré au sein d’une équipe à dominante informatique industrielle (supervision / automatisme) en charge de la maintenance (préventive, corrective et évolutive) des systèmes d’informations de l’ensemble des tunnels routiers et voies rapides de la Métropole de Lyon. Vous remplirez les missions suivantes : - Assurer les maintenances correctives des matériels et systèmes réseaux : diagnostic des arrêts et dysfonctionnements puis intervention sur les équipements (dépannage, remise en état, réglages). - Assurer les interventions de maintenance préventive des équipements réseaux (matériel et logiciel). - Proposer, assurer et piloter les travaux de maintenance évolutive réseau : spécification, chiffrage, paramétrage et configuration de réseaux, test et recettes clients - Déploiement des correctifs/palliatifs en environnement usine, qualification et non-régression, gestion des configurations des logiciels/matériels, etc. - Optimiser et automatiser la maintenance préventive et corrective réseau : évolution du système de supervision du réseau, mise en place d’alertes de dysfonctionnement, génération rapports de performance réseau. - Participation à la virtualisation du système d’information - Assurer le Maintien en Condition de Sécurité (MCS) des systèmes : veille et recensement des failles de sécurité, analyses de risques et évaluations d’impacts, vérification de l’applicabilité des patchs ou version correctrices, déploiement des solutions, ... - Assistance technique et Support aux utilisateurs. - Analyse et instruction technique d’anomalies VOTRE PROFIL Formation : Bac + 4/5 : Ingénieur, Master informatique avec spécialisation en administration systèmes et réseaux Expérience : Vous disposez d’une première expérience significative (idéalement 5 ans ou plus) au sein d’équipes projet ou maintenance pour la conception, le développement, la mise en œuvre et/ou le maintien en condition opérationnel et d’exploitation de réseaux et système informatique. La connaissance de système de contrôle et d'acquisition de données en temps réel (SCADA) ainsi que de base de données relationnelle seraient un plus. Langues : Anglais technique obligatoire. Compétences : - Technologies : o Protocoles réseau de commutation et de routage o Filtrage firewall o Constructeurs : CISCO, STORMSHIELD, JUNIPER, MICROSENS, HIRSCHMANN, SIEMENS, SIQURA o Environnements système Windows ou Linux. o Virtualisation VMWare, VirtualBox, HyperV o Base de données relationnelle Oracle, SQL, MySQL, PostgreSQL

Freelance

Mission freelance
Data Engineer h/f

HAYS France
Publiée le
Apache
AWS Cloud
Java

6 mois
400-650 €
La Défense, Île-de-France

Notre client, recherche un consultant en freelance pour une mission de longue durée, dans le secteur Banque et assurances. Nous recherchons un expert en services professionnels Apache Flink. En tant qu'expert Apache Flink, il/elle sera responsable du développement et de la maintenance des applications Flink, de l'optimisation des performances et de la résolution des problèmes qui pourraient survenir. Il/elle doit avoir une compréhension approfondie du traitement de flux et du traitement par lots utilisant Apache Flink. De solides compétences en programmation en Java ou Scala sont requises. Une expérience avec d'autres technologies de big data telles que Hadoop et Spark est un plus. Livrables : Développement et déploiement d'applications Flink • Compléter un ensemble d'applications Flink entièrement fonctionnelles pour le traitement par lots et le traitement de flux, intégrées aux sources de données requises. Optimisation des performances • Fournir des pipelines Flink optimisés, ajustés pour la performance et l'efficacité des ressources, avec des benchmarks et des rapports sur les améliorations apportées. Configuration du cluster Flink • Déployer et configurer un cluster Flink prêt pour la production, en s'assurant qu'il est optimisé pour l'évolutivité et la tolérance aux pannes. Configuration de la surveillance et des alertes • Mettre en place un système de surveillance (par exemple, Prometheus, Grafana) pour suivre les performances des applications et configurer des alertes pour les problèmes critiques. Résolution des problèmes • Fournir un rapport sur tous les problèmes liés à Flink identifiés et résolus, y compris les goulets d'étranglement de performance et les échecs de tâches. Documentation • Remettre une documentation détaillée couvrant l'architecture des applications, l'optimisation des performances, les procédures de dépannage et les meilleures pratiques opérationnelles. Transfert final de connaissances • Conduire une session finale de transfert de connaissances avec l'équipe interne, en s'assurant qu'elle est pleinement capable de maintenir et d'étendre la configuration Flink livrée.

Freelance

Mission freelance
Développeur Data Engineer – Traitement et Calcul de Données Financières

Nexius Finance
Publiée le
Scala

3 ans
100-590 €
Île-de-France, France

Nous recherchons un Développeur Data Engineer pour contribuer au développement, à l’adaptation, et à l’amélioration des processus d’intégration, de traitement et de calcul des données dans le cadre d'une application dédiée à la valorisation et à l’ajustement de la Fair Value . Cette application repose sur une architecture distribuée basée sur Hadoop et intègre également une interface utilisateur (IHM) pour le paramétrage, la consultation des données et le monitoring. Ce système, utilisé pour traiter des volumes massifs de données financières, est essentiel pour calculer la Fair Value des instruments financiers, leur observabilité et leur matérialité. Ces calculs s'appuient sur diverses données, notamment : Les sensibilités. Les chocs de données de marché. Le risque de contrepartie. Les données concernent un large éventail d'actifs, de positions, de trades et de paramètres, couvrant plusieurs régions (Paris, New York, Asie) et consolidées à partir de multiples sources de données. Développer et optimiser les processus d’intégration et de traitement de données volumineuses sur une architecture distribuée ( Hadoop ). Implémenter les calculs complexes nécessaires pour déterminer la Fair Value , l'observabilité et la matérialité des instruments financiers. Adapter les processus existants pour répondre aux évolutions fonctionnelles ou réglementaires. Concevoir et intégrer des fonctionnalités dans l’interface utilisateur permettant le paramétrage, le monitoring et la consultation des données. Travailler sur la performance et l’ergonomie de l’IHM pour améliorer l’expérience utilisateur. Manipuler des données provenant de multiples sources : instruments financiers, trades, positions, market data, sensibilités, chocs et ajustements. Garantir l’intégrité, la fiabilité et la traçabilité des données traitées et calculées. Travailler en étroite collaboration avec les équipes métiers pour comprendre les besoins et spécifications des utilisateurs finaux. Assurer le support technique et fonctionnel pour garantir le bon fonctionnement de l’application. Participer à la rédaction de la documentation technique et fonctionnelle.

Freelance

Mission freelance
Ingénieur Data

ALLEGIS GROUP
Publiée le
Big Data
PySpark
Scala

3 mois
150-650 €
Île-de-France, France

TEksystems recherche pour l'un de ses clients grands comptes un Ingénieur Data: Contexte de la mission L’unit data office cherche à renforcer ses équipes en recrutant un Ingénieur Data Gouvernance ayant une solide expérience sur les sujets de qualité de données et de conformité de données. L’objectif est de mettre en place une stratégie robuste pour garantir l'intégrité, la qualité et la conformité des données à travers nos différents systèmes et processus métiers. Information importante : Nous cherchons un data ingénieur qui a des compétences techniques et qui a travaillé essentiellement sur des sujets data quality en particulier et data gouvernance de façon générale. Objectifs et livrables Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Définition et mise en place de processus de gestion de la qualité des données. Identification et résolution des problèmes de qualité de données à travers des analyses régulières. Développement des algorithmes de vérifications technico-fonctionnels pour qualifier la qualité des données dans la stack actuelle. 2. Conformité des données : Veille réglementaire et mise en œuvre des bonnes pratiques pour garantir la conformité des données aux normes (RGPD, normes sectorielles, etc.). Mise en place des actions de mise en conformités des données ( développement de scripts d'anonymisation, d'archivage...) Mise en place des accès users conformes aux données et aux applications 3.Gouvernance des données : Élaboration et mise en œuvre d'une stratégie de gouvernance des données (framework, rôles et responsabilités, gestion des métadonnées). Participation à l’élaboration de politiques de gestion des données (e.g., politiques d'accès, de stockage, d’archivage).

CDI
Freelance

Offre d'emploi
Développeur Java/Scala Finance

SERYCE
Publiée le
J2EE / Java EE
Scala

12 mois
40k-60k €
400-550 €
Paris, France

À propos du poste: Nous recrutons un(e) Développeur(se) Java/Scala pour accompagner l'un de nos clients dans le secteur de la finance Responsabilités: L'analyse des besoins métiers Le développement des fonctionnalités autour des technologies Java L'amélioration continue (technique, organisation et processus) La mise en production L'exécution des tests unitaires Le traitement et suivi des anomalies La rédaction de documentation technique Compétences requises: Backend : Java, Spring/ Spring Boot, Scala, Webservices, API REST, Connaissances fonctionnelles banque ou finance. Détails du poste et rémunération: Le salaire sera discuté en fonction de l'expérience et des compétences. Déclaration d'égalité des chances: Nous sommes engagés envers la diversité et l'inclusivité.

CDI

Offre d'emploi
Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

Freelance

Mission freelance
Data Engineer Spark/Scala F/H

SMARTPOINT
Publiée le
Apache Spark
AWS Cloud
Azure

12 mois
400-500 €
Île-de-France, France

Nous recherchons un(e) Data Engineer spécialisé(e) en Spark et Scala pour rejoindre notre équipe Data. Vous contribuerez à la conception, au développement, et à l’optimisation des pipelines de données à grande échelle, ainsi qu’à l’implémentation des meilleures pratiques de gestion et de traitement des données. Concevoir, développer et maintenir des pipelines de données scalables et robustes en utilisant Spark et Scala. Intégrer et transformer des données provenant de différentes sources (bases de données, fichiers, APIs, etc.). Assurer la qualité, la performance et la sécurité des flux de données. Participer à l’optimisation des performances des traitements Big Data. Collaborer avec les équipes Data Science, BI et Développement pour répondre aux besoins des projets. Implémenter les meilleures pratiques en matière de gestion des données et d’architecture. Surveiller et résoudre les incidents liés aux flux de données en production. Compétences techniques : Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée). Solides compétences en conception et optimisation de flux ETL. Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL. Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP). Connaissance des écosystèmes Hadoop et des frameworks Big Data.

Freelance
CDI

Offre d'emploi
Data Engineer AWS

Altedis
Publiée le
Apache Spark
AWS Cloud
CI/CD

24 mois
10k-50k €
100-550 €
Île-de-France, France

Nous recherchons un Data Engineer AWS expérimenté pour intervenir sur un projet d’envergure dans le secteur bancaire. Le rôle inclut : L’ingestion, la transformation et l’exposition des données à l’aide de services AWS . L’optimisation des flux de données et l’intégration dans un environnement Cloud AWS . La mise en œuvre de solutions robustes pour le traitement et l’analyse des données. Vous serez amené(e) à collaborer avec les équipes techniques et métiers pour garantir des livrables de qualité dans un environnement dynamique et innovant.

Freelance
CDI

Offre d'emploi
Développeur JAVA / ION / ALGO (etrading)

Amontech
Publiée le
Electron
Git
J2EE / Java EE

3 mois
45k-70k €
400-600 €
Hauts-de-Seine, France

Dans le cadre du programme de croissance numérique pour Fixed Income eTrading IT, le candidat fera partie des projets majeurs dans le domaine du trading électronique afin d’améliorer la plateforme de trading mondiale de l’organisation pour prendre en charge de nouvelles fonctionnalités et les algorithmes de prochaine génération. Le rôle consiste à agir en tant qu’ingénieur dans l’équipe eTrading côté GDM, couvrant les métiers sur les taux d’intérêt (Rates) et le crédit, et il sera nécessaire de travailler en étroite collaboration avec d’autres équipes technologiques dans différentes régions. Nous recherchons un candidat avec de solides compétences sur la technologie ION et en développement Java.

71 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous