Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 71 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer Developer H/F

Nexius Finance
Publiée le
Scala

2 ans
100-600 €
Île-de-France, France

Dans le cadre du renforcement de nos capacités de traitement et de calcul des données pour le Market Risk , nous recherchons un Développeur Data Engineer . Vous serez chargé de développer et d'optimiser les processus d'intégration, de traitement, et de calcul des données, en vous appuyant sur une architecture distribuée moderne ( Hadoop, Spark, Scala ). Ce rôle est clé pour répondre aux exigences réglementaires, telles que le FRTB (Fundamental Review of the Trading Book) , et s’inscrit dans une collaboration sur le long terme. Conception et développement des pipelines de données pour le calcul du Market Risk , en utilisant Scala et Spark . Optimisation des calculs existants pour améliorer les performances et répondre aux nouvelles exigences réglementaires. Mise en œuvre de solutions innovantes pour traiter les données sensibles dans un environnement distribué Hadoop. Maintenance et évolution des applications critiques tournant sur Hadoop/Spark . Participation au développement du calculateur FRTB et du référentiel des sensibilités. Implémentation de nouvelles fonctionnalités pour intégrer les activités émergentes dans le calculateur. Travailler en étroite collaboration avec les équipes Risk Management, Finance et IT. Assurer un support technique autour des outils développés pour les utilisateurs internes. Participer activement à la documentation et à la formation des équipes internes.

Freelance
CDI

Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote

skiils
Publiée le
Apache Kafka
Apache Spark
Scala

1 an
12k-200k €
100-320 €
Île-de-France, France

skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)

CDI
Freelance

Offre d'emploi
Data Engineer

Amontech
Publiée le
AWS Cloud
Nosql
Python

365 jours
10k-50k €
100-640 €
Paris, France

Vos missions incluent : · Conception et Développement de Pipelines de Données : o Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; o Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; o Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. · Gestion et Maintenance de l’Infrastructure Data : o Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; o Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) ; o Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. · Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. · Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. · Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données. Compétences transverses : · Capacité à travailler en équipe et à collaborer avec des profils techniques et fonctionnels ; · Esprit analytique et rigoureux, avec une forte attention aux détails ; · Capacité à vulgariser les concepts techniques pour les rendre accessibles aux équipes non techniques.

Freelance
CDI

Offre d'emploi
Data Engineer

Altedis
Publiée le
Ansible
Apache Airflow
Apache Kafka

24 mois
10k-50k €
100-550 €
Île-de-France, France

Nous recherchons un Data Engineer expérimenté pour un projet d’exposition des données dans le secteur bancaire. Le rôle comprend : L’implémentation et l’évolution des API REST pour l’exposition des données. L’orchestration et le déploiement des traitements de transformation sur différents environnements. La migration des traitements existants vers des environnements modernes comme CDH et OpenShift . Vous travaillerez sur des projets stratégiques en collaboration avec des équipes multidisciplinaires dans un environnement technologique avancé.

CDI
Freelance

Offre d'emploi
Data Engineer Spark Scala Kafka H/F

STORM GROUP
Publiée le
Apache Kafka
Apache Spark
Scala

3 ans
10k-55k €
100-440 €
Île-de-France, France

Contexte : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre Natixis SA servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI Finance (prudentiel notamment) basé sur cette assiette comptable de référence • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Missions : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle

Freelance
CDI

Offre d'emploi
Date engineer

HN SERVICES
Publiée le
Apache Spark
Scala

2 ans
10k-57k €
100-550 €
Paris, France

Contexte : Le Groupe a lancé le programme qui se déroulera sur 5 ans (2020 / 2025). Une équipe dédiée a été créée pour la durée du programme. Ce programme s'articule autour des 4 principaux chantiers ci-dessous : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI (prudentiel notamment) basé sur cette assiette comptable de référence En particulier, le chantier "CARAT" Assiette Comptable de Référence comprend trois sous-chantiers majeurs au sein du datalake Finance et Risque : • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks mutualisée qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (SRB, PVA, Anatitres, Anacrédit, etc.) Au sein du chantier CARAT, travaillant en mode agile (SCRUM), la mission consistera à prendre part aux développements sur GASPARD, tout en étant garant de la pérennité et la non régression de l’outillage déjà en place, sur les deux sujets ci-dessous : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle L’équipe est principalement localisée à Paris mais dispose de ressources à Porto. L’anglais est donc d’usage dans l’équipe.

Freelance

Mission freelance
Data Engineer Spark Scala Confirmé – Projet Data & Finance

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
Hadoop

36 mois
330-480 €
Île-de-France, France

Vous rejoindrez une DSI spécialisée en Finance dans le cadre d’un programme stratégique de transformation, visant à moderniser et optimiser les outils de gestion comptable et de reporting. Ce programme ambitieux, s'étalant sur plusieurs années, se concentre sur la mise en place d'une assiette comptable de référence, ainsi que sur la migration et l'optimisation des systèmes d’information en environnement Big Data. Vos responsabilités principales incluent : Optimisation de la performance des traitements : garantir des temps d'exécution rapides, une utilisation optimisée des ressources et une fiabilité accrue pour répondre aux volumes croissants des données en 2024 et 2025. Développement et monitoring : contribuer au développement d’outils de monitoring technique et fonctionnel pour renforcer la robustesse des systèmes en place. Participation au développement agile : collaborer étroitement avec les équipes locales et internationales en mode Agile (SCRUM).

71 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous