Trouvez votre prochaine offre d’emploi ou de mission freelance Scala
Ingénieur Data Scala / Spark

Contexte du poste : Nous recrutons un Expert Data pour rejoindre une équipe projet dans le cadre de la mise en place d’une nouvelle plateforme de pilotage décisionnel. Cette plateforme accompagne la modernisation des systèmes d'information et remplace les outils existants devenus obsolètes. Vous serez directement impliqué dans l'intégration de données à fort volume, la modélisation et l’automatisation, le tout dans un environnement cloud moderne avec une forte culture de la donnée. Missions principales : Mettre en place les flux d’alimentation de données volumineuses via Databricks Concevoir les modèles de données décisionnels et les implémenter dans l’architecture cloud Participer aux rituels agiles du projet (daily, sprint review, planning, démo) Réaliser les notebooks sous Databricks et préparer les données pour la data visualisation Détecter les anomalies de données et contribuer à l'amélioration continue de la qualité Documenter l’architecture, les tests, les procédures de livraison et d’exploitation
Big Data Dev - Scala / Cassandra

📌 Mission : Accompagnement Développement Big Data – Projet Lutte Contre la Fraude Dans le cadre d’un projet de refonte d’une application de lutte contre la fraude, notre client recherche un accompagnement technique afin de renforcer son équipe de développement Big Data (Java/Scala). 🎯 Objectifs de la mission : Accompagner techniquement les développeurs sur le projet Contribuer à l'amélioration de la vélocité et de la productivité de l’équipe Participer à la réflexion autour de l’architecture de la nouvelle application 💡 Stack technique : Langages : Scala (AKKA Actor / Play), Java Big Data : Spark , Hadoop (HTC) , Cassandra Bases de données : Oracle Streaming : Kafka Middleware : MQSeries DevOps / Qualité : Git , Jenkins , JUnit , Sonar Méthodologies : Agile (Scrum, Kanban) ✅ Compétences recherchées : Expérience solide en développement Java/Scala (front & back) Bonnes connaissances en DevOps Maîtrise des outils d’intégration continue et de qualité de code Capacité à intervenir dans un environnement Agile Sens de l’analyse et esprit de collaboration 📄 Livrables attendus : Audit technique du code et des processus existants Plan d’action pour améliorer la vélocité de l’équipe Propositions d’architecture pour la refonte applicative Recommandations techniques globales
lead data scala spark kafka

J'ai un poste à pourvoir pour un data engineer senior qui connaisse le secteur de la finance de marché pour une mission longue en banque technos : scala spark kafka (java) si vous êtes intéressé, n'hésitez pas à postuler je vous appelle dans la journée plus de détails en privé. -- J'ai un poste à pourvoir pour un data engineer senior qui connaisse le secteur de la finance de marché pour une mission longue en banque technos : scala spark kafka (java) si vous êtes intéressé, n'hésitez pas à postuler je vous appelle dans la journée plus de détails en privé.
Développeur Big Data - entre 5 et 9 ans

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad Financing & Risk qui aujourd'hui développe et gère un datalake (RiskLake). 🤝 Expertises indispensables Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer du RiskLake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets
BIG DATA ENGINEER - SPARK SCALA F/H | NANTES (44)

VOTRE QUOTIDIEN RESSEMBLERA A… La mission consiste à assurer : Le design de solutions et d'architecture technique pour le backend Les développements d'alimentations et processing de données L’implémentation pour l'exploitation des données, restitution dans des Datasets ou Datamarts Le Support et la maintenance évolutive du backend La mise en œuvre de méthodes d'amélioration continue : Craft & Prod CI Le monitoring et CI sur qualité du code Vous rejoignez notre client en qualité de Big Data Engineer Senior F/H pour : Assurer le Développement des solutions Big Data Gérer l'intégration continue Définir les solutions dans l'environnement applicatif (Cloud Platform / Spark Data processing) Poser la stratégie de développement et de tests Analyser l'impact de la conception du produit sur l'architecture technique du SI, définir les choix d'implémentation dans le SI Assurer le support applicatif via le monitoring et résolution associée Gérer le DevOps pour les parties IAAS et CD... Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 ou 2 jours de télétravail par semaine.
Data Engineer / IA Générative

Dans le cadre de notre activité nous avons pour mission d’accompagner la phase de cadrage et d’avoir la charge du pilotage et de l’implémentation des solutions identifiées dans le SI Finance. Pour se faire nous cherchons à renforcer l’équipe actuelle avec un Data Engineer possédant de solides compétences en Data Science et ayant une bonne compréhension de l'Intelligence Artificielle. La mission principale sera de concevoir et développer des solutions de traitement de données complexes, d'implémenter des modèles d'IA générative et de participer à la mise en place de prompts et de RAG. Une collaboration étroite avec les équipes de Data Science et d'IA pour garantir l'efficacité et la fiabilité des solutions mises en œuvre. Si vous êtes passionné par les défis liés à la manipulation de données non structurées, que vous maîtrisez le Python et que vous avez une solide expérience en Data Engineering et en Data Science, nous serions ravis de recevoir votre candidature. Nous offrons un environnement de travail stimulant, des opportunités d'apprentissage continu et des projets innovants au sein d'une équipe dynamique et passionnée par les technologies émergentes. Rejoignez-nous pour contribuer à notre mission d'exploitation efficace des données et à notre développement dans le domaine de l'Intelligence Artificielle. Durant l'intervention, la prestation sera rattachée au responsable de l’équipe de développements tactiques et sera supervisée par un membre de l’équipe maitrisant les outils de data science. Vous serez fréquemment au contact du métier, des équipes innovation et d’autres développeurs. Des notions en finance seraient un plus très apprécié
Data Engineer H/F

Nous recherchons un(e) Data Engineer talentueux(se) et motivé(e) pour rejoindre notre équipe. Vous serez responsable de la conception, de la mise en place et de la maintenance des infrastructures de données, garantissant leur disponibilité, leur performance et leur sécurité. Missions : - Concevoir et développer des pipelines de données robustes et évolutifs pour collecter, traiter et stocker des volumes importants de données. - Collaborer avec les équipes Data Science et Analyse pour comprendre les besoins en données et optimiser leur accessibilité. - Assurer la qualité, l'intégrité et la gouvernance des données au sein de l'entreprise. - Mettre en oeuvre des solutions de stockage adaptées (bases de données relationnelles et non relationnelles) en fonction des cas d'utilisation. - Optimiser les performances des systèmes de traitement de données et résoudre les éventuels problèmes techniques. - Effectuer une veille technologique pour intégrer les meilleures pratiques et outils émergents dans le domaine du Data Engineering.
Tech Lead GCP BigQuery Spark Scala API

Notre client bancaire recherche un consultant Tech Lead GCP (H/F) pour renforcer l'équipe au sein de laquelle preste déjà des consultants de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données avec des projets novateurs. Tâches et activités de la mission (non exhaustives) : - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels. Environnement GKE : - Développement d'API REST - Stockage : HDFS / GCS - Planification : Airflow / Composer - Méthodologies : Scrum, Kanban, Git - DWH : SQL, BigQuery, BigTable - Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build
Data Engineer CIB H/F

Contexte : L'équipe IT Risks trade and sensitivities repositories regroupe 4 applications (référentiel des opérations, des payoffs, des sensibilités, et Calculateur FRTB). La mission sera dans l'équipe "sensitivities" composée de 4 Business Analyst et 4 data Engineer. Cette équipe est en charge de l'application Susanoo, application Hadoop qui centralise, normalise les sensibilités. Les projets de l'équipe : Implémenter du Machine Learning afin d'aider à détecter les valeurs de sensi abhérentes par Market Risk, améliorer la chaine et fluidifier les interactions avec les applications en aval pour améliorer la production, intégrer de nouvelles sensibilités. Mission : La mission consiste à développer les processus d’intégration, de traitement et de calcul des données du Market Risk. Développement et support autour des outils de l’écosystème Hadoop afin de faire évoluer le référentiel de sensibilités développées en Scala / Spark. Des optimisations et de nouvelles solutions seront à mettre en œuvre pour améliorer les performances de la couche de restitution des données, en collaboration avec d'autres équipes.
Architecte Kafka Confluent Cloud

Dans le cadre de la mise en place d’une équipe dédiée au streaming de données , nous recherchons un(e) Architecte Système spécialisé(e) Kafka / Confluent Cloud pour notre client dans le domaine du Luxe. Vous interviendrez sur un projet stratégique de transformation des flux de données temps réel , en lien étroit avec les équipes IT, développement et métier. Vos missions principales : Concevoir des architectures de données évolutives et sécurisées via Kafka et Confluent Cloud Définir les stratégies de déploiement et d’intégration (sources de données, plateformes aval) Encadrer des équipes techniques et accompagner la montée en compétences interne Participer à la rédaction de spécifications techniques (architecture, sécurité, performance) Coordonner avec les équipes projet pour le delivery et le support technique de niveau 3 Créer et structurer la documentation (référentiels, bonnes pratiques, procédures de monitoring) Contribuer à la gestion de backlog et au suivi des priorités en lien avec les équipes métiers Compétences recherchées : Expertise avérée sur Apache Kafka et Confluent Cloud Maîtrise des flux de données temps réel , des environnements microservices et des enjeux sécurité Bonne pratique des langages Java / Scala / Python , scripting Unix, SQL/PLSQL Connaissance des outils : Kafka toolset, SQL Server, OpCon, Jira, ServiceNow (SNOW) Expérience en environnement Agile ou hybride Leadership technique, sens du mentoring, autonomie et rigueur Processus : 2 entretiens Go - No Go
Consultant BI (ETL + Scala)

Au sein de la DSI d’une plateforme de financements, nous gérons les systèmes d’information du métier Affacturage et pilotons les évolutions du SI. Dans le cadre d’un projet de refonte, nous recherchons un Consultant BI Analytics pour enrichir une plateforme décisionnelle et assurer la mise en place de nouveaux indicateurs et reportings. Vos principales missions seront : Maintenir en conditions opérationnelles les applications décisionnelles (suivi de production). Participer aux travaux d'intégration et de recette technique. Modéliser les solutions techniques pour les indicateurs décisionnels. Développer les traitements d’alimentation des systèmes décisionnels (ETL) et des scripts SQL en cohérence avec l’existant. Mettre en place et optimiser les traitements d’alimentation du datahub. Respecter les normes de développement et assurer le déploiement des composants. Fournir un support technique en phase de recette et de mise en production. Rédiger et mettre à jour les spécifications détaillées et la documentation associée. Participer aux ateliers de conception avec les Business Analysts et les équipes métiers.
Data Engineer Big Data (H/F)

Contexte : 3 jours sur site en périphérie lyonnaise + 2 jours télétravail Les missions attendues par le Data Engineer Big Data (H/F) : Notre domaine fournit les services IT pour l’activité Professional Coffee Machine (PCM) : Digital Platform PCM, un datalake Azure dédié et des reportings pour nos clients et équipes internes (hors scope de la recherche) Back-office process (ERP et Field Service Management) : des reportings corporate et locaux sous SAP BW, Analysis for Office ou encore Qlik Sense DATA ENGINEER CONFIRME Dans le cadre de la Digital Platform PCM, nous recherchons un·e Data Engineer confirmé·e qui aura pour missions de prendre en charge des tâches de développement sur des projets de build pour fournir les data pipelines du Datalake et d’intervenir sur le maintien en condition opérationnelle du Datalake. Les développements réalisés permettent aux développeurs Qlik Sense et Azure Dashboard de construire les reports adéquates pour nos clients. Une expérience requise dans ce type d’environnement de 3 ans minimum est pré-requise. Contexte de la mission La mission s’opère en 3 jours sur site et 2 jours en télétravail. Le site est situé à Ecully dont 2 jours au campus et 1 journée au 4M. La mission est un remplacement temporaire d'un membre de l'équipe actuellement composée de 2 Data Engineer et pour une durée de 6 mois minimum. Démarrage souhaitée fin avril/début mai pour une date de fin prévisionnelle fin novembre 2025.
Développeur Data Spark (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Data Spark (H/F) à Lyon, France. Contexte : Analyser et cartographier, avec les experts métiers et l'équipe de développement, le pipeline de données actuel : les modèles de données des différentes base de données utilisées; les flux de données qui existent entre les différentes sources de données (lignage des données); les règles de validation, de filtrage de calcul actuellement en place lors des transferts de données Assister les architectes dans la définition du nouveau pipeline de données en s'appuyant sur les service cloud Appuyer l'équipe de développement dans la réalisation de la nouvelle solution : Mise en place en place de la solution et des bonnes pratiques associées ; Culture du data engineering ; Expertise sur l'outillage data mise en place (ETL, base de données, Spark, Glue) Les missions attendues par le Développeur Data Spark (H/F) : Expertise dans l'outillage de stockage des données (base de données, fichiers) et le traitement des données (ETL, Spark) Expertise Spark, quelque soit le langage de prédilection (Java, Scala, Python) Maitrise des bonnes pratiques de développements et de la mise en oeuvre des outils liées à la data Maîtrise des technologies du Big Data, des problématiques liées à la volumétrie et aux performance Maîtrise des outils de gestion de code (Git) et de déploiement projet (Terraform) Une séniorité globale supérieure à 10 ans est attendue sur ce poste Plusieurs expertise significatives dans l'analyse de données et la mise en place de pipelines qu'ils soient de type batch/ETL ou événementiel/streaming
Data Engineer – PySpark, Scala, Hadoop, Spark

Nous recherchons un Data Engineer pour intervenir au sein de l'IT Data Management & BI , dans l'équipe Big Data & API Cette équipe développe et gère un data Lake (Risk Lake) , utilisé comme une data plateforme pour les équipes IT et métiers. Missions Gestion de la production et de la dette technique Revoir l’architecture actuelle et proposer des évolutions Développement des pipelines et traitements liés aux projets Responsabilités Collecter et mettre à disposition les données pour les équipes métiers Industrialiser et mettre en production des traitements de données Développer des pipelines d'ingestion et de traitement des données (batch et streaming) Implémenter et optimiser des jobs Spark pour le prétraitement et la transformation des données Développer des API génériques pour l’ingestion et le traitement des données Participer à la conception, mise en place et administration de solutions Big Data Normaliser et agréger les données pour produire des Business Views et Dashboard Mettre en place des services d'extraction de données via Spring Boot et Kafka
Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris

Smarteo recherche pour l'un de ses clients, grand compte, Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris. Nous recherchons un Data Engineer - Sénior avec un minimum de 7 ans d'expériences sur des projets similaires. Projet : Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de l'équipe Construction nouveaux usages Principaux livrables : Participer au cadrage technique Définition des solutions applicatives Développement, Intégration et Recette technique Traitement des incidents & assistance utilisateurs Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Participer au cadrage technique Définition des solutions applicatives Développement, Intégration et Recette technique Traitement des incidents & assistance utilisateurs Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.
Data Engineer confirmé (3 à 7 ans d’expérience)

Dans le cadre d’un programme de transformation data au sein d’un acteur majeur du secteur de la distribution, nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer les équipes d’une plateforme Data structurée autour d’une architecture « data-centric ». Cette plateforme vise à décloisonner les silos d’information et à fournir des données en temps réel via API à l’ensemble de l’écosystème métier et SI, dans une logique de convergence entre décisionnel et opérationnel. Vos responsabilités Intégré(e) à l’équipe data, vous serez chargé(e) de concevoir, développer et maintenir des pipelines de traitement de données à grande échelle, en environnement cloud. Vous interviendrez à la croisée des enjeux techniques et métiers, dans un environnement résolument agile et orienté performance. Missions principales développer et maintenir des flux de données batch et temps réel (BigQuery, BigTable, Apache Kafka, Apache Spark) concevoir des pipelines évolutifs et robustes en lien étroit avec les équipes techniques optimiser les processus d’acquisition, de transformation et de stockage des données assurer la haute disponibilité et les performances en production dans une démarche DevOps contribuer à la définition de l’architecture microservices et à l’amélioration continue rédiger et maintenir les tests unitaires et d’intégration produire des livrables de qualité et assurer un reporting clair et régulier proposer des pistes d’amélioration (refactoring, simplification, industrialisation) Compétences techniques requises langages : très bonne maîtrise de Java ; la connaissance de Scala est un atout apprécié, mais non bloquant traitement de flux et Big Data : bonne expérience avec Apache Kafka et Apache Spark cloud : expérience sur GCP (BigQuery, Dataproc, Kubernetes...) ou environnement cloud équivalent CI/CD : pratique de Git et des outils d’intégration/déploiement continus (GitLab CI/CD ou similaire) architecture & DevOps : bonne culture des microservices et des pratiques DevOps qualité logicielle : rigueur dans l’écriture de tests et dans le maintien de la qualité du code Soft skills attendus esprit d’équipe et capacité à collaborer dans un environnement distribué communication fluide, écrite comme orale sens de l’analyse et capacité à challenger l’existant avec bienveillance autonomie et proactivité dans la résolution de problèmes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Blacklist de freelances ??il y a 22 minutes
- micro entreprise en IT mais déclaré en activité commercialil y a 2 heures
- Comment trouver un expert comptable ?il y a 2 heures
- Comment trouver un bon expert comptable ?il y a 11 heures
- La provision en portage salarialil y a 12 heures
- Les notes de fraisil y a 12 heures