Trouvez votre prochaine offre d’emploi ou de mission freelance Scala à Paris
Développeur Scala & asynchrone (F/H)

Description du Poste Nous recherchons un Ingénieur Scala talentueux et polyvalent pour rejoindre notre équipe technique. Vous participerez au développement d’applications backend performantes, à la conception de systèmes distribués et au traitement de données massives. Ce poste est idéal pour un(e) passionné(e) de technologies innovantes et de programmation fonctionnelle souhaitant relever des défis variés dans des environnements dynamiques. Responsabilités Développer et maintenir des applications backend robustes en utilisant Scala. Concevoir et implémenter des systèmes distribués résilients et scalables avec Akka. Développement asynchrone Compétences Requises Techniques : Maîtrise du langage Scala avec une bonne compréhension des paradigmes orienté objet et fonctionnel. Expérience avec des frameworks Scala tels que Akka, Play Framework, et Slick. Connaissance de l’écosystème Big Data : Apache Spark, Kafka. Solides compétences en asynchrone Tests & Qualité : Utilisation des frameworks de tests comme ScalaTest, Specs2, et ScalaCheck. Bonne compréhension des méthodes TDD (Test-Driven Development).
Développeur Big Data - entre 5 et 9 ans

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad Financing & Risk qui aujourd'hui développe et gère un datalake (RiskLake). 🤝 Expertises indispensables Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer du RiskLake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets
Data Engineer - DataLake

Contexte / Objectifs : Pour un acteur financier, la mission va se dérouler au sein d'une squad de l'équipe Big Data & API qui aujourd'hui développe et gère un datalake. Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer du datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Big Data Dev - Scala / Cassandra

📌 Mission : Accompagnement Développement Big Data – Projet Lutte Contre la Fraude Dans le cadre d’un projet de refonte d’une application de lutte contre la fraude, notre client recherche un accompagnement technique afin de renforcer son équipe de développement Big Data (Java/Scala). 🎯 Objectifs de la mission : Accompagner techniquement les développeurs sur le projet Contribuer à l'amélioration de la vélocité et de la productivité de l’équipe Participer à la réflexion autour de l’architecture de la nouvelle application 💡 Stack technique : Langages : Scala (AKKA Actor / Play), Java Big Data : Spark , Hadoop (HTC) , Cassandra Bases de données : Oracle Streaming : Kafka Middleware : MQSeries DevOps / Qualité : Git , Jenkins , JUnit , Sonar Méthodologies : Agile (Scrum, Kanban) ✅ Compétences recherchées : Expérience solide en développement Java/Scala (front & back) Bonnes connaissances en DevOps Maîtrise des outils d’intégration continue et de qualité de code Capacité à intervenir dans un environnement Agile Sens de l’analyse et esprit de collaboration 📄 Livrables attendus : Audit technique du code et des processus existants Plan d’action pour améliorer la vélocité de l’équipe Propositions d’architecture pour la refonte applicative Recommandations techniques globales
lead data scala spark kafka

J'ai un poste à pourvoir pour un data engineer senior qui connaisse le secteur de la finance de marché pour une mission longue en banque technos : scala spark kafka (java) si vous êtes intéressé, n'hésitez pas à postuler je vous appelle dans la journée plus de détails en privé. -- J'ai un poste à pourvoir pour un data engineer senior qui connaisse le secteur de la finance de marché pour une mission longue en banque technos : scala spark kafka (java) si vous êtes intéressé, n'hésitez pas à postuler je vous appelle dans la journée plus de détails en privé.
Consultant BI (ETL + Scala)

Au sein de la DSI d’une plateforme de financements, nous gérons les systèmes d’information du métier Affacturage et pilotons les évolutions du SI. Dans le cadre d’un projet de refonte, nous recherchons un Consultant BI Analytics pour enrichir une plateforme décisionnelle et assurer la mise en place de nouveaux indicateurs et reportings. Vos principales missions seront : Maintenir en conditions opérationnelles les applications décisionnelles (suivi de production). Participer aux travaux d'intégration et de recette technique. Modéliser les solutions techniques pour les indicateurs décisionnels. Développer les traitements d’alimentation des systèmes décisionnels (ETL) et des scripts SQL en cohérence avec l’existant. Mettre en place et optimiser les traitements d’alimentation du datahub. Respecter les normes de développement et assurer le déploiement des composants. Fournir un support technique en phase de recette et de mise en production. Rédiger et mettre à jour les spécifications détaillées et la documentation associée. Participer aux ateliers de conception avec les Business Analysts et les équipes métiers.
Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris

Smarteo recherche pour l'un de ses clients, grand compte, Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris. Nous recherchons un Data Engineer - Sénior avec un minimum de 7 ans d'expériences sur des projets similaires. Projet : Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de l'équipe Construction nouveaux usages Principaux livrables : Participer au cadrage technique Définition des solutions applicatives Développement, Intégration et Recette technique Traitement des incidents & assistance utilisateurs Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Participer au cadrage technique Définition des solutions applicatives Développement, Intégration et Recette technique Traitement des incidents & assistance utilisateurs Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Suggestions d'améliorations de la plateformeil y a 3 heures
- SEO a la recherche d'une alternance – déjà en stageil y a 3 heures
- Dividendes intra-groupe - Consolidation - Intégration proportionnelleil y a 9 heures
- FreeLance En Belgique (3)il y a 19 heures
- Contrat portage de 2 mois seulementil y a 20 heures
- Idemnités kilométriques et repas midiil y a 20 heures