Trouvez votre prochaine offre d’emploi ou de mission freelance Scala
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer Scala Spark Hadoop
💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark
Mission freelance
Développeur Scala Senior
👉 Contexte Nous recherchons deux développeurs Scala senior pour renforcer les équipes d’un de nos clients. L’équipe est composée de la manière suivante : 1 PO, 1 dev front end, 3 back end, 1 full stack, 1 QA, 1 scrum master 🚀 Mission: - Développement de nouvelles features sur l’application existante via les US - Faire évoluer la plateforme existante - Proposer des solutions techniques maintenables et pérennes - Challenger les solutions techniques Equipe: - 1 PO, 1 dev Front, 3 back, 1 full stack, 1 QA, 1 scrum
Offre d'emploi
Data Engineer Confirmé Scala / Spark - F/H
Contribuez à des projets data complexes avec des technologies avancées. Quel sera votre rôle ? Nous recherchons un(e) Data Engineer Scala / Spark. Vous rejoignez l’équipe d’ingénierie data pour concevoir des pipelines de traitement de données à grande échelle. Au quotidien, vos missions seront les suivantes : Développer et optimiser des pipelines de données en utilisant Scala et Spark, dans un environnement distribué. Mettre en place des modèles de données complexes en SQL pour répondre aux besoins métier. Collaborer avec les data scientists pour garantir l’efficacité des flux de données et des modèles analytiques. Environnement technique : Scala, Apache Spark, SQL, Hadoop, Kafka
Mission freelance
Développeur Java et Scala (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Dévelopeur Java et Scala (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons un Développeur Java et Scala pour rejoindre une équipe technique travaillant sur des projets Big Data dans le cadre de la transformation digitale d'un acteur majeur de la logistique pour l'intégration de systèmes et l'optimisation des flux de données. Vos missions : - Participer au développement des injecteurs et des adaptateurs en Java et Scala. - Implémenter des microservices permettant la gestion et le suivi des flux de données. - Réaliser les tests unitaires et d'intégration pour garantir la qualité des composants. - Collaborer avec les Tech Leads et les Product Owners pour garantir la bonne intégration des composants dans l'architecture globale. Profil recherché : - Expérience : Minimum 3 ans d'expérience en développement Java et Scala (maitrise obligatoire des 2 langages) dans des environnements Big Data. - Compétences techniques : - Langages : Java , Scala - Big Data : Kafka, Spark Streaming - Bases de données : Cassandra, Elasticsearch - Outils DevOps : Docker, Jenkins - Capacité à travailler en équipe et bonne connaissance des méthodologies agiles (Scrum). Pourquoi nous rejoindre ? - Projet d'envergure : Participez à un projet innovant et complexe visant à transformer la logistique. - Environnement stimulant : Travaillez sur des technologies modernes avec une équipe d'experts en Big Data. - Possibilité de télétravail partiel pour favoriser un équilibre entre vie professionnelle et personnelle. Modalités de la Mission : - Durée : 6 mois (renouvelable). - Localisation : Île-de-France avec possibilité de télétravail 2 jours par semaine.
Mission freelance
Tech Lead senior Java et Scala (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Consultant Tech Lead Java & Scala (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons actuellement 2 Tech Leads ayant une forte expertise et expérience en Java et Scala et une solide expérience dans des environnements Big Data. Vous rejoindrez une équipe dédiée au développement de solutions autour de la traçabilité des objets, de la gestion des événements, et de l'amélioration des services client dans le cadre d'un projet de transformation digitale majeur. Vos missions : - Définir l'architecture logicielle des solutions en collaboration avec l'équipe d'architectes. - Participer au développement en restant un acteur clé sur la partie technique pour maintenir votre expertise. - Accompagner et encadrer l'équipe de développeurs, en assurant la montée en compétences sur les technologies Big Data. - Garantir la qualité des livrables en effectuant des revues de code, en supervisant les tests unitaires et en optimisant les performances. - Contribuer à la veille technologique et au développement de prototypes, avec une capacité à être force de proposition sur les choix technologiques. - Collaborer étroitement avec les Product Owners, Scrum Masters, et les architectes pour garantir l'alignement de l'architecture et des développements avec les besoins métier. Profil recherché : - Expérience : Vous êtes un expert avec au moins 7 ans d'expérience professionnelle en développement Java (spring boot) et Scala (la maitrîse des 2 langages de programmation est obligatoire), ainsi qu'une expérience significative en tant que Tech Lead sur des projets complexes. - Expertise technique : - Langages : Java (spring boot), Scala - Big Data : Kafka, Spark Streaming, Akka - Bases de données : Cassandra, Elasticsearch - Déploiement : Docker, Kubernetes, Jenkins - Message Protocol : Protobuf, Avro - Compétences en leadership : Expérience dans l'encadrement et la montée en compétences des développeurs, mise en oeuvre des bonnes pratiques de développement, coaching agile. - Agilité : Bonne connaissance de la méthodologie Scrum, capable d'évoluer dans un environnement agile et d'encadrer les équipes dans ce cadre. Modalités de la Mission : - Durée : Mission de 6 mois (renouvelable selon les besoins). - Environnement de travail : Localisation en Île-de-France avec possibilité de télétravail partiel.
Mission freelance
Data Engineer Spark Scala Confirmé – Projet Data & Finance
Vous rejoindrez une DSI spécialisée en Finance dans le cadre d’un programme stratégique de transformation, visant à moderniser et optimiser les outils de gestion comptable et de reporting. Ce programme ambitieux, s'étalant sur plusieurs années, se concentre sur la mise en place d'une assiette comptable de référence, ainsi que sur la migration et l'optimisation des systèmes d’information en environnement Big Data. Vos responsabilités principales incluent : Optimisation de la performance des traitements : garantir des temps d'exécution rapides, une utilisation optimisée des ressources et une fiabilité accrue pour répondre aux volumes croissants des données en 2024 et 2025. Développement et monitoring : contribuer au développement d’outils de monitoring technique et fonctionnel pour renforcer la robustesse des systèmes en place. Participation au développement agile : collaborer étroitement avec les équipes locales et internationales en mode Agile (SCRUM).
Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote
skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Offre d'emploi
Ingénieur études SCALA
Vos missions : Cadrage des projets : Collaborer à la définition des objectifs et à la collecte des besoins utilisateurs. Développement et tests : Participer à la création et à l’évaluation de solutions pour le traitement de grandes quantités de données et l’implémentation de modèles de machine learning. Intégration continue : Mettre en œuvre des pratiques d’intégration continue pour assurer une livraison fluide et régulière du code. Résolution de problématiques techniques : Travailler sur l’optimisation des performances des traitements distribués, ainsi que sur la sécurité et la résilience des applications. Création de dashboards : Contribuer à la conception et au développement de tableaux de bord pour la visualisation des données techniques et fonctionnelles, facilitant le monitoring des systèmes.
Offre d'emploi
Développeur JAVA / SCALA - Finance de Marchés
Contexte / Objectifs : Au sein du pôle Pricing & Analytics de l'IT Global Markets, le consultant interviendra au sein de l’équipe Calculation Engines en tant que Développeur JAVA . Le pôle Pricing & Analytics est en charge du développement et de la maintenance des librairies financières Equity (TK EDA) et Fixed Income (ARM), et de son intégration dans différentes applications du SI. Ces librairies gèrent les produits dérivés des marchés Equity, Commodity et Fixed Income. Les équipes de Calculation Engines s’appuient sur ces librairies de pricing pour mettre en place des chaines de calcul (Calibration de Market Datas, StressTess, HVAR, CVA, EEPE) robustes industrialisées à destination des métiers Front Office et Risques de Global Market. Ces chaines de calcul traitent des volumes importants de données en respectant les contraintes de temps de calcul et de stockage pour les pistes d’auditabilité. Elles doivent également exposer des API customisées d’accès à la donnée.
Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA
- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.
Offre d'emploi
Data Engineer – Environnement Scala / Hadoop
Notre client est une grande entreprise opérant dans le secteur financier, avec une forte présence dans le domaine des services aux entreprises. Dans un contexte de transformation technologique, l'entreprise souhaite renforcer son équipe IT pour maintenir et faire évoluer ses applications critiques. Le projet en cours concerne l'optimisation et le maintien des applications d’une plateforme dédiée à la gestion des financements. Le projet s’intègre au sein d’un grand programme de modernisation de la plateforme de financements . Le système, basé sur des technologies Hadoop et Scala , gère un large éventail de services critiques. L'objectif principal de cette mission est d'assurer le bon fonctionnement des applications existantes et de contribuer aux évolutions techniques, notamment en participant aux déploiements et aux maintenances évolutives. Les applications sont gérées au sein de la DSI, plus précisément dans une filiale dédiée à la gestion des financements. Vous travaillerez avec une équipe dynamique dans un environnement Agile/SCRUM, en étroite collaboration avec des équipes métiers et techniques. Assurer le maintien en conditions opérationnelles (MCO) des applications sur la plateforme existante. Contribuer aux travaux de déploiement , d'intégration et de livraison des composants sur l'environnement PISA. Concevoir, modéliser et implémenter des solutions techniques pour les maintenances évolutives et correctives sur la plateforme. Développer et améliorer les traitements des calculateurs (basés sur des templates YAML et développements Scala ). Participer à la rédaction et mise à jour des spécifications techniques , en lien avec les travaux de maintenance corrective ou évolutive. Collaborer étroitement avec les équipes métier et les Business Analysts pour assurer la qualité des développements. Assurer le support technique durant les phases de recette. Suivi de la production et résolution des incidents sur la plateforme de financements. Participation active aux ateliers de conception avec les équipes métier et techniques. Développement de traitements sur les calculateurs, intégrant les règles métier via des configurations YAML et des développements en Scala . Assurer le déploiement des composants sur les environnements de recette et de qualification . Mise à jour du dictionnaire de données Nodata et collaboration avec les équipes pour garantir la cohérence des évolutions.
Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala
💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)
Offre d'emploi
DATA ENGINEER - TALEND SPARK/SCALA H/F
Dans ce cadre, la prestation consiste à contribuer à/au(x) : - Développement de traitements Spark/Scala - Revue de code et re-factoring - Traitement d'un gros volume de données - Développement sur un pipeline CICD - Respect des normes de développements Environnement technique: - Framework Spark - Langage scala - ETL Talend - Talend for BIG DATA - Méthode agile : Scrum - GIT - Ecosystème Hadoop Cloudera Les livrables attendus sont les suivants : - Documentation - Nouvelle version applicativ Cadre international.
Mission freelance
Data Engineer (Python, SQL, et Scala) (h/f)
emagine recherche pour l'un de ses Clients Grand Compte un(e) Data Engineer (Python, SQL, et Scala) Rythme: 3 jours sur site + 2 jours de télétravail Durée estimée : plus de 12 mois Lieu : Île de France, 92 Rôle : • Conception et Développement de Pipelines de Données • Gestion et Maintenance de l’Infrastructure Data • Qualité et Sécurité des Données • Support aux équipes Data Science et BI • Veille Technologique et Innovation • Collaborer avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données Profil recherché : Formation : Informatique, data engineering, data science ou équivalent Expérience : Minimum 5 ans d'expérience en tant que Data Engineer, idéalement au sein d'une entreprise des secteurs de la construction, de l’énergie, ou de la promotion immobilière. Compétences techniques : • Maîtrise des langages de programmation tels que Python, SQL, et Scala • Expérience avec les Framework(s) de traitement de données • Connaissance des solutions de gestion de données sur le cloud (Idéalement certification Azure) • Compétence en modélisation de données (schémas), transport et transformation de la donnée et Data Marts • Bonne compréhension des systèmes de bases de données relationnelles et NoSQL. Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse mail -email masqué-
Mission freelance
Dévelopeur Java/Scala (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Dévelopeur Java/Scala (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons un développeur Java/Scala pour rejoindre une équipe technique travaillant sur des projets Big Data dans le cadre de la transformation digitale d'un acteur majeur de la logistique pour l'intégration de systèmes et l'optimisation des flux de données. Vos missions : - Participer au développement des injecteurs et des adaptateurs en Java et Scala. - Implémenter des microservices permettant la gestion et le suivi des flux de données. - Réaliser les tests unitaires et d'intégration pour garantir la qualité des composants. - Collaborer avec les Tech Leads et les Product Owners pour garantir la bonne intégration des composants dans l'architecture globale. Profil recherché : - Expérience : Minimum 3 ans d'expérience en développement Java/Scala dans des environnements Big Data. - Compétences techniques : - Langages : Java, Scala - Big Data : Kafka, Spark Streaming - Bases de données : Cassandra, Elasticsearch - Outils DevOps : Docker, Jenkins - Capacité à travailler en équipe et bonne connaissance des méthodologies agiles (Scrum). Pourquoi nous rejoindre ? - Projet d'envergure : Participez à un projet innovant et complexe visant à transformer la logistique. - Environnement stimulant : Travaillez sur des technologies modernes avec une équipe d'experts en Big Data. - Possibilité de télétravail partiel pour favoriser un équilibre entre vie professionnelle et personnelle. Modalités de la Mission : - Durée : 6 mois (renouvelable). - Localisation : Île-de-France avec possibilité de télétravail 2 jours par semaine.
Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75
Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.