Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 371 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
DATA ENGINEERING SPARK SCALA H/F

SMARTPOINT
Publiée le
Apache Spark
Hadoop
JIRA

1 an
100-600 €
Paris, France

la Prestation consiste à contribuer à/au(x) : - L’architecture avec le reste de l’entité (tech lead, devs, architecture). - Mise en œuvre/Développement des propositions techniques. - Revue de code. - Suivi des méthodologies agiles. - L'industrialisation des développements et des tests sur de l'open source Les livrables attentdus sont: - Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. - PVs techniques - Chiffrage de projets et évolutions - Design de présentation Environnement anglophone.

Freelance
CDI

Offre d'emploi
Data Engineer Scala Spark Hadoop

Digistrat consulting
Publiée le
Scala

36 mois
10k-200k €
Paris, France

💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark

CDI

Offre d'emploi
Data Engineer Spark / Scala

Tenth Revolution Group
Publiée le

40k-45k €
Lyon, Auvergne-Rhône-Alpes

Notre client, expert en services Data, accompagne ses partenaires dans leur transformation numérique. Son équipe d'ingénieurs, chefs de projets et managers de transformation, est passionnée par les évolutions technologiques. L'entreprise valorise l'évolution, l'exigence et la proximité, tout en proposant des missions variées et stimulantes, à forte valeur ajoutée, pour des clients exigeants. Dans le cadre d'une mission spécifique pour un client, cette entreprise recherche un Data Engineer Spark / Scala. Vos missions : Concevoir des solutions fonctionnelles et techniques détaillées Développer des applications avec Spark / Scala Participer à la formalisation des plans de tests, exécuter les tests unitaires et d'intégration Résoudre les anomalies lors des phases d'intégration fonctionnelle et de recette utilisateur Mettre en œuvre des solutions industrielles et accompagner leur déploiement Assurer le suivi des environnements techniques Profil recherché : Minimum 2 ans d'expérience en tant que Data Engineer Maîtrise des technologies Spark et Scala Expérience en contexte Agile/Scrum Vos atouts : Curiosité, adaptabilité et aisance relationnelle Excellent savoir-être et communication efficace Forte capacité d'analyse Ce que l'entreprise offre : Télétravail flexible Participation à des projets diversifiés et enrichissants Montée en compétences sur des outils IT innovants Si vous êtes à la recherche de nouveaux défis et que ce poste vous correspond, postulez dès maintenant pour en savoir plus ! Candidatures confidentielles

Freelance

Mission freelance
Data engineer - GCP BigQuery Spark Scala

NEXORIS
Publiée le
Google Cloud Platform

12 mois
550-600 €
Paris, France

Notre client bancaire recherche un consultant Data engineer - GCP BigQuery Spark Scala (H/F) pour renforcer l'équipe au sein de laquelle preste déjà un consultant de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données. Tâches et activités de la mission : - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels

Freelance
CDI

Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala

Digistrat consulting
Publiée le
Talend

36 mois
10k-65k €
Paris, France

💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)

Freelance
CDI

Offre d'emploi
Data engineer Databricks

VISIAN
Publiée le
Apache Spark
Databricks
PostgreSQL

1 an
10k-60k €
Bagneux, Île-de-France

Le projet concerne une plateforme data d client permettant à tous les domaines producteurs de données de mettre à disposition dans un datalake de la donnée brute ou retravaillée. Cette plateforme data permet notamment de gérer les fonctions et données du périmètre métier de la Relation Réseau (SDSI) A ce titre elle permet de : - Intégrer et mettre en qualité des données brutes reçues des distributeurs - Mettre à disposition les données GRD exploitables pour toute utilisation : besoins portés par tous les domaines métiers de nature opérationnelle ou analytique

Freelance

Mission freelance
Développeur Big Data - Spark et Scala

Signe +
Publiée le
Apache Spark
Big Data
Scala

6 mois
450-470 €
Paris, France

Poste : Développeur Big Data Spécialisation : Spark, Scala Langues : Anglais Courant (Impératif) Environnement : Agile, anglophone Contexte du Poste : Nous recherchons un Développeur Big Data expérimenté pour rejoindre notre équipe dynamique afin de mener à bien la migration de jobs Talend vers des solutions basées sur Spark. Le candidat idéal doit avoir une solide expérience en Spark et Scala et être capable de travailler efficacement dans un environnement anglophone et agile. Responsabilités : Migration des Jobs : Analyser et comprendre les jobs Talend existants. Concevoir et développer des équivalents en utilisant Apache Spark. Assurer une transition fluide des processus ETL de Talend à Spark en minimisant les interruptions de service. Tester et valider les jobs migrés pour garantir la précision des données et les performances requises. Développement et Optimisation : Développer des solutions de traitement de données à grande échelle en utilisant Apache Spark et Scala. Optimiser les performances des jobs Spark pour gérer efficacement de grands volumes de données. Collaborer avec les équipes de développement pour intégrer les solutions Spark dans les pipelines de données existants. Collaboration et Documentation : Travailler en étroite collaboration avec les équipes de data engineering, data science et autres parties prenantes pour comprendre les besoins et les exigences. Documenter les processus de migration, les architectures de solution et les meilleures pratiques. Participer aux réunions d'équipe Agile, contribuer aux rétrospectives et s'adapter aux changements de priorités. Support et Maintenance : Fournir un support technique pour les jobs Spark en production. Identifier et résoudre les problèmes liés aux performances ou aux erreurs de traitement des données. Mettre en place des processus de surveillance et d'alerte pour assurer la stabilité et la fiabilité des solutions mises en œuvre.

CDI
Freelance

Offre d'emploi
DATA ENGINEER AZURE SCALA PYSPARK

DATSUP
Publiée le
Azure
Databricks
PySpark

2 ans
10k-51k €
Île-de-France, France

Vous rejoindrez une Data Factory, dont l'objectif est de concevoir et déployer des solutions Analytics innovantes pour les magasins, les fonctions support, la logistique, et surtout, les consommateurs. Notre client visent à industrialiser nos pratiques pour accélérer la livraison de nos produits tout en maximisant l'utilisation de notre patrimoine de données. Vous intégrerez une squad dédiée au développement de cas d'usage en BI, Analytics et Data Science, sur leur plateforme Data hébergée sur le Cloud Azure.

CDI
Freelance

Offre d'emploi
Data Eng Spark

REDLAB
Publiée le
Apache Spark
Hadoop
Web service

24 mois
38k-47k €
Paris, France

L’objectif de la mission est de contribuer à l’industrialisation des processus et traitements big data mis en œuvre dans le cadre de la plateforme mégadonnées de client et d’assurer la maintenance des pipelines d’intégration et de transformation des données à l’EDS Prestation de développements & Ingénierie big data dans le cadre de l’intégration et d’exploration de données dans un contexte big data et du cluster données massives Conception et réalisation/développement d’outils et traitements d’intégration et de standardisation de données massives dans le cadre d’une plateforme Hadoop, Contribution à l’industrialisation d’outils d’exploration des données (restitution des données de type tableaux de bord, projets de recherche thématiques, bibliothèques de code spécifiques, etc.) ; Participation à la standardisation des modèles de données (format FHIR/OMOP) et à la conception d’API appropriés (Webservices FHIR, etc.) ; Spécifications techniques détaillées ; Test unitaire et recette technique ; Documentation de conception, réalisation et d’exploitation. L’objectif de la mission consiste à participer à la mise en place d’outils de pilotage

CDI

Offre d'emploi
Développeur Fullstack Scala Angular F/H

DSI group
Publiée le
Angular
Java
Scala

40k-56k €
Luxembourg

Nous recherchons pour l’un de nos clients, situé au Luxembourg, un Développeur Fullstack SCALA ANGULAR (H/F). Vos missions : Concevoir, réaliser, tester, déployer, monitorer vos réalisations en Scala ; Maintenir des APIs (Scala) et des Fronts (Angular) modulaires et intégrables ; D’adhérer aux principes d’améliorations continues et de modernisation du domaine ; De devenir un expert dans certaines parties du domaine applicatif avec une mission longue. Le contexte : La méthodologie de travail est agile scum. Les équipes se composent d’un Product Owner, 2 Business Analyst, 1 Scrum Master et de plusieurs développeurs qui évoluent dans la méthodologie Scrum; et travaillent étroitement avec les parties prenantes côté métier.

Freelance
CDI

Offre d'emploi
Data engineer - Databricks/Pyspark/SQL

VISIAN
Publiée le
Apache Spark
AWS Cloud
Databricks

1 an
10k-60k €
Bagneux, Île-de-France

Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer) -Est en relation avec les équipes infrastructure afin d'assurer le cadrage et le déploiement des solutions valides -Support aux équipes consommatrices -Analyse d'anomalie et proposition solution court / moyen terme - Developpement sous Databrick (Python / SQL / Spark / Airflow) -Est force de propositions techniques, en capacité de faire un état des lieux sur les normes et process de devt et faire appliquer les recommandations.

CDI
Freelance

Offre d'emploi
Data Engineer Java Spark H/F

STORM GROUP
Publiée le
Apache Spark
Java

3 ans
10k-60k €
Île-de-France, France

[Contexte] Pour répondre aux enjeux de la gestion des risques structurels (Liquidité et taux), la Feature Team Garliq International Entities (GIE) a bâti une plateforme ALM : GARLIQ autour du progiciel FusionRisk de Finastra. Elle répond à un double objectif : permettre aux acteurs des métiers ALM au sein des entités du groupe de calculer les métriques utiles à la gestion des risques et produire les données pour le reporting au niveau groupe. GIE assiste fonctionnellement et techniquement ses utilisateurs de plus en plus nombreux. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique [La prestation consiste à contribuer à/au(x)] - La transformation bigdata (Lucid interne SG) / devops (cloud interne SG) / depuis une solution legacy VM AIX, linux, base oracle sur du code C++, shell, SQL principalement. Environnement technique : Java / Spring. Environnement : anglophone et francophone.

Freelance

Mission freelance
88939/DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes

WorldWide People
Publiée le
Apache Kafka
Hadoop
Spark Streaming

4 mois
390-410 €
Nantes, Pays de la Loire

DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV),

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

Freelance
CDI

Offre d'emploi
Tech Lead Java Spark référence

Digistrat consulting
Publiée le
Java

36 mois
10k-60k €
Paris, France

💼 Poste : Tech Lead Java Spark référence 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite mettre en œuvre le volet transformation du système d'information du programme d'amélioration du dispositif de pilotage et de certification de l'assiette risques structurels dont les objectifs sont : Amélioration et accélération de la constitution de l'assiette risques structurels La certification de cette assiette risques structurels cohérente comptable Renforcer la remédiation en termes de qualité de donnée et réduire le nombre d'ajustements manuels Notre client souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre notre client souhaite bénéficier de l'expertise du Prestataire en termes de conception et développement. Dans ce cadre, la prestation consiste à contribuer à/au(x): L’instruction et le cadrage technique des projets, L’implémentation de solutions techniques en méthodologie agile Environnement technique : Java (Spark est un gros plus, Python est un plus) Devops : Ansible, Jenkins, GitHub Actions, Sonar, Artifactory Big Data & Cloud : Cloudera CDP, Apache stack (HDFS, Oozie, Yarn) Data : Oracle DB, PostgreSQL, Hive, Elastic Search, REST APIs Livrables attendus Les livrables attendus sont : Notes de cadrage techniques Spécifications techniques Support et développement sur toutes les releases 2024-2025 🤝 Expertises spécifiques : Agile Scrum Ansible Artifactory Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Elastic Search & Kibana Hive Java Jenkins Oracle Database Enterprise Server PostGreSQL REST Scripting (GuitHub, Ansible, AWX, shell, vba) Sonar

CDI
Freelance

Offre d'emploi
Développement Java/Spark

Lùkla
Publiée le
Apache Spark
Azure
Java

3 ans
50k-65k €
Île-de-France, France

Activité du client : Secteur bancaire Poste : Développeur Java/Spark Séniorité : à partir de 12 ans d'expériences Bac +5 Maîtrise de l'anglais (aisance orale exigée) Développement d'une application en JAVA Environnement technique : - Java - MS Azure - Spark -AKS & EventHub Est un plus : - Scala - Python

371 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous