Trouvez votre prochaine offre d’emploi ou de mission freelance Scala à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Consultant BI (ETL + Scala)

Au sein de la DSI d’une plateforme de financements, nous gérons les systèmes d’information du métier Affacturage et pilotons les évolutions du SI. Dans le cadre d’un projet de refonte, nous recherchons un Consultant BI Analytics pour enrichir une plateforme décisionnelle et assurer la mise en place de nouveaux indicateurs et reportings. Vos principales missions seront : Maintenir en conditions opérationnelles les applications décisionnelles (suivi de production). Participer aux travaux d'intégration et de recette technique. Modéliser les solutions techniques pour les indicateurs décisionnels. Développer les traitements d’alimentation des systèmes décisionnels (ETL) et des scripts SQL en cohérence avec l’existant. Mettre en place et optimiser les traitements d’alimentation du datahub. Respecter les normes de développement et assurer le déploiement des composants. Fournir un support technique en phase de recette et de mise en production. Rédiger et mettre à jour les spécifications détaillées et la documentation associée. Participer aux ateliers de conception avec les Business Analysts et les équipes métiers.
Tech Lead GCP BigQuery Spark Scala API

Notre client bancaire recherche un consultant Tech Lead GCP (H/F) pour renforcer l'équipe au sein de laquelle preste déjà des consultants de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données avec des projets novateurs. Tâches et activités de la mission (non exhaustives) : - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels. Environnement GKE : - Développement d'API REST - Stockage : HDFS / GCS - Planification : Airflow / Composer - Méthodologies : Scrum, Kanban, Git - DWH : SQL, BigQuery, BigTable - Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build
Développeur java / scala (finance)
Nous recherchons pour notre client basé sur Paris un développeur Java Scala Niveau d'expérience: 8-9 ans d’expérience - Moins de 10 ans - Il y a beaucoup de Scala donc cherche un profil Java avec envie de faire du Scala - Bdd : NMSQL / Hive – base de données relationnelles aussi - Contrainte de performance, de volumétrie, bonne maitrise multithreading, problématique de performance Expérience obligatoire en BFI - Hadoop - Bdd : Hive – base solaire orienté document - Peu d’IHM - Grille de calculs Datasynaps - Grid Gain (version éditeur d’Apache – Tomcat …) - Power BI (pour faire des environnements de qualification, pour automatiser des traitements et pour le suivi de prod) - Tout est développé en Scala – sauf sur le Datasynaps c’est en C++ - et un tout petit peu de C# - REST / XML / Json - Orienté en Safe Démarrage ASAP
Consultant (H-F) Data Engineer

Dans le cadre de la modernisation de ses plateformes Data, notre client recherche un Data Engineer confirmé pour intervenir au sein de la Squad Socles-Data . Vous interviendrez sur le MCO de la plateforme Data Hub actuelle (DH V1) et participerez activement à la co-construction du nouveau Data Hub (DH V2) avec l’IT Groupe. Vos missions couvriront un large spectre d’activités allant du développement à l'accompagnement des équipes utilisatrices : Conception, développement et tests de composants logiciels orientés Data. Définition et mise en œuvre de flux d’intégration de données. Formalisation des cas d’usages, rédaction des guides d’utilisation. Optimisation de la performance et de la qualité logicielle. Support technique, accompagnement et expertise auprès des équipes métiers et IT. Vous contribuerez également à la définition des bonnes pratiques et à la migration des cas d’usage vers le nouveau Data Hub V2 dans le Cloud privé du client.
CONSULTANT CYBER HOMOLOGATION OT

Nous recherchons un Consultant Cyber Homologation OT pour accompagner nos clients dans la sécurisation et l’homologation de leurs infrastructures industrielles. Vous interviendrez sur des projets critiques dans des secteurs comme l’énergie, les transports, la santé ou l’industrie. 🔹 Vos missions ✔️ Réaliser des analyses de risques sur les systèmes OT (SCADA, ICS, PLC...) ✔️ Évaluer la conformité aux normes et réglementations (IEC 62443, NIST 800-82, ANSSI, etc.) ✔️ Accompagner les clients dans la mise en œuvre des mesures de cybersécurité ✔️ Rédiger les dossiers d’homologation et assurer le suivi des recommandations ✔️ Mener des audits techniques et organisationnels ✔️ Sensibiliser et former les équipes à la cybersécurité OT 🔹 Profil recherché 🎓 Formation : Bac+5 en cybersécurité, informatique industrielle ou équivalent 💡 Expérience : 3 à 5 ans en cybersécurité OT ou IT/OT 🛠 Compétences techniques : ✅ Maîtrise des normes et standards de cybersécurité OT (IEC 62443, ISO 27001, ANSSI EBIOS RM) ✅ Bonne connaissance des systèmes industriels (SCADA, ICS, automates) ✅ Expérience en gestion des risques et audits
Data Engineer

Poste : Nous recherchons un Data Engineer (H/F) afin de renforcer notre pôle AI Experts qui intervient sur des sujets impactant directement notre business et l'expérience client, afin d'optimiser la personnalisation, le taux de conversion et les assets. Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise.
Data Engineer Databricks Sénior

Nous recherchons un Data Engineer Databricks Sénior avec une expérience minimale de 5 ans. Le contexte : Migration des traitement Apache Spark/Scala du datalake depuis une plateforme AKS/Airflow vers Azure Databricks et mise en place de nouveaux pipelines Organisation et suivi des migrations des projets depuis AKS vers Databricks Audit du patrimoine applicatif et organisation de chantiers de refactorisation pour améliorer la résilience et les performances des applications Homogénéisation des pratiques de développement au sein du service (mise en place TU, process de code review, mise en place d’outils de code quality ...) Suivi et résolution de failles de sécurité Elargissement de l’utilisation des services Databricks par les projets (Unity Catalog, migration parquet vers delta, workflows ...) Maitrise DevOps Maitrise de Spark / Scala / Databricks & AZURE sont indispensables 2 ans d'expérience minimum dans le même environnement technique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- SASU à l'IR ou EURL à l'ISil y a une heure
- Frais kilométriques gonflésil y a 3 heures
- DeepL pour les freelances IT : un bon choix ?il y a 4 heures
- Questionnement Client final /Apporteur d'affaires / Salarié portéil y a 7 heures
- Question impôtil y a 7 heures
- SASU IR : Hiway et versement résultatsil y a 8 heures