Trouvez votre prochaine offre d’emploi ou de mission freelance Scala à Lyon
Data engineer Spark Scala Cloud AWS (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer Spark Scala Cloud AWS (H/F) à Lyon, France. Contexte : Fonctionnement : 2 jours télétravail + 3 jours présentiel à Lyon Les missions attendues par le Data engineer Spark Scala Cloud AWS (H/F) : Projet : Mise en œuvre de flux data (ingestion, stockage, transformation, mise à disposition) dans leur Datalake. Amélioration continue des produits / solutions de l'équipe Construction nouveaux usages Développement, Intégration et Recette technique Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en ouvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. 2j de TT par semaine Bonne compréhension de l’anglais car même si l’équipe est francophone, il y a un américain et parfois certains dailys seront en anglais.
Développeur Data Spark (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Data Spark (H/F) à Lyon, France. Contexte : Analyser et cartographier, avec les experts métiers et l'équipe de développement, le pipeline de données actuel : les modèles de données des différentes base de données utilisées; les flux de données qui existent entre les différentes sources de données (lignage des données); les règles de validation, de filtrage de calcul actuellement en place lors des transferts de données Assister les architectes dans la définition du nouveau pipeline de données en s'appuyant sur les service cloud Appuyer l'équipe de développement dans la réalisation de la nouvelle solution : Mise en place en place de la solution et des bonnes pratiques associées ; Culture du data engineering ; Expertise sur l'outillage data mise en place (ETL, base de données, Spark, Glue) Les missions attendues par le Développeur Data Spark (H/F) : Expertise dans l'outillage de stockage des données (base de données, fichiers) et le traitement des données (ETL, Spark) Expertise Spark, quelque soit le langage de prédilection (Java, Scala, Python) Maitrise des bonnes pratiques de développements et de la mise en oeuvre des outils liées à la data Maîtrise des technologies du Big Data, des problématiques liées à la volumétrie et aux performance Maîtrise des outils de gestion de code (Git) et de déploiement projet (Terraform) Une séniorité globale supérieure à 10 ans est attendue sur ce poste Plusieurs expertise significatives dans l'analyse de données et la mise en place de pipelines qu'ils soient de type batch/ETL ou événementiel/streaming
Lead Data (H/F)

Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Dividendes intra-groupe - Consolidation - Intégration proportionnelleil y a 2 heures
- A la recherche urgente d'un stage !il y a 2 heures
- Fonctionnement de Free-Work ?il y a 3 heures
- Idemnités kilométriques et repas midiil y a 14 heures
- Pénurie des offres freelances !il y a 21 heures
- Majoration de TVA causée par non télérèglementil y a 2 jours