Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 résultats.
Freelance
Stage

Senior Data Engineer

Tenth Revolution Group

Nouvelle Opportunité de mission / Client Paris / Secteurs Réseaux sociaux __________ Stacks techniques requises : · GCP · BigQuery · DBT · Compose (Airflow) · Terraform · Amplitude Analytics · Spanner (base de données applicative) · Profil __________ Missions : · Construisez et gérez des pipelines de données robustes pour répondre aux besoins métier en constante évolution, garantissant ainsi un support architectural optimal. · Contribuez à la base de code, implémentez et maintenez vos modifications en production, et soyez un fervent défenseur des bonnes pratiques de codage et d'ingénierie des données. · Assurez-vous de la responsabilité des projets, des discussions initiales à la publication, y compris l'estimation et la définition du périmètre des fonctionnalités, la conception de l'architecture, l'analyse comparative des nouvelles technologies, les retours produits… · Travailler dans un environnement très agile avec un processus de décision rapide. · Collaborez directement avec les équipes de développement back-end, de science des données, de jeux mobiles, d'applications mobiles grand public, de produits et de marketing.

Démarrage
Durée 1 jour
Salaire 40k-45k €⁄an
TJM 170-610 €⁄j
Télétravail Télétravail 100%
Lieu Paris, France
Freelance
CDI
CDD

Senior Data engineer - Cloud Azure

HIGHTEAM

Dans ce cadre , la prestation consiste à contribuer à : - L'intégration des cas d’usages Datalake dans le SI avec l'Architecture Techniques - Identifier et prévenir les risques éventuels de dérapages en terme de coûts et de délais afin de mitiger le risque identifié - Développement et Implémentations des collectes de données, des jobs de traitement et Mapping de données (Spark/Scala/SparkSQL) - Développement des moyens de restitution via génération de fichier et ou API & Dashboarding ( Java Spring Batch/Boot, rest API, Postgres) - A l'amelioration de la chaîne de livraison continue ( Jenkins, Sonar, Nexus , Kubernetes) - Mise en place de la revue de code avec l'entité - Initiatives projet sur la migration Azure Avec l'Architectures Techniques dans les choix d'implémentation au sein du SI, la prestation consistera à contribuer à/au(x) : - Préconisations en termes d'architecture big data - Mise en place des moyens techniques en conformité avec les lignes directrices fixées par les métiers, les normes et standard SG - La garantie de la qualité et de la maintenance technique du produit - Bon fonctionnement de la stratégie de test du produit - La veille technique

Démarrage Dès que possible
Durée 3 ans
Télétravail Télétravail partiel
Lieu Île-de-France, France
CDI

Senior Data Engineer-H/F

Twenty One Talents

Nous recherchons un Senior Data Engineer expérimenté pour concevoir, optimiser et déployer des infrastructures data modernes et performantes. Vos missions principales : Développer et optimiser des modèles de données et des pipelines de traitement pour assurer la scalabilité et la performance des solutions. Tester et intégrer des technologies innovantes pour améliorer continuellement nos capacités en matière de data engineering. Traduire les enjeux business en solutions techniques adaptées et accompagner les clients dans la structuration de leurs projets data. Encadrer et coacher des consultants juniors, en jouant un rôle clé dans la montée en compétences de l’équipe.

Démarrage Dès que possible
Salaire 50k-65k €⁄an
Lieu Paris, Île-de-France
Freelance
CDI

Data Engineer

ematiss

Mission context : The Senior Data Engineer, with the help of the other members of the team, will work on the integration of data. Based on the requirements, he will transpose the business needs to solid and integrated data into the platform. Function description : The Senior Data Engineer, with the help of the other members of the team, will work on the integration of data. Based on the requirements, he will transpose the business needs to solid and integrated data into the platform. Your main objectives are: • To prototype the solution in order to support the business validation • To design and develop the “logical” and “physical” data models and data stores, and to industrialise the feeding and deliveries from the integrated data stores (datawarehouse, datamarts, data sets)… • To streamline these data pipelines across the enterprise, for maximum usage throughout the company or business/function Language requirements : Dutch : Fluent in either Dutch or French, with a good understanding of the other language French : Fluent in either Dutch or French, with a good understanding of the other language English : Good level, both written and spoken Education : You have at least a Master’s degree in a quantitative discipline, such as statistics, mathematics or engineering (a PhD is considered an advantage). Candidates with other academic backgrounds with substantial knowledge of analytics are also encouraged to apply). Telework : Expectation: 50% on site & 50% homeworking Required experience / Knowledge : Technical experience : • Data modeling • ETL development • Scheduling of jobs • SQL Server DB management • SQL language ( transactional and scripting) • SAS Entreprise Guide or Sas Base ( is a must) • Microsoft office Business experience : • Knowledge of a bank environment is a plus Soft skills : Team player Quick self-starter, pro-active attitude Good Communication and Influencing skills Good analytical and synthesis skills Autonomy, commitment and perseverance Ability to work in a dynamic and multi-cultural environment Open minded Problem solver

Démarrage Dès que possible
Durée 6 mois
Télétravail Télétravail partiel
Lieu Bruxelles, Bruxelles-Capitale, Belgique
Freelance

Senior Data Analyst / Fin Ops H/F

Streamlink

Streamlink propose des solutions sur mesure et innovantes sur l’ensemble du cycle de développement des solutions Data, CRM / SAP, Dév & APPS, Cybersécurité, Cloud & infrastructures. Grâce à un réseau d’excellence à travers le Monde, basé entre Tunis (Tunisie) – Paris (France) – Port Louis (Maurice) , Streamlink favorise l'innovation digitale de ses clients. Streamlink, un environnement très agile et en forte croissance recherche pour un client dans le secteur BFA un Senior Data Engineer - Lead / Dev Lead Pyspark / Fin Ops Prestation attendues : • Analyser et cartographier, avec les experts métiers et l'équipe de développement, le pipeline de données actuel : les modèles de données des différentes base de données utilisées; les flux de données qui existent entre les différentes sources de données (lignage des données); les règles de validation, de filtrage de calcul actuellement en place lors des transferts de données • Assister les architectes dans la définition du nouveau pipeline de données en s'appuyant sur les service cloud • Appuyer l'équipe de développement dans la réalisation de la nouvelle solution : Mise en place en place de la solution et des bonnes pratiques associées ; Culture du data engineering ; Expertise sur l'outillage data mise en place (ETL, base de données, PySpark , Glue) • Être un métronome de l'agilité Compétences Techniques : • Catalogue des données consommées et produites et des règles de transformation associées • Solution pour alimenter Pluri en données provenant de plusieurs SI partenaires Compétences techniques requises : • Expertise dans l'outillage de stockage des données (base de données, fichiers) et le traitement des données (ETL, Spark) • Expertise Spark, quelque soit le langage de prédilection (Python, Scala , Python). • Maitrise des bonnes pratiques de développements et de la mise en oeuvre des outils liées à la data. • Maîtrise des technologies du Big Data, des problématiques liées à la volumétrie et aux performances • Maîtrise des outils de gestion de code (Git) et de déploiement projet (Terraform) • Connaissance de DataBricks • Connaissance du cloud Azure Savoir Faire: • Esprit analytique, rigueur et aisance relationnelle • Appétence et curiosité pour les nouvelles technologies, le Système d’Information et l’Agilité. Expériences professionnelles requises : • Plusieurs expertise significatives dans l'analyse de données et la mise en place de pipelines qu'ils soient de type batch/ETL ou événementiel/streaming • Mise en oeuvre des outils disponibles dans le cloud AWS pour stocker et traiter de la données: Glue, Spark, Airflow, RDS, OpenSearch, S3 Parquet Ce poste est ouvert aux personnes en situation de Handicap

Démarrage Dès que possible
Durée 1 an
TJM 490-650 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous