Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 233 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data Engineer

Focus Cloud Group
Publiée le
BI
Big Data
ETL (Extract-transform-load)

10k-99k €
Lyon, Auvergne-Rhône-Alpes

Data Engineer, FULL REMOTE 😊, CDI Opportunité attractive pour un(e) Data Engineer spécialisé(e) en rejoindre notre final, startup et étoile montante montant de la donnée qui développe sa solution de gestion et d’exploitation de la data Vous rejoindrez une entité à taille humaine hautement performante et agile où vous prendrez part au delivery de projets de grande ampleur. Missions principales : Recueillir du besoin métier Développement des flux ETL. Accompagnement des clients dans la mise en place de la solution éditée Support client

CDI
Freelance

Offre d'emploi
Data Engineer Python / SQL / Azure

Signe +
Publiée le
Azure
Big Data
engineer

24 mois
25k-30k €
Rennes, Bretagne

Profil : Experienced Data Engineer • good technical skills o Python 3.7, o Flask/Fast API (Librairie API pour python), o SQL o Modelisation (MCD, MLD, MPD) , o Azure Functions, Azure Tables, Azure Data Explorer, o API Rest / API Management. • Technical specifications and OPEN API Specifiction writing • Functionnel Specification writing Activités : Specification, Development, Correction d'anomalies.

Freelance

Mission freelance
Data Engineer 2

KEONI CONSULTING
Publiée le
Azure
Jenkins
Méthode Agile

12 mois
100-450 €
Lyon, Auvergne-Rhône-Alpes

Contexte de la mission : LA DSI du client final a mis en place une Data Plateforme pour faciliter la mise en œuvre des projets Data. Elle souhaite aujourd’hui mettre en place en son sein une équipe d’experts compétents pour développer les projets Data et la piloter directement. MISSIONS : Participation aux ateliers de conception technico-fonctionnels Prise en charge des activités de développement, écriture du code Remontée d’informations aux équipes de pilotage Participation aux stand-up daily et autres cérémonies agiles Échanges techniques avec les autres Data engineer et développeurs Chiffrage et réestimation du reste à faire au fil des développements Développement des fonctionnalités en respectant les bonnes pratiques définies Développement des tests automatisés (TU/TI) Correction des anomalies fonctionnelles et/ou techniques Participation aux différentes communautés techniques

Freelance
CDI

Offre d'emploi
Data Engineer H/F

Atlanse
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

3 ans
10k-62k €
Châtillon, Île-de-France

Analyser des données en temps réel avec Azure Stream Analytics Collecter des données via des flux entre les bases de référence et Azure Afficher des données entrantes avec Event Hub Développer des programmes en Spark Scala Créer un pipeline Azure Data Factory pour exécuter Databricks notebook afin de traiter les données Traiter en batch des données Stocker des données dans le Datalake Azure Créer des projets et stocker du code sur Azure DevOps Réaliser la documentation avec Confluence (source des données, technos utilisées : Databricks, Azure Data Factory, Azure DevOps..., destination des données, stockage, monitoring…)

CDI

Offre d'emploi
Data Engineer F/H

VIVERIS
Publiée le

40k-50k €
Lille, Hauts-de-France

Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans le cadre de nos priorités stratégiques DATA, nous cherchons un Data Engineer expérimenté. Vos missions et responsabilités : Au sein d'une équipe de 3-4 personnes, vous développez un produit basé sur les technologies et modules Google Cloud Platform permettant de consolider, intégrer et exposer les données de l'ensembles de nos entités et diffuser certains reportings communs aux différentes entités du groupe. Pour cela, vos missions sont : - Traitement d'activités de support / maintenance corrective ; - Analyse et cadrage technique des différents besoins ou problématiques remontées par les Bus ; - Réalisation et maintien de la documentation technique du produit (Spécification technique, dossier d'architecture, etc...) ; - Réalisation des développements du produit (Modules GCP, Terraform, Python, BigQuery) ; - Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops)) ; - Appliquer les normes de qualités définies pour le groupe.

CDI

Offre d'emploi
Data Engineer (H/F)

ADSearch
Publiée le

50k €
Nice, Provence-Alpes-Côte d'Azur

En bref : Nice- CDI - Data Engineer Talend (F/H) - Salaire selon expérience - Télétravail Adsearch, cabinet de recrutement basé à Nice vous accompagne dans votre carrière pour vous trouver LE poste idéal. Je recrute pour un client un Data Engineer Talend (F/H) basé à Nice. Vos missions : Cadre du besoin Implémentation des solutions BI - Talend Rédaction des spécifications techniques et fonctionnelles Modélisation des systèmes décisionnels Optimisation et monitoring Adsearch vous propose des milliers d''opportunités de carrières dans toute la France pour les profils d''experts, cadres et managers. Que ce soit pour un emploi ou pour une mission, Adsearch c''est le cabinet de recrutement qu''il vous faut ! Retrouvez toutes nos offres d'emploi en CDI, CDD, Intérim et Freelance sur notre site internet !

CDI
Freelance

Offre d'emploi
Data engineer

Datapy Group
Publiée le
AWS Cloud
PySpark

3 ans
35k-79k €
Maisons-Alfort, Île-de-France

En tant que Data Engineer, vous serez responsable du socle de pilotage, des prévisions et de l'analyse financière de notre entreprise. Vous jouerez un rôle clé dans la gestion et l'optimisation des outils de projection budgétaire et de contrôle de gestion. Vos missions principales incluront : Gestion et optimisation des outils de projection budgétaire et de contrôle de gestion. Travail sur divers aspects financiers tels que les produits, les opérations, la comptabilité, les risques, la trésorerie et le pilotage. Participation à la refonte de notre système legacy vers une infrastructure cloud moderne sur AWS. Collaboration avec les équipes pour développer et maintenir des solutions de données performantes et sécurisées.

Freelance

Mission freelance
Data Engineer F/H

CELAD
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
480 €
Paris, France

Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients du secteur bancaire. Contexte / Objectifs : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : d’ingestion de données, de validation de données, de croisement de données, de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels

Freelance

Mission freelance
Data Engineer (Snowflake)

Cherry Pick
Publiée le
Snowflake

10 mois
540-570 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer (Snowflake) Pour un client du secteur du Retail. Objectif et Livrables Dans le cadre de notre projet d'optimisation des données pour un client du secteur du retail, nous recherchons un Data Engineer Freelance. L'objectif principal est de mettre en place une plateforme de données basée sur Snowflake et d'implémenter DBT (Data Build Tool) pour améliorer l'intégration et la transformation des données. Objectifs : Concevoir et déployer une plateforme data sur Snowflake. Implémenter DBT pour automatiser les pipelines de transformation de données. Assurer l'intégration des différentes sources de données retail dans la nouvelle plateforme. Collaborer avec les équipes internes pour optimiser les performances et la sécurité des solutions mises en place. Documenter les processus et former les équipes internes à l'utilisation de Snowflake et DBT. Livrables : Plateforme data opérationnelle sur Snowflake. Pipelines de transformation de données automatisés avec DBT. Documentation complète des configurations et des processus. Formation des équipes internes à l'utilisation et à la maintenance des outils déployés.

Freelance

Mission freelance
Data engineer confirmé

Kaïbee
Publiée le
Hadoop
PostgreSQL
Python

1 an
100-600 €
Paris, France

En tant que Data Engineer, vous jouerez un rôle clé dans la conception, le développement et la maintenance de pipelines de données robustes et évolutifs. Vous travaillerez en étroite collaboration avec les équipes de data scientists et d’analystes pour garantir la disponibilité et la qualité des données. Vos missions principales : • Concevoir et développer des pipelines ETL (Extract, Transform, Load) pour ingérer et transformer des données provenant de diverses sources. • Gérer et optimiser les bases de données relationnelles et non relationnelles, notamment PostgreSQL et Teradata. • Développer et maintenir des solutions Big Data sur Hadoop et Spark pour traiter de grands volumes de données. • Programmer en Python, R et Scala pour automatiser les flux de données et les tâches de traitement des données. • Intégrer les processus de gestion de version et d’intégration continue avec Git, GitLab CI et Bitbucket. • Utiliser Ansible pour automatiser les déploiements d’infrastructure et la gestion des configurations. • Collaborer avec les équipes en utilisant des outils de gestion de projet et de documentation tels que Jira, Confluence, et Bitbucket. • Participer à l’amélioration continue des processus de traitement des données et à l’optimisation des performances.

Freelance

Mission freelance
Data Engineer / Dataiku

KI ANALYTICS
Publiée le
Azure Data Factory
Dataiku
ETL (Extract-transform-load)

6 mois
500-620 €
Paris, France

Dans le cadre du déploiement d'un plan de transformation stratégique pour accompagner la croissance du groupe et sa transformation digitale principalement basée sur l'usage des données. Le département Data Solutions a été créée pour mettre en œuvre certains projets stratégiques clés pour le Groupe autour de ces offres en Data Ingestion, MDM, Data Analytics et Machine Mearning. Certains projets déployés sur l'ancienne infrastructure du groupe doivent être migrés dans la nouvelle infra Cloud (Azure I CDP). Le pole Data Ingestion cherche à renforcer son équipe avec un développeur Dataiku expérimenté pour prendre en charge les développements ETL dans le cadre de la migration / évolution d'une application analytique dédiée au pilotage commercial des grands comptes clients du groupe.

Freelance

Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka

Signe +
Publiée le
Apache Hive
Apache Kafka
Big Data

24 mois
175-200 €
Nantes, Pays de la Loire

Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi

Freelance
CDI

Offre d'emploi
Data Engineer Python

Digistrat consulting
Publiée le
API
Python

3 ans
40k-60k €
Paris, France

Contexte : Une bonne gestion des risques, combinée à la stabilité que procure le fait d'appartenir à l'un des plus grands groupes bancaires au monde, sont à la base de notre succès. La mission fera partie d'une équipe dynamique qui couvre toutes les nationalités, toutes les cultures et tous les milieux, rassemblant des personnes du monde entier et reflétant notre engagement envers les stages internationaux. Aperçu du département : l'équipe est chargée de s'assurer que le personnel du Front Office, du Trading et des Ventes agit conformément aux règles réglementaires et de conduite internes. Après avoir démarré leurs opérations avec des outils développés par les utilisateurs, ils envisagent maintenant d'industrialiser ces outils, afin de les déployer auprès d'une base d'utilisateurs mondiale, et de les étendre afin qu'ils couvrent toutes les classes d'actifs. De plus, l'équipe cherche également à tirer parti des dernières tendances numériques, à intégrer l'analytique et l'IA, et à obtenir une image holistique du risque de conduite couvrant les communications électroniques, les ordres, les transactions et d'autres sources d'informations pertinentes. Les priorités pour 2024-2025 sont les suivantes : - Pour soutenir la surveillance actuelle de RedOwl E-Comms/Voice au sein des régions EMEA et APAC - Développer et déployer l'outil de surveillance eComm/aCpùù à l'échelle mondiale, couvrant au moins les classes d'actifs suivantes au sein des marchés mondiaux : Global Macro, Global Credit, Global Equities. Intégrer les principaux développements liés aux données des employés et des communications électroniques dans la plateforme de surveillance. Travailler en mode « agile » en très étroite collaboration avec les utilisateurs métiers, en visant des livraisons précoces d'un maximum de fonctionnalités, afin que nos délais réglementaires très serrés puissent être respectés.

Freelance
CDI

Offre d'emploi
Data Engineer Finance

VISIAN
Publiée le
Agile Scrum
Ansible
Apache Airflow

2 ans
10k-65k €
Charenton-le-Pont, Île-de-France

Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

Freelance

Mission freelance
Data Engineer Senior (Pyspark)

Cherry Pick
Publiée le
AWS Cloud
Databricks
PySpark

12 mois
450-480 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineering Senior pour un client dans le secteur de l'énergie. Missions : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Connaissance sur MLOps est un plus Le contexte de la mission est de renforcer une équipe de Data engineer à Paris avec 2jours de Télétravail. Mission Longue pour un profil confirmé

Freelance

Mission freelance
Data Engineer - BI - Paris

CTG
Publiée le
Big Data
Data visualisation
Méthode Agile

4 mois
100-510 €
Paris, France

Dans le cadre de notre activité de maintenance corrective et évolutive sur le périmètre Gestion des risques, la mission a pour objectif la réalisation de traitement ETL visant à alimenter un entrepôt de données et de datamarts, ou à extraire des listes de dossiers destinés aux centres de gestion. Afin de réaliser correctement cette mission, il est indispensable que vous ayez une bonne capacité d'analyse : un travail d'appropriation des spécifications, portant principalement sur le domaine des données de santé, et des échanges nourris avec les équipes fonctionnelles sont nécessaires pour bien appréhender les besoins et attentes de conception technique : afin d'optimiser les chaines de traitement. Compétences requises : - Bonnes connaissances des concepts décisionnels (grands principes, modélisation en étoile...) - Développement via un outil ETL : xDI Semarchy est l’outil d’entreprise ou expertise sur un autre outil du marché (Informatica, Datastage, ODI...) sous couvert d’avoir suivi a minima la formation de l'éditeur sur l'outil xDI. Compétences supplémentaires souhaitées : - Dataviz : Conception / développement de rapport Power BI / Report Builder - Une expérience dans le domaine de la mutualité - Utilisation de chaines CI/CD (Gitlab, Cloudbees) - Expérience en méthode agile (Scrum ou Kanban)

233 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous