Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 660 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Lead Data Engineer

EMGS CONSULTING
Publiée le
ETL (Extract-transform-load)
Python
Snowflake

6 mois
500-550 €
Bordeaux, Nouvelle-Aquitaine

En tant qu'ingénieur DataOps au sein de la DSI, vous apporterez votre expertise technique pour la mise en place et l'évolution de la stack data. Vous serez à l’écoute des besoins techniques de nos clients et adapterez les processus, outils, codes et plateformes pour y répondre au mieux. Vos principales missions incluront : Concevoir des architectures data en appliquant les principes de l'agilité, de l'intégration continue et du déploiement continu, tout en anticipant les besoins de scalabilité. Contribuer à l'optimisation des coûts dans une démarche FinOps. Former les data engineers aux outils de la stack data. Mettre à disposition des outils pour faciliter le développement et le monitoring. Effectuer une veille technologique sur les architectures data. Superviser l'industrialisation des déploiements d'applications en suivant les bonnes pratiques CI/CD. Présence sur site obligatoire : lundi, mardi, jeudi.

Freelance

Mission freelance
Consultant Data Engineer

Hexagone Digitale
Publiée le
Databricks
DevOps
Jenkins

6 mois
410-530 €
Paris, France

Nous recherchons un(e) Data Engineer qui construira, livrera et maintiendra des produits de données (pipelines de données, services, API...). Data engineer technologies obligatoires utilisées pour le développement : - Databricks pour le pipeline de données - Fonderie Palantir pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroit collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à : -Pipeline de données au sein ou entre plusieurs produits -Capacités analytiques et d'entreposage pour l'exploration de données, la science des données, la BI -Calcul parallèle sur de gros volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance, de la documentation des artefacts ou des fonctionnalités de données (pipelines de données, services de données, API...) selon des modèles de l'état de l'art (architecture médaillon, gitflow) Le Data Engineer doit : -Être orienté vers la résolution de problèmes avec une forte pensée analytique -Être autonome et rigoureux dans la façon dont il/elle aborde les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec diverses parties prenante

Freelance
CDI

Offre d'emploi
Data Engineer - Développement Python/SQL orienté Data

Digistrat consulting
Publiée le
Python
SQL

3 ans
35k-45k €
Paris, France

Contexte: Environnement technico-fonctionelle en finance de marché. Cette équipe est en charge: - d'assurer la transparence au sein des marchés mondiaux en stockant, collectant et centralisant les données pre-trade de trading. - de mettre en oeuvre une stratégie complète de gestion des données à l'échelle mondiale. - de produire de multiples reporting pour différents besoins internes, notamment réglementaires. La mission se concentre autour du développement et maintien d'un outil de détection d'abus de marché développé en interne à l'aide du langage de programmation Python.

Freelance
CDI

Offre d'emploi
Data Engineer Python/Spark

VISIAN
Publiée le
Apache Spark
Informatica
PySpark

2 ans
10k-70k €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.

Freelance

Mission freelance
Data scientist - Pyspark et Python

Mon Consultant Indépendant
Publiée le
Big Data
Data science
PySpark

6 mois
300-410 €
Paris, France

A propos du client : Secteur : Banque Ville du client / employeur : Paris et région parisienne Précision lieu : Type : Grand groupe Taille : > 1000 salariés Description de l'offre : Pour un client bancaire nous cherchons un profil data scientist sachant impérativement maîtriser Pyspark et Python (Maîtrise avancée). Le rôle est d'être responsable du pilotage technique et de l'enrichissement des algorithmes des scénarios de lutte contre le blanchiment et le financement du terrorisme. Ces scénarios servent à détecter de smouvements de compte suspects. Pour cela il faut : -développer des algorithmes robustes -identifier et intégrer de nouveaux critères -améliorer avec des critères la prédictibilité des modèles -identifier les résultats incohérents pour fiabiliser les modèles -auditer la qualité des données qui sont prises en compte dans les scénarios -travailler avec l'équipe métier -être force de proposition pour intégrer de nouvelles technologies si pertinentes Critères de candidatures Critère 1 : Python Critère 2 : Pyspark Critère 3 : Big Data

CDI

Offre d'emploi
Data Engineer

DPC
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

10k-45k €
Île-de-France, France

Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.

Freelance
CDI

Offre d'emploi
Data Engineer expérimenté assurance vie

CAT-AMANIA
Publiée le
Data analysis
ETL (Extract-transform-load)
Pentaho

12 mois
10k-42k €
La Défense, Île-de-France

Nous recherchons pour notre client filiale d'un grand groupe bancaire, pour une mission longue durée un data engineer (débutant accepté) avec une première expérience dans l'assurance vie. Sur ce poste vous aurez pour rôle de: Gérer et assurer l'analyse des données au sein d'un infocentre back office. assurer le support et la compréhension d'incidents entre le métier et la production au quotidien Mise en place de requête SQL complexes et paramétrage de l'ETL PENTHAO (formation avec l'équipe) au service du métier (MOA) Rédaction, correction de script shell UNIX (.sh, .KSH) 1ere connaissance de l'environnement de l' assurance-vie OBLIGATOIRE.

CDI

Offre d'emploi
Data Engineer Sénior

Oceane consulting
Publiée le
Apache Spark
AWS Cloud
Azure

10k-60k €
Paris, France

Missions: · Développement Scala/Spark · Maîtrise de l’environnement technique (AWS Databricks, AWS S3) · Expériences sur la Qualité logicielle (revue de code ; conformité aux critères de qualité SONAR, tests automatisés) · La connaissance de Power BI (Azure) est un plus -Les compétences fonctionnelles attendues sont les suivantes : · Méthode Agile · Expérience sur des projets de technologies similaires · Connaissance du domaine Data · Expérience de travail sur des projets en équipe, (notamment savoir solliciter son écosystème au bon moment)

CDI

Offre d'emploi
Data Base Administrator Talend (H/F)

Randstad
Publiée le
Data management
Talend

55k €
Marseille, Provence-Alpes-Côte d'Azur

Nous recherchons pour le compte de notre client spécialité dans l'énergie un Data Base Administrator Talend (H/F) habilitable secret défense en CDI à Marseille. Conception de bases de données : - Effectuer les choix d'implémentation des bases de données dans le respect du cahier des charges et en collaboration avec les différents acteurs du projet (chef de projet, architectes, consultants ERP, experts « décisionnels » ...) - Concevoir, réaliser et optimiser l'architecture de la donnée du système d'information opérationnel - Participer à la conception et au développement de l'architecture de l'entrepôt de données décisionnel - Maintenir la documentation des schémas relationnels et non relationnels - Proposer et suivre les optimisations des requêtes SQL et no SQL afin de garantir les meilleures performances de nos applications métier - Assurer le support aux équipes de développement afin d'identifier et proposer des solutions performantes Gestion de la donnée : - Concevoir, développer et maintenir les flux de synchronisation entre nos différents systèmes avec notre outil ETL - Définir les templates, concevoir et réaliser les opérations d'import de données en masse - Support technique, assistance et observabilité - Participer aux corrections d'incidents, demandes d'évolutions des chefs de projet métier et assurer l'assistance utilisateurs de niveau 3 - Participer au déploiement de l'architecture applicative de microservices en adaptant le modèle de données historique - Suivre et gérer les performances des Bases Oracle et mongoDB - Assurer la veille technologique et traiter l'obsolescence technique

Freelance
CDI

Offre d'emploi
Skiils recherche son Expert data quality

skiils
Publiée le
Data management

12 mois
10k-98k €
Lille, Hauts-de-France

Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.

CDI

Offre d'emploi
Data Engineer PowerBi

Blue Soft
Publiée le

Genève, Suisse

Dans le cadre de notre développement et pour renforcer notre équipe de Genève, nous sommes à la recherche d'un·e Développeur·euse BI ayant de bonnes connaissances de PowerBI. Le premier client chez qui vous aurez à intervenir est une administration suisse. Contexte et mission principale du poste : Nous recherchons un·e Data Engineer PowerBI pour concevoir, réaliser et déployer des solutions décisionnelles. Supervisé·e par un responsable fonctionnel, vous conduirez ces activités dans le respect des processus en vigueur, des contraintes des systèmes et des bonnes pratiques d'architecture et de développement. Intégré·e à une équipe d'une dizaine de personnes, vous serez en charge de : 1. Chiffrer, analyser, concevoir, réaliser et maintenir les solutions décisionnelles mises en place sur la plateforme PowerBI pour garantir des résultats conformes aux exigences formulées (qualité, performance, délai et sécurité). 2. Accompagner les data analystes sur la mise à disposition des données et fournir l'expertise nécessaire à la modélisation et à la réalisation des analyses et tableaux de bord. 3. Participer à la gestion des incidents, des changements et des déploiements.

Offre premium
Freelance

Mission freelance
Data Engineer / cloud Azure - Distribution - IDF (H/F)

EASY PARTNER
Publiée le
Apache Spark
Azure
Databricks

6 mois
450-470 €
Paris, France

Nous sommes un acteur majeur de la distribution. Au cœur de notre stratégie de transformation numérique, notre département IT déploie un programme ambitieux de rénovation de notre Système d'Information centré sur la data et le cloud (Azure). Cette mission s'inscrit dans une démarche de structuration de notre Big Data et de nos solutions BI répondant aux besoins critiques de nos métiers. ▶️ Missions Développer et mettre en œuvre des solutions d'analyses Big Data. Analyser les besoins, réaliser des études d'impact et concevoir des solutions techniques innovantes. Concevoir et modéliser des données dans un Data Lake utilisant des formats optimisés. Construire et optimiser des pipelines de données. Développer des notebooks avancés pour le traitement des données. Participer au Cloud Datawarehousing, incluant tuning et optimisation SQL. Rédiger des documentations techniques. Être impliqué dans la revue de code et les tests unitaires. Assurer la maintenance et l'évolution des solutions. Contribuer à l'optimisation des processus de livraison en environnement DevOps. 🔦Stack technique À maîtriser Azure Cloud Databricks, Spark Langages : Scala, Python, SQL CI/CD, Azure DevOps Architecture Lakehouse => Environnement technique global Outils Agile, notamment JIRA Environnement DevOps

Freelance

Mission freelance
Data Engineer

Kaïbee
Publiée le
AWS Cloud
CI/CD
Python

6 mois
100-650 €
Paris, France

PAS DE SOUS TRAITANCE // MERCI Nous recherchons un Data Engineer pour renforcer une équipe technique dans un projet lié à la mesure et à l’optimisation énergétique. Vous collaborerez avec les Data Scientists et les équipes techniques pour concevoir et maintenir des pipelines de données robustes et sécurisés, en utilisant les meilleures pratiques cloud. Vos missions incluront : • Conception et déploiement de pipelines de données serverless (e.g., step function, Lambda, S3, Redshift) pour la gestion de données énergétiques en batch et en streaming. • Structuration des données en zones fonctionnelles sur S3 et optimisation des formats (JSON, Parquet) pour améliorer les performances et réduire les coûts. • Automatisation de workflows CI/CD/CT avec GitHub Actions pour assurer des déploiements continus, sécurisés et sans interruption. • Implémentation d’un monitoring avancé pour détecter les anomalies et garantir une maintenance efficace. • Sécurisation des données sensibles en respectant les normes de sécurité cloud. • Optimisation des coûts et réduction de l’empreinte carbone en optimisant l’efficacité des ressources cloud. • Collaboration avec l’équipe Data Science pour faciliter l’accès aux données de qualité et intégrer les modèles dans les applications.

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

Alternance

Offre d'alternance
Data Analyst Junior (H/F) - Alternance

IEF2I
Publiée le
Big Data

15 mois
20k-25k €
Paris, France

L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires "Préciser le type de société - ex : Startup parisienne", un profil Data Analyst Junior (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Collecte et Traitement des Données : Collecter des données à partir de diverses sources internes et externes Nettoyer et préparer les données pour l'analyse, en assurant leur qualité et leur intégrité Analyse des Données : Effectuer des analyses statistiques pour identifier des tendances, des schémas et des anomalies Utiliser des outils de visualisation des données pour créer des rapports et des tableaux de bord interactifs Support aux Équipes Métier : Collaborer avec les équipes métier pour comprendre leurs besoins en données et fournir des analyses ad hoc Présenter des conclusions et des recommandations basées sur les analyses de données Amélioration Continue : Proposer des améliorations pour optimiser les processus d'analyse de données Participer à la mise en place de nouvelles méthodologies et outils d'analyse Conditions de l'offre : Une opportunité unique de travailler sur des projets innovants et à fort impact Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise. Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP

CDI

Offre d'emploi
Profils Data en pré-embauche

SARIEL
Publiée le
Big Data

10k-65k €
Paris, France

Pour un de nos clients situé dans la région parisienne nous cherchons en pré-embauche, les différents profils suivants: Profils Data maitrisant DataLake. La connaissance de l'anglais est un vrai plus. Nous recherchons obligatoirement des profils en CDI et non des indépendants. Le salaire est compris entre 45 et 55 Ke pour les confirmés et entre 55 et 60-65 Ke pour les experts. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

660 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous