Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 33 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Consultant Dataiku

Lùkla
Publiée le
Agile Scrum
Azure
Dataiku

2 ans
60k-70k €
Paris, France

En tant que Consultant(e) Dataiku Senior, vous serez au cœur de nos projets de Data et IA. Vous aurez notamment pour missions : Accompagnement : Réaliser des ateliers de conception et de cadrage des projets Être le point de contact de la plateforme des solutions Dataiku adaptées aux besoins clients Former les équipes internes à l'utilisation de la plateforme Expertise technique: Maîtriser les fonctionnalités avancées de Dataiku (préparation des données, machine learning, déploiement de modèles) Développer des pipelines de données robustes et efficaces Contribuer à l'amélioration continue de nos méthodes et outils Innovation: Être force de proposition sur les dernières tendances en matière de Data Science et d'IA Participer à la conception de nouvelles offres de services

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

Freelance
CDI

Offre d'emploi
Administrateur Bases de Données NOSQL (H/F)

CITECH
Publiée le
Elasticsearch
Hadoop
Mongodb

12 mois
35k-55k €
Strasbourg, Grand Est

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons un(e) Administrateur Bases de Données NOSQL (H/F) 🚀 🚡 Entreprise reconnue dans les domaines de banques et assurances, implantée dans de nombreuses villes en France, notre client a pour objectif d'accélérer sa transformation digitale afin d’offrir toujours plus de solutions et de services innovants. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔸 Participer à la mise en œuvre et à l'administration des infrastructures de bases de données NOSQL (MongoDB, Vertica, Hadoop, Elasticsearch). 🔸 Assurer la gestion quotidienne de ces infrastructures, en garantissant leur disponibilité et leur performance. 🔸 Collaborer avec l'équipe pour gérer des projets d’évolution ou de mise en œuvre de nouvelles fonctionnalités. 🔸 Participer à la définition des normes et standards des bases de données NOSQL. 🔸 Assurer un rôle d’expert de niveau 3 auprès des équipes support, analyser et résoudre les incidents, et spécifier les procédures d'exploitation.

Freelance
CDI

Offre d'emploi
Administrateur Bases de Données NOSQL (H/F)

CITECH
Publiée le
Elasticsearch
Hadoop
Mongodb

12 mois
35k-55k €
Lille, Hauts-de-France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons un(e) Administrateur Bases de Données NOSQL (H/F) 🚀 🚡 Entreprise reconnue dans les domaines de banques et assurances, implantée dans de nombreuses villes en France, notre client a pour objectif d'accélérer sa transformation digitale afin d’offrir toujours plus de solutions et de services innovants. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔸 Participer à la mise en œuvre et à l'administration des infrastructures de bases de données NOSQL (MongoDB, Vertica, Hadoop, Elasticsearch). 🔸 Assurer la gestion quotidienne de ces infrastructures, en garantissant leur disponibilité et leur performance. 🔸 Collaborer avec l'équipe pour gérer des projets d’évolution ou de mise en œuvre de nouvelles fonctionnalités. 🔸 Participer à la définition des normes et standards des bases de données NOSQL. 🔸 Assurer un rôle d’expert de niveau 3 auprès des équipes support, analyser et résoudre les incidents, et spécifier les procédures d'exploitation.

Freelance

Mission freelance
DATA ENGINEERING SPARK SCALA H/F

SMARTPOINT
Publiée le
Apache Spark
Hadoop
JIRA

1 an
100-600 €
Paris, France

la Prestation consiste à contribuer à/au(x) : - L’architecture avec le reste de l’entité (tech lead, devs, architecture). - Mise en œuvre/Développement des propositions techniques. - Revue de code. - Suivi des méthodologies agiles. - L'industrialisation des développements et des tests sur de l'open source Les livrables attentdus sont: - Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. - PVs techniques - Chiffrage de projets et évolutions - Design de présentation Environnement anglophone.

Freelance
CDI

Offre d'emploi
Data Engineer

NOSCO
Publiée le
Ansible
Hadoop
Jenkins

2 ans
31k-62k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : Assure la création, la maintenance, l'optimisation et la sécurité des bases de données Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier Assure le support aux équipes de développement afin d’identifier et proposer des solutions performantes SGBD les mieux adaptées d’un point de vue métier Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données Conception et développement de traitements de données Réalisation d’études statistiques Présentation de résultats sous la forme de rapports d’étude ou de tableaux de bord Développement d’outils de visualisation de données pour faciliter les analyses Documentation des traitements en vue d’une industrialisation Participation aux cérémonies agiles de l’équipe Diffusion et vulgarisation des résultats d’étude Activité secondaire : Veille technologique sur les outils utilisés au sein du projet Partage et formation sur les guides de bonnes conduites

Freelance
CDI

Offre d'emploi
ARCHITECTURE DATA PLATEFORM

Digistrat consulting
Publiée le
Apache Spark
AWS Cloud
Azure

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service

Freelance

Mission freelance
Data Engineer Expérimenté -Vannes-

Argain Consulting Innovation
Publiée le
Apache Kafka
Apache Spark
Big Data

1 an
490-580 €
Vannes, Bretagne

En tant que Data Engineer expérimenté ,vous interviendrez : Chez le client, selon le cadre et les objectifs définis : - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés -Déployer le produit dans les différents environnements -Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Contexte Intervention pour le compte du Chapitre Data à Vannes : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Vannes mais aussi ceux des autres sites France. Attendu 1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) 2- Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées

Freelance

Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka

Signe +
Publiée le
Apache Hive
Apache Kafka
Big Data

24 mois
175-200 €
Nantes, Pays de la Loire

Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi

CDI
Freelance

Offre d'emploi
Data Eng Spark

REDLAB
Publiée le
Apache Spark
Hadoop
Web service

24 mois
38k-47k €
Paris, France

L’objectif de la mission est de contribuer à l’industrialisation des processus et traitements big data mis en œuvre dans le cadre de la plateforme mégadonnées de client et d’assurer la maintenance des pipelines d’intégration et de transformation des données à l’EDS Prestation de développements & Ingénierie big data dans le cadre de l’intégration et d’exploration de données dans un contexte big data et du cluster données massives Conception et réalisation/développement d’outils et traitements d’intégration et de standardisation de données massives dans le cadre d’une plateforme Hadoop, Contribution à l’industrialisation d’outils d’exploration des données (restitution des données de type tableaux de bord, projets de recherche thématiques, bibliothèques de code spécifiques, etc.) ; Participation à la standardisation des modèles de données (format FHIR/OMOP) et à la conception d’API appropriés (Webservices FHIR, etc.) ; Spécifications techniques détaillées ; Test unitaire et recette technique ; Documentation de conception, réalisation et d’exploitation. L’objectif de la mission consiste à participer à la mise en place d’outils de pilotage

Freelance

Mission freelance
Data Engineer SQL (FH)

Taleo Capital
Publiée le
Data Warehouse
DevOps
Hadoop

6 mois
470-550 €
Paris, France

Notre client bancaire recherche un Data Engineer SQL confirmé (6 à 9 ans) pour rejoindre ses équipes IT. Le projet supporte plusieurs Business Lines, telles que Global Market, CCO, Compliance, et On Boarding, avec des équipes Agile localisées à Paris (80%) et Porto (20%). La mission est centrée sur l'impact de la migration vers Windows 11, incluant des modifications des process techniques, des optimisations, et le support niveau 2. Objectifs de la mission : Le consultant sera intégré dans le chapter « Data & BI Client - Data Engineering », et devra : Assurer la maintenance évolutive des flux de données : SQL : Modélisation, transformation des données, calculs d’indicateurs. Ordonnancement des traitements via Ctrl-M. Gestion des flux de données (fichiers plats, XML, web services). Optimisation SQL. Gérer l'impact de la migration Windows 11 : adaptation des outils, processus et pipelines. Développer et implémenter des corrections et améliorations techniques. Réaliser des tests unitaires et participer aux recettes. Participer au support opérationnel (niveau 2) et à la méthodologie Agile-Kanban (daily meetings, rétrospectives). Contribuer à la rédaction de documentations techniques. Participer à des astreintes techniques.

Freelance

Mission freelance
Ingénieur DevOps / BIG DATA

Management Square
Publiée le
Apache Hive
Apache Kafka
Apache Spark

2 ans
100-480 €
Paris, France

Nous recherchons un ingénieur data et intégration pour une mission basée à Paris, France. Le profil recherché doit être orienté data ingénieur avec des compétences réparties de manière à ce que la moitié de ses compétences concerne la data et l'autre moitié concerne les aspects intégration/exploitation/puppet. Maintien en condition opérationnelle de l’environnement BIG DATA d'une application Administration de l’environnement DATA Gestion des mises à jour et évolutions d’architecture applicative Assurer une continuité des activités liées au périmètre en palliant l'absence du data ingénieur déjà en place

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist (H/F)

Accelite
Publiée le
Alteryx
Apache Maven
Apache Spark

1 an
40k-55k €
Paris, France

En tant que Data Analyst ou Data Scientist (H/F), vous contribuez au sein de grands comptes bancaires, à l’analyse, le traitement et la restitution des données bancaires et financières. A ce titre, vous avez pour missions : Recueil et analyse des besoins Rassemblement et traitement des données chiffrées Nettoyage des données afin de supprimer les doublons Réalisation d’algorithmes pour les exploiter Conception et construction des actifs informatiques dédiés au management des données (Data préparation, Data visualisation) Conception et développement du code ou des scripts qui s’appuient sur des données structurées et non-structurées en provenance de différentes sources et qui alimentent les actifs informatiques dédiés à l’exploitation des données Participation aux campagnes de tests Installation et configuration des logiciels requis dans le respect du cadre de référence Maintenance des solutions et intervention en support lorsque nécessaire Documentation des use cases et des développements effectués

Freelance

Mission freelance
Full remote - Tech lead Pyspark

ALLEGIS GROUP
Publiée le
Hadoop
PySpark

6 mois
140-470 €
Île-de-France, France

Nous recherchons pour l'un de nos clients un tech lead Pyspark. Celui-ci sera amené à encadrer une équipe de 3 personnes. Projet : Build from scratch Il s'agira de mettre en place une plateforme BI avec des flux d'alimentation en base Hive. Environnement technique : Pyspark / Hadoop / Hive Profil attendu : 3-4 ans d'expérience dont au moins une en tant que Tech lead A l'aise avec l'environnement technique (Pyspark, Hadoop, Hive) Bon communiquant Pro-actif avec une bonne posture de tech lead (organisation des dailys, répartition des tâches etc)

Freelance

Mission freelance
Ingénieur Data Expérimenté

Management Square
Publiée le
Apache Kafka
Apache Spark
Cloudera

1 an
410-500 €
Vannes, Bretagne

Nous recherchons pour une mission freelance de longue durée un Ingénieur Data expérimenté pour rejoindre une équipe dynamique et participer à des projets Big Data passionnants. Les principales missions: Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera, en utilisant un framework interne entreprise (sur des activités Big Data) Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi, l'assistance et la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Freelance

Mission freelance
Application Developer - Nantes (44)

Signe +
Publiée le
Apache Kafka
Apache Spark
Hadoop

90 jours
100 €
Nantes, Pays de la Loire

Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

33 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous