Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 290 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data analyst / big data

Green-SI Consulting by Proxiad
Publiée le
Apache Hive
J2EE / Java EE
Spark Streaming

10k-55k €
Île-de-France, France

Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en terme de Data Analysis. Dans ce cadre la prestation consiste à contribuer à/au(x) : Amélioration des performances du dispositif INTERN sur les périmètres déjà couverts et de couvrir de nouveaux périmètres (nouveaux moyens de paiements, nouvelles entités etc.) Les livrables attendus sont les suivants : • exploration et parsing des données • conception d'algorithme de Machine Learning • développement de programmes de traitements de données (micro-services) en Scala/Spark • développement d'algorithmes Machine Learning • veille technologique d'outils contribuant à l'optimisation de la solution Les expertises attendues pour réaliser cette prestation sont listées ci-après :

Freelance
CDI
CDD

Offre d'emploi
Concepteur Développeur Open Back End

VPEX-IT
Publiée le
Apache Maven
API REST
DevOps

6 mois
40k-80k €
Île-de-France, France

Vpex IT cherche un IED Open Backend pour un de ces clients bancaires Ses missions seront : de réaliser des développements complexes en Java/J2ee en environnement orienté MicroServices (Kubernetes/Docker) et avec le framework Spring (Spring Batch, Spring Boot, Spring JDBC, Spring DATA). de suivre au quotidien les installations de l’infrastructure DEVOPS avec les équipes supports LCL ainsi que l’infogérant CAGIP. de créer, optimiser la chaîne CI/CD afin d’améliorer le delivery au fildu temps. de gérer les merges requests et le versionning de l’application d’assurer la remontée d’alertes et d’informations auprès du Directeur du projet d’assurer une synthèse et un reporting régulier de ses réalisations

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Développeur C# .NET Core Kafka Senior

Digistrat consulting
Publiée le
Apache Kafka

36 mois
10k-177k €
Paris, France

💼 Poste : Développeur C# .NET Core Kafka 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Contribution au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. Technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Nous intervenons sur le développement de service pour le Front Office. 🤝 Expertises spécifiques : Objectifs de la mission Développement C# .NET Core Méthodologie : BDD/TDD Utilisation de Kafka/Cassandra Maintenance applicative Documentation / Testing Support L3

Freelance
CDI

Offre d'emploi
Architecte Technique Java-Spark - Sénior

Digistrat consulting
Publiée le
Apache Kafka
Apache Spark
Architecture

3 ans
40k-60k €
Paris, France

Dans le cadre des projets d'évolution de notre banque, l'architecte applicatif a pour mission : d'accompagner opérationnellement les projets pour la définition de l’architecture applicative et défendre les choix opérés lors du passage en Comité d’Architecture et des différentes instances. Il est sollicité sur les nouveaux projets et sur les évolutions significatives des applications existantes (nouveaux flux, nouveaux composants, évolutions du périmètre fonctionnel initial…) • Participer activement à la phase de cadrage projet • Découpage en Services/Microservices • Proposer et accompagner les projets dans l’adoption des technologies de type Spark, Java, Kafka • Accompagner les équipes de développements pour l’application des règles et standards d’architecture. • Répondre aux exigences fonctionnelles et non fonctionnelles demandées dans le cadre de la mise en place de la solution. • Evaluer la pertinence et la cohérence des projets par rapport aux patterns d’architecture technique et aux systèmes existants (par des études d’opportunité, des POC, etc.) • Rédaction des dossiers d’architecture applicative et techniques • Gérer (construction, mise à jour et évolution) la cartographie technique du SI ou du sous-ensemble du SI dont il a la charge • Définir ou contribuer à la définition des patterns d’architecture technique à partir des services d’infrastructure mis à disposition par l’infogéreur du Groupe

CDI

Offre d'emploi
consultant data/BI (H/F)

PROXIEL
Publiée le
Apache Kafka
BI
Talend

42k-48k €
Montpellier, Occitanie

Bonjour, Nous recherchons un consultant data/BI (H/F) pour intégrer l'un de nos partenaires à Montpellier ou bien Aix en Provence (en hybride) : vous serez amené à : - Participer aux rituels de gestion de projet (Agile, cycle en V). - Rédiger des documentations techniques détaillées. - Assurer une veille technologique autour de la donnée et de son traitement. Vos compétences techniques (par ordre d'importance) : - BI : Qlik. - ETL : Talend, Kafka. - Bases de Données : Mongo DB, Postgres. - MDM et Gouvernance : Des connaissances dans ces domaines seraient un atout.

Freelance
CDI

Offre d'emploi
DATA ENGINEER

UCASE CONSULTING
Publiée le
Apache Spark
Databricks
Github

6 mois
10k-175k €
Paris, France

Bonjour à tous, Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer : Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données. Déploiement et gestion des workflows sur Databricks , avec une optimisation continue des performances des pipelines. Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres. Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques. Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées. Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées. Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés. Apache Spark : Expertise dans le traitement de données massives via Spark. GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue. CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents. Expérience d’au moins 3 à 5 ans dans un rôle similaire. Connaissance des architectures de données distribuées et expérience en ETL et transformation de données. Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines. Expérience en méthodologies de travail Agile/Scrum.

Freelance
CDI

Offre d'emploi
Data Engineer Apache Flink

UCASE CONSULTING
Publiée le
Apache
Java
Scala

6 mois
10k-176k €
Paris, France

Bonjour à tous, Je recherche pour un de mes clients dans le domaine de la Banque/Finance un consultant Data Engineer. Développement de pipelines de traitement de données en temps réel : Concevoir, implémenter et maintenir des pipelines de données en utilisant Apache Flink sur AWS. Optimisation de performances : Identifier et résoudre les problèmes de performance, optimiser le traitement des données pour assurer une faible latence et une haute disponibilité. Collaboration avec les équipes produits : Travailler en partenariat avec les équipes produits pour comprendre les besoins en matière de données et développer des solutions qui répondent à ces exigences. Documentation : Rédiger des documentations techniques pour les processus de développement et de déploiement. Veille technologique : Rester à jour sur les évolutions des technologies Big Data, Apache Flink, AWS et Java. Compétences Attendues : Apache Flink / AWS / JAVA/ Scala Expérience attendue : 4-5 ans ou deux projets menés sur les technologies citées ci-dessus.

Freelance
CDI

Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC

Digistrat consulting
Publiée le
Apache Kafka
Elasticsearch
ELK

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) :  La collecte de log  La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log  La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition)  La mise en place d'un monitoring plus fin avec utilisation de l'IA  La configuration de logstash pour des tâches de parsing et d'enrichissements.  La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources.  L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs  Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont :  La mise à jour de la documentation  La maintien en condition des outils  Le développement des outils d'expoitation  La gestion des tickets d'incidents  La gestion des requêtes

Freelance

Mission freelance
Data Engineer Expérimenté -Vannes-

Argain Consulting Innovation
Publiée le
Apache Kafka
Apache Spark
Big Data

1 an
490-580 €
Vannes, Bretagne

En tant que Data Engineer expérimenté ,vous interviendrez : Chez le client, selon le cadre et les objectifs définis : - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés -Déployer le produit dans les différents environnements -Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Contexte Intervention pour le compte du Chapitre Data à Vannes : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Vannes mais aussi ceux des autres sites France. Attendu 1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) 2- Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées

Freelance

Mission freelance
Expert Kubernetes

CS Group Solutions
Publiée le
Apache Spark
Gitlab
Java

6 mois
300-3k €
Orléans, Centre-Val de Loire

Nous recherchons un Expert Kubernetes Les livrables sont: Documentation technique - Automatisation des déploiements Dossier d'architecture (infrastructure, applicative, logicielle) Cartographie des compétences et savoir faire nécessaires Compétences techniques: Kubernetes - Expert - Impératif Java 17 - Confirmé - Impératif Spark 3.2.X - Confirmé - Important Maven 3.X.X - Confirmé - Important Description détaillée: L’objectif de cette prestation est de sécuriser un projet important en accompagnant le chef de projet Les attendus de cette prestation sont les suivants : le prestataire ➔ devra remplacer à la demande le chef de projet informatique sur les aspects techniques, notamment dans les réunions du comités technique et du comité stratégique; ➔ prendra en charge l’IAC, l’automatisation des déploiements sur Kubernetes et documenter en vue de faciliter le passage en maintenance à l’automne 2025 ; ➔ sur la base de l’évaluation craft réalisée en juin 2024, prendra en charge le suivi des axes d’améliorations identifiés, éventuellement en proposer de nouveaux, notamment sur l’observabilité ; ➔ documentera l’architecture actuelle via des ADRs et des diagrammes (flux, applicatif, infrastructure) ; ➔ rédigera d’ici fin 2024 une note d’observation critique sur les architectures (infrastructure, applicative, logicielle) mises en œuvre ; ➔ assistera le chef de projet informatique sur les questions de sécurité ; ➔ mettra en place un process efficace de gestion des connaissances, notamment une organisation documentaire. Formera les parties prenantes à son utilisation et sa mise à jour ; ➔ établira une cartographie des compétences et savoir-faire nécessaires pour le MCO-MCS du produit. Les développements sont réalisés en grande partie dans l’écosystème Kubernetes Les versions utilisées sont : - Java : 17 - Maven : 3.X.X - PostgreSQL : 14.X - Spark : 3.2.X - Spring Boot : 3.X.X - Spring Batch : 5.X.X - Hibernate : 6.X.X - Cucumber : 7.X.X La prestation se déroulera dans les locaux d’Orléans. Une organisation du travail en mode hybride est possible après une phase d’intégration : - 3 jours de présence du prestataire - 2 jours de distanciel. Compétences requises - Compétences techniques : Développement java sénior, maîtrise des architectures big data ( spark), applicative ( java et écosystème, postgresql) et infrastructure ( kubernetes et écosystème), gitlab, Notions avancées de sécurité applicative et infrastructure. - compétences humaines : adaptabilité et capacité à collaborer, organisé, capacité à mettre en place un fonctionnement pérenne dans une équipe, esprit critique et argumenté. - connaissances de l’agilité Instances de suivi de la prestation - au sein des cérémonies agile du projet pour les réalisations - point hebdomadaire avec le chef de projet informatique et/ou ses responsables hiérarchique et l’intervenant

Freelance
CDI

Offre d'emploi
Expert DBA Oracle postegres SQL

AVA2I
Publiée le
Linux
Oracle
PostgreSQL

3 ans
10k-70k €
Saint-Denis, Île-de-France

Spécialisé dans le secteur bancaire, l’entreprise recherche activement un DBA oracle Postegres SQL N3 pour enforcer ses effectifs . Contexte : "Dans le cadre de la transformation numérique et de la mondialisation de l'équipe DBA, l'équipe Base de données doit documenter les processus et les procédures de nos différentes activités.L'équipe travaille également sur les remédiations techniques". Missions : " Au sein de l'équipe DBA, il/elle sera chargé(e) de renforcer l'équipe pour gérer les remédiations techniques et documenter l'ensemble des processus et procédures des Bases de Données en collaboration avec les équipes DBA : - Gérer la documentation technique (procédures techniques, Change Runbooks...) - Gérer les risques de sécurité et de vulnérabilité. - Gérer les projets techniques (architecture, normes...). - Capacité à effectuer plusieurs tâches à la fois et à gérer les priorités. - Mise à jour de la CMDB (ajout de nouveaux CI et suivi des Cis obsolètes).

Freelance

Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka

Signe +
Publiée le
Apache Hive
Apache Kafka
Big Data

24 mois
175-200 €
Nantes, Pays de la Loire

Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi

CDI
Freelance

Offre d'emploi
Data Eng Spark

REDLAB
Publiée le
Apache Spark
Hadoop
Web service

24 mois
38k-47k €
Paris, France

L’objectif de la mission est de contribuer à l’industrialisation des processus et traitements big data mis en œuvre dans le cadre de la plateforme mégadonnées de client et d’assurer la maintenance des pipelines d’intégration et de transformation des données à l’EDS Prestation de développements & Ingénierie big data dans le cadre de l’intégration et d’exploration de données dans un contexte big data et du cluster données massives Conception et réalisation/développement d’outils et traitements d’intégration et de standardisation de données massives dans le cadre d’une plateforme Hadoop, Contribution à l’industrialisation d’outils d’exploration des données (restitution des données de type tableaux de bord, projets de recherche thématiques, bibliothèques de code spécifiques, etc.) ; Participation à la standardisation des modèles de données (format FHIR/OMOP) et à la conception d’API appropriés (Webservices FHIR, etc.) ; Spécifications techniques détaillées ; Test unitaire et recette technique ; Documentation de conception, réalisation et d’exploitation. L’objectif de la mission consiste à participer à la mise en place d’outils de pilotage

Freelance
CDI
CDD

Offre d'emploi
TechLead/Architect Cloud (MLOPS/DataOps)

bdevit
Publiée le
Ansible
Apache Kafka
AWS Cloud

36 mois
55k-65k €
Île-de-France, France

Dans le cadre de ces développements, le DataLab souhaite confier à un expert Cloud, venant en renforcement de son équipe usine logicielle la mission suivante : - Travailler sur des sujets de migration de solution "On Premise" vers le Cloud ; - Mettre en place l'outillage nécessaire à l'implémentation d'une méthodologie DevSecOps ; - Assurer l'intégration dans les architectures cibles : Configurer les plateformes, Industrialiser les architectures, Définir es accès aux ressources et les optimiser ; - Assister à l'élaboration de solutions et leurs optimisations ; - Rédiger les documents techniques et les livrables projets ; - Améliorer l'architecture actuelle ; - Transférer la connaissance et la compétence aux internes du DataLab. Résultats Attendus Des Livrables : Le DevOps sera accompagné par l'équipe Usine Logicielle. Il devra par ailleurs, fournir les livrables suivantes : - Une documentation conforme aux exigences du DataLab ; - Un support de l'ensemble des applications gérées en interne ; - Un support de l'ensemble des applications des entités déployées ; - Codes Sources commentés et "reviewés" ; - Intégration de tests unitaires des fonctionnalités développées ; - Présentation et partage des travaux.

Freelance

Mission freelance
Tech Lead (Java/VueJS/Spring/Kafka) (H/F) - Lille

Espace Freelance
Publiée le
Apache Kafka
Java
Spring

3 mois
100-510 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Tech Lead (Java/VueJS/Spring/Kafka) (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - Java - VueJS - Spring - Kafka Principales responsabilités : · Développer des fonctionnalités, en respectant les priorités établies. · Superviser une équipe de développeurs : adopter un rôle de mentor pour partager vos connaissances et faire progresser les compétences de l’équipe. · Collaborer avec le Product Owner pour comprendre les exigences métier et définir les priorités de développement. · Mettre en œuvre des plans de développement logiciel avec une approche agile · Proposer des solutions applicatives en coordination avec les architectes et les autres Tech Leads, afin de répondre aux besoins de l'entreprise. · Maintenir une documentation à jour · Participer aux astreintes · Contribuer à la résolution des incidents en phase de production Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/TLJVSK/140104

290 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous