Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 135 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Administrateur Kafka

Trait d'Union Consulting
Publiée le
Apache Kafka

1 an
450-600 €
Île-de-France, France

L’ Administrateur Kafka est responsable de la gestion, de la maintenance et de l’optimisation de l’écosystème Apache Kafka au sein de l’entreprise. Il veille au bon fonctionnement des pipelines de données et garantit la disponibilité, la performance et la sécurité des flux de données en temps réel. Ce poste est essentiel dans les environnements où les données sont échangées à grande échelle et nécessitent des performances élevées et une haute fiabilité. Installer, configurer et maintenir Apache Kafka et ses composants dans différents environnements (développement, préproduction, production). Créer et gérer des clusters Kafka (ajout de nœuds, mise à jour et scaling). Superviser et optimiser les performances des clusters Kafka . Mettre en place et gérer des topics Kafka pour organiser les flux de données. Assurer la migration Kafka (mise à niveau des versions, migration vers de nouvelles plateformes ou infrastructures). Implémenter des mécanismes de sécurité (SSL, SASL, ACL) pour contrôler les accès aux données. Mettre en place des outils de monitoring (Grafana, Kibana, Prometheus) pour surveiller la performance et détecter les incidents. Configurer des alertes pour anticiper et résoudre rapidement les problèmes techniques. Analyser et résoudre les incidents liés aux clusters Kafka et aux applications connectées. Diagnostiquer les problèmes de latence, de performances ou d’intégration réseau. Collaborer avec les équipes de développement pour optimiser l’utilisation des API Kafka. Rédiger des guidelines et des procédures sur la gestion des clusters et des topics Kafka. Assurer la formation et le support technique aux développeurs et utilisateurs. Automatiser les tâches répétitives à l’aide d’outils comme Ansible ou Terraform . Compétences techniques requises : CompétenceNiveauKafka (Admin & Ops) Expert Linux/Unix Confirmé Docker/Kubernetes Confirmé Ansible/Terraform Confirmé Java/Python Intermédiaire Monitoring (ELK, Grafana, Prometheus) Confirmé Sécurité réseau (SSL, SASL, ACL) Confirmé LangueNiveauAnglais Courant Capacité d’analyse pour diagnostiquer et résoudre rapidement des incidents complexes. Esprit collaboratif pour travailler avec les équipes de développement et d’exploitation. Proactivité dans l’optimisation et la sécurisation des systèmes. Adaptabilité face aux évolutions rapides des technologies et des besoins métiers.

CDI
Freelance

Offre d'emploi
Product Owner Échanges (Kafka, Nifi, API)

VISIAN
Publiée le
Apache Kafka
API

1 an
10k-54k €
100-500 €
Île-de-France, France

La prestation consiste à endosser les rôles de Product Owner et de gestion d'équipe pour le domaine "plateformes" au sein d’une DSI. Rôle de PO dans les rituels agiles de l’équipe. Rôle de PO dans les instances de priorisation du PI Planning. Point d’entrée privilégié pour l’ensemble des activités du domaine : recueil de besoins, organisation des recettes, alimentation du backlog, support. Gestion d'équipe. La prestation se déroule au sein du domaine Plateformes , constitué de deux équipes : Échanges : mise à disposition de plateformes techniques (Kafka, Nifi, API Mgt…), MCO, évolutions, accompagnement des domaines applicatifs. L’équipe comprend une devteam et un techlead. GED : mise à disposition et évolution d’une plateforme GED utilisée par les applications métiers, avec une équipe comprenant un pilote TMA intégré et une devteam externalisée. Le/la PO sera transverse sur les activités des deux équipes et collaborera avec : Les équipes applicatives. Les équipes métiers. Les équipes transverses.

Freelance
CDI

Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC

Digistrat consulting
Publiée le
Apache Kafka
Elasticsearch
ELK

3 ans
40k-60k €
450-600 €
Paris, France

💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) :  La collecte de log  La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log  La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition)  La mise en place d'un monitoring plus fin avec utilisation de l'IA  La configuration de logstash pour des tâches de parsing et d'enrichissements.  La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources.  L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs  Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont :  La mise à jour de la documentation  La maintien en condition des outils  Le développement des outils d'expoitation  La gestion des tickets d'incidents  La gestion des requêtes

Freelance
CDI

Offre d'emploi
Service Delivery Manager Senior Unix

VISIAN
Publiée le
Apache Kafka
UNIX

6 mois
40k-45k €
400-550 €
Montreuil, Île-de-France

Le bénéficiaire souhaite une prestation d’accompagnement dans l´objectif d´assurer le support à la Production Instant Payments, GMT (Global Money Transfer - Services groupe des Virements internationaux) et API Connectivity. Le groupes modernise son système d'information de paiements pour le groupe. La première étape de cette transformation était de créer une solution centrale pour les virements instantanés, en architecture réactive avec des technologies modernes (notamment Kafka, MongoDB, Akka, Cassandra, Angular). La donnée est centrale dans cette nouvelle solution de Paiements, Chaque évènement est donc intégré dans un Data Hub. Cette solution est déployée dans les différentes entités du groupe. Déjà en production pour la France, la Belgique, le Luxembourg, la Hongrie, l’Italie, et les pays CIB (Allemagne, Portugal, Espagne, Hollande, Autriche). D'autres pays européens sont à venir. Ce programme est donc stratégique pour le groupe et s'inscrit sur plusieurs années. Il faut savoir que deux solutions cohabitent actuellement: - Solution v1 "on premise" autour d'une infrastructure Cloud interne - Solution v2 (dCloud) autour d'une solution Cloud dédiée mise en œuvre en partenariat avec IBM (anciennement dMZR). Une migration de la v1 vers la v2 est en cours pour les différents entités qui sont encore utilisatrices de la v1 de la solution. La solution API Connectivity est une "passerelle" permettant à des clients corporate de réaliser des opérations de paiements (virements SEPA ou virements SCT Instantanés) vers leurs propres clients. Il est important de noter les éléments suivants : Le candidat doit avoir de solides connaissances sur Unix, sur la gestion des certificats et l'incident management, de très bonnes bases sur les technologies nouvelles sur lesquelles repose les solutions des applications du périmètre (Kubernetes, Docker, MongoDb, Kafka, ElasticSearch notamment), une bonne connaissance fonctionnelle des paiements et un niveau d'anglais suffisant pour soutenir des échanges avec nos interlocuteurs à travers le monde (Singapour / Montréal et les territoires des entités utilisant la solution).

Freelance

Mission freelance
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Google Cloud Platform
Python

6 mois
400-500 €
Paris, France

• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.

Freelance

Mission freelance
Ingénieur DevOps Confirmé KUBE / CI-CD H/F

Cheops Technology
Publiée le
Apache Kafka
Kubernetes

12 mois
400 €
Boulogne-Billancourt, Île-de-France

Les principales missions sont les suivantes : - Déployer des composants dans Rancher / Kubernetes (ex : Tomcat, Nginx, Ingress, Hazelcast, BDD, Composant Applicatif, Kafka, …), expertise en HELM charts - Créer et administrer des chaines CI/CD GitLab - Ecrire/faire évoluer les scripts de compilation, déploiement et la configuration - Créer/Gérer les secrets/certificats et leurs mises en œuvre entre systèmes (notamment pour MTLS) - Créer/Gérer les environnements (DEV, QA, IQ, Recette, PROD) (Rancher / Kubernetes) - Déployer des composants dans des environnements Legacy - Faire les montées en versions des composants techniques (serveur applicatif, …) - Apporter du support aux différentes équipes lors des différentes phases (ex : debug DEV, assistance pour les livraisons) - Participer à l’amélioration des bonnes pratiques autour de la CI/CD avec les ingénieurs DevOps des autres domaines - Partager la connaissance et les nouveautés sur l’usine aux différentes équipes, notamment de DEV - Assurer le support technique dans l’équipe de tests transverses - Analyser et résoudre les anomalies techniques - Être support lors des phases de mise en production des applications

Freelance
CDI

Offre d'emploi
Ingénieur DevSecops

DATACORP
Publiée le
Apache Kafka
API
CI/CD

12 mois
10k-60k €
100-500 €
Lille, Hauts-de-France

Descriptif mission : Dans le cadre d'un renforcement d'activités de notre client spécialisé dans le domaine du retail, nous recherchons un ingénieur devsecops . Intégration de la sécurité dans les projets (BIA, ISP, revues techniques, roadmap produit et pilotage et animation des équipes, cadrage de pentests...) Accompagnement des équipes Data Science dans la sécurisation des initiatives autour de l’IA. (C'était une de mes spécificités mais pas sûr que ce rôle soit confié à la prochaine personne, à voir comment le périmètre se répartit) Accompagnement DevSecOps (Analyse de code source, analyse de vulnérabilité, analyse de secrets, priorisation, sensibilisation des équipes...) Différentes actions transverses au sein de l’équipe cyber, notamment aux travers d'objectifs trimestriels.

Freelance

Mission freelance
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Google Cloud Platform
Python

12 mois
100-450 €
Paris, France

• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.

Freelance

Mission freelance
Data engineer Kafka OPS

Trait d'Union Consulting
Publiée le
Apache Kafka

1 an
400-500 €
Paris, France

Contexte de la mission Nous recherchons un développeur Kafka hautement qualifié, avec une solide expérience en ELK, pour contribuer au développement et à l’amélioration de notre produit d’observabilité. Ce rôle dynamique vous permettra de participer activement au support, à la maintenance et à l’amélioration de notre écosystème Kafka sur plusieurs environnements, tout en garantissant une intégration fluide et une efficacité optimale sur les différentes plateformes. Objectifs clés et livrables Nous recherchons un candidat à l’aise dans un environnement de production, prêt à relever des défis techniques complexes. Vous devez être capable de : Résoudre des problèmes techniques approfondis (connexion aux machines, analyses réseau, débogage des couches TCP et threads). Identifier les ressources adéquates pour résoudre efficacement les problèmes. Vos principales responsabilités incluront : Supporter, maintenir et améliorer l’écosystème Kafka existant sur différents environnements ( QA / Préproduction / Production, MultiCloud ). Maintenir et optimiser les composants de l’écosystème Kafka ( KStream, KConnect, MirrorMaker , etc.). Accompagner les développeurs dans l’implémentation des APIs Kafka pour une intégration fluide. Réaliser des tableaux de bord avec Grafana et Kibana , en mettant l’accent sur les métriques, logs et traces. Proposer et mettre en œuvre des améliorations architecturales pour optimiser les performances du système. Développer des guidelines, documentations et bonnes pratiques pour l’équipe et les parties prenantes. Compétences requises Compétences techniquesNiveau de maîtriseNode.js Confirmé Ansible Expert AWS Confirmé Java Expert Docker Confirmé Kafka Expert Exigences linguistiques LangueNiveau de maîtriseAnglais Courant Pourquoi nous rejoindre ? Ce rôle offre une opportunité unique de travailler sur des technologies de pointe dans un environnement de production, où vous aurez un impact direct sur l’évolutivité et l’efficacité des systèmes critiques. Vous rejoindrez une équipe collaborative et participerez à des projets stimulants qui repoussent les limites des infrastructures modernes et des solutions d’observabilité.

Freelance
CDI

Offre d'emploi
TechLead Data GCP

UCASE CONSULTING
Publiée le
Apache Kafka
Google Cloud Platform
Python

6 mois
40k-68k €
650-1 150 €
Paris, France

Je recherche pour un de mes clients un TechLead Data : Missions principales : • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Études d’impact technique • Faire des propositions techniques • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Freelance

Mission freelance
Architecte Technique Cloud Expert

Lùkla
Publiée le
Apache Kafka
AWS Cloud
Azure

1 an
400-550 €
Nantes, Pays de la Loire

Vous intégrerez l'équipe Architecte Cloud , en charge de l'évolution des Plateformes d'Échanges , afin de : Participer à la transformation des échanges sur Kafka et Apigee. Renforcer la résilience des plateformes existantes. Participer à la conception, au cadrage, et au suivi de l’implémentation des solutions choisies. Participation aux cérémonies agiles : Collaborer avec l’équipe architecte Cloud dans un cadre Agile. Conception et documentation : Rédiger un dossier de choix pour sélectionner une solution adaptée. Produire la documentation nécessaire au cadrage et à la validation de la solution. Accompagnement de la mise en œuvre : Travailler en étroite collaboration avec l’équipe Plateforme Échange PDV & Partenaires pour implémenter la solution. Dossier de choix de la solution d'échange. Documents de cadrage et d'architecture. Suivi et accompagnement de la mise en production.

Offre premium
Freelance
CDI

Offre d'emploi
Développeur Data (X/H/F)

Crafteam
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
40k-50k €
400-450 €
Île-de-France, France

Vous souhaitez évoluer dans le secteur bancaire et relever des défis techniques autour de la data ? Nous recherchons un(e) Développeur Data pour accompagner nos projets à forte valeur ajoutée. Missions Développer et optimiser des pipelines de données robustes et performants. Collaborer avec les équipes métier pour concevoir des solutions adaptées à leurs besoins. Participer à l’analyse, à l’intégration et à l’enrichissement des données. Garantir la qualité et la sécurité des flux de données dans un environnement bancaire exigeant. Compétences techniques requises SPARK (Mandatory) KAFKA (Mandatory) Java PostgreSQL AWS EMR (Mandatory) GitLab

Freelance

Mission freelance
Data Engineer

ESENCA
Publiée le
Apache Kafka
BigQuery
Google Cloud Platform

3 mois
400-450 €
Lille, Hauts-de-France

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Freelance

Mission freelance
Data steward/Data Owner

HAYS France
Publiée le
Apache Kafka
API
Architecture

2 ans
100-450 €
Lille, Hauts-de-France

SA MISSION Le Data Steward encore appelé Data Owner est reconnu comme un expert de la donnée et se voit attribué la responsabilité de spécifier les données de l'entreprise et d’en assurer la qualité. SON ACTIVITE: 1. Participe aux réunions de comité de pilotage sur la gestion des données. 2. Identifie et définit les besoins Métiers en matière d’information. 3. Propose, modélise, précise et affine les informations (noms, définitions, …), modèles de données et autres attributs relatifs aux différents Métiers de l’entreprise. 4. Garantit la validité et la pertinence des modèles de données associés aux différents Métiers. 5. Définit les règles Métier à respecter pour les attributs de données et vérifie que les exigences sur la qualité des données est respectée. 6. Valorise les données de référence et les significations associées. 7. Contrôle la qualité des données de test et participe à la conception des jeux de données de test. 8. Identifie et aide à la résolution de tout problème sur les données. 9. Participe à l'analyse de la qualité des données et à leur amélioration. 10. Contribue à l’élaboration des politiques de données, des normes et procédures.

Freelance

Mission freelance
INGENIEUR DE PRODUCTION CONFIRME SPLUNK

CAT-AMANIA
Publiée le
AIX (Advanced Interactive eXecutive)
Apache Kafka
Red Hat Linux

12 mois
400-550 €
Toulouse, Occitanie

Dans le cadre d'une mission long terme dans le secteur bancaire, je recherche un ingénieur de production confirmé avec connaissances avérées en SPLUNK. Plus de 5 ans d'expérience : EXPERTISE SUR L'INFRASTRUCTURE : SPLUNK : collecte et des centralisation des logs REDHAT : gestion et aux évolutions de l'imposant socle de collecte des logs comprenant Splunk et son écosystème (Nifi, Kafka, Nxlog, Fluentd, etc ...) chaines de liaisons complexes. Equipe en mode produit (sprint), rotations sur les astreintes et le MCO.

Freelance

Mission freelance
Consultant Spark Streaming/KAFKA

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Kafka
Spark Streaming

6 mois
350-450 €
Toulouse, Occitanie

Nous recherchons un Expert Spark Streaming / Kafka pour une mission freelance au sein d'une organisation de premier plan dans le secteur aéronautique. Le candidat idéal aura une expérience technique approfondie sur Spark et Kafka, et sera capable de travailler de manière autonome tout en gérant efficacement les priorités. Missions principales : Développement et optimisation des applications de streaming avec Spark et Kafka. Configuration et gestion des paramètres des APIs Kafka Producer et Consumer. Développement de microservices backend utilisant Java, Scala, et Python. Utilisation de Maven, SBT ou Gradle pour la gestion des builds. Mise en place et gestion de pipelines de données en temps réel avec Spark Structured Streaming. Collaboration avec les équipes DevOps et utilisation des outils AWS pour le déploiement et la gestion des applications. Participation aux cérémonies agiles et utilisation de VersionOne pour la gestion des tâches (un plus).

135 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous