Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka

Votre recherche renvoie 176 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer / Expert Big Data Senior

VISIAN
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

2 ans
100-820 €
Guyancourt, Île-de-France

Les principales activités de la prestations sont: Construction d’offres DATA : • Packaging des nouvelles offres dans un environnement Kubernetes • L’automatisation, l’industrialisation et la documentation des solutions • L’intégration dans les offres de solutions de monitoring, alerting, gestion de droits • Assurer le RUN des solutions • Veille technologique autour de la Data: réalisation de POC, tests de performances et comparaison de solutions. Adaptions d’offres DATA existantes pour les intégrer dans l’environnement client : • Qualification des offres afin de mesurer leur niveau de maturité • L’intégration des offres Data de CA-GIP dans le SI client • L’intégration dans les offres de solutions de monitoring, alerting, gestion de droits Rôle de conseil expert : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Evaluer les tendances du marché. Utiliser ces informations pour définir une vision du produit, cohérente avec la stratégie de l'entreprise, et déterminer les roadmaps a suivre • En lien avec les architectes, identifier la meilleur solution pour répondre au besoin client • Préparer la mise en place du produit en présentant sa valeur, et des démonstrations • Définir et documenter les patterns d’usage

Freelance

Mission freelance
Business Analyst CB2A - TCL/TLP

MEETSHAKE
Publiée le
Apache Kafka
API REST
Business Analyst

1 an
100-550 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons deux Business Analysts expérimentés pour intégrer nos équipes sur des projets critiques liés à la télécollecte et au téléparamétrage. Vous serez responsable de l’analyse des besoins, la formalisation des spécifications fonctionnelles et l’assistance au développement des solutions. Votre expertise CB2A TCL/TLP est indispensable, et des connaissances NEXO seraient un plus. Vous participerez à la montée en charge de nos projets de modernisation, en collaborant avec nos équipes techniques et métier. Activités principales : • Analyser le besoin • Etudier les impacts applicatifs • Participer à l’estimation de complexité • Réaliser des Spécifications fonctionnelles détaillées sur la base de Spécifications fonctionnelles Générales. Ces spécifications doivent prendre en compte les contraintes d’exploitabilité de nos applications. • Définir les critères d’acceptation et contrôler/assister la phase de développement • Produire les documents à destination des clients • Prendre en charge les incidents de validation, homologation et production via l’outil Jira, depuis l’analyse jusqu’à leur résolution, en apportant si possible une solution de contournement/palliatif • Appliquer un processus industriel de gestion des incidents • Communiquer/rendre compte de l’avancement

Freelance

Mission freelance
Product Owner (H/F) - Lille

Espace Freelance
Publiée le
Apache Kafka
BigQuery

3 mois
100-450 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Product Owner (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - BiQuery - Kafka Vous savez communiquer en anglais dans un contexte professionnel Votre mission : - Vous définissez et suivez les KPIs - Vous réalisez et faites évoluer les Dashboard - Vous communiquez avec toutes les parties prenantes du projet - Vous définissez la roadmap Produit - Vous réalisez des User Stories - Vous contribuez aux rituels de l’équipe Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/POLMA/104

Freelance

Mission freelance
Architecte Technique (NANTES)

AKERWISE
Publiée le
Apache Kafka
Jenkins
Terraform

2 ans
100-2 940 €
Nantes, Pays de la Loire

Au sein de l'équipe d'architectes Cloud, le consultant sera en charge de contribuer à l'évolution des Plateformes d'Échanges, en participant à la transformation des échanges entre le Central (DC/Cloud) et les centres de distribution. Vous interviendrez sur le choix des solutions, le cadrage et le suivi de leur implémentation, en veillant à l'amélioration de la résilience des plateformes Kafka et APIGEE. Vous serez également amené à participer aux différentes cérémonies agiles de l'équipe architecte Cloud. Enfin, vous produirez un dossier de choix de la solution d'échanges entre le Central et les magasins, tout en accompagnant l'équipe Plateforme Echange PDV & Partenaires dans la mise en œuvre de cette solution. La production des documents de cadrage sera également sous votre responsabilité.

CDI

Offre d'emploi
: Data Engineer & Développeur d'Applications Python – Domaine de l’environnement (H/F)

CELAD
Publiée le
Apache Kafka
Python

45k-48k €
Toulouse, Occitanie

📑 CDI (45-48K€) – 🏠 2 jours de télétravail / semaine – 📍 Toulouse– 🛠 Expérience de 4 ans minimum📍 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer & Développeur d'Applications Python pour intervenir chez un de nos clients dans le domaine de l’environnement 💻💼 Vous avez une solide expérience en gestion de gros volumes de données et en développement d’applications ? Vous maîtrisez Python et des outils comme Airflow, NiFi, Prefect, ou Kafka ? Nous avons peut-être le projet qu'il vous faut ! Voici un aperçu détaillé de vos missions 🎯 : - Participer à l'acquisition, au stockage et à l'optimisation des données ; -Concevoir et développer des applications pour gérer ces volumes massifs ;

CDI
Freelance

Offre d'emploi
Développeur Back-end expérimenté

MSI Experts
Publiée le
Apache Kafka

1 an
40k-50k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons pour notre client un développeur Back-end senior passionné afin de développer la partie back-end d'une application ( IHM, architecture technique) et d'assurer le déploiement d'applications en suivant les principes et les pratiques DevOps. Au sein d'une équipe agile, vous serez amené à : Concevoir et implémenter des solutions techniques robustes et performantes. Maîtriser le cycle de vie complet d'un développement, de la conception à la mise en production. Garantir la qualité du code en mettant en place des tests automatisés. Collaborer étroitement avec les équipes front-end et produit. Rédiger et actualiser la documentation technique Support aux équipes fonctionnelles Effectuer les tests croisés Environnement technique : Back : Java 21, Spring boot 3.3, Hibernate 6.4, PostgreSQL 16, Protobuf Front : Angular 18, NgRx Infra : Docker, Terraform, Cloud (Outscale), Kafka, Grafana, Prometheus Outillage : Gitlab, Gitlab-ci, Jira/Confluence

Freelance

Mission freelance
Administrateur applicatif Big Data sénior

CONSULT IT
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
100-400 €
Courbevoie, Île-de-France

Au sein du Pôle Administration & Transition (ATR) de la Direction des Opérations (DOP), l'administrateur applicatif Big Data sénior interviendra en tant qu’administrateur des applications du client. Veuillez noter que la durée du bon de commande mentionnée est estimative. Elle est sujette à ajustement en fonction des besoins et des évolutions du projet. Objectifs et livrables La principale mission est de participer à : La maintenance en condition opérationnelle des services applicatifs sur la base des meilleures pratiques ITIL ; La mise en œuvre de nouveaux projets pour le client. Mission complémentaire: S’assurer du bon niveau de résolution des incidents et problèmes des Middlewares. Support à la mise en œuvre des changements et des mises en production (Recette d’exploitabilité). Mise en place du Monitoring des nouveaux Middlewares. Participer avec la MOE/MOA aux évolutions des Middlewares. Identifier les impacts des évolutions Middlewares et mettre en place les actions et procédures d’exploitation associées. Rédaction des fiches d’exploitation des Middlewares. Assurer un reporting régulier auprès de son Manager. Spark :Confirmé Kafka :Confirmé Linux (RH, CentOS …) :Confirmé Cassandra :Confirmé Hadoop :Confirmé

CDI
Freelance

Offre d'emploi
Data Engineer

SKILL EXPERT
Publiée le
Apache Kafka
Hadoop
Python

1 an
23k-200k €
Vélizy-Villacoublay, Île-de-France

La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.

Freelance

Mission freelance
DevOps (H/F) - Lyon

Espace Freelance
Publiée le
Ansible
Apache Kafka
Gitlab

3 mois
100-500 €
Lyon, Auvergne-Rhône-Alpes

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : DevOps (H/F) - Lyon Mission à pourvoir en région Lyonnaise Compétences obligatoires : - Ansible - Gitlab - Grafana - Kafka - Jenkins - Vault - Terraform - SpringBoot - Java - Informatica - SQL Votre mission : - Gestion et amélioration continue de GitLab, CI/CD et Infrastructure as Code. - Mise en place de tableaux de bord de suivi des performances applicatives - Support technique auprès des équipes de développeurs BI. - Contribution à l'optimisation continue de l'infrastructure. - Participation aux déploiements en environnement de recette et de production. - Revue des pull requests du binôme, en collaboration avec le Lead Tech. - Participation à l'estimation et à l'analyse de l'impact des tâches OPS. Vous avez de l’expérience sur un poste similaire REFERENCE : EFL/DEVOPS/ABMB

Freelance
CDI

Offre d'emploi
Lead Tech H/F

MSI Experts
Publiée le
Angular
Ansible
Apache Kafka

6 mois
41k-51k €
Lyon, Auvergne-Rhône-Alpes

Nous sommes à la recherche d'un.e Lead Technique pour réaliser une mission chez l'un de nos clients. Vous serez référent.e d'une équipe agile de 15 collaborateurs. Le périmètre technique sur lequel vous interviendrai comprend à la fois les aspects Ops (infrastructure, déploiement, monitoring) que développement (architecture logicielle, bonnes pratiques de code, qualité). En tant que tel.le, vos missions consisterons à : Élaborer la roadmap technique et prioriser les sujets en fonction des objectifs métiers. Être le.la référent.e technique principal.e pour toutes les questions concernant le projet. Animer et coordonner les équipes techniques dans un environnement agile. Assurer la qualité des livrables techniques et la conformité aux exigences métiers et techniques. Conduire des ateliers techniques avec les équipes de développement et les partenaires externes. Participer à la conception de solutions techniques robustes et sécurisées.

CDI

Offre d'emploi
Développeur backend

e3M MANAGEMENT
Publiée le
Apache Kafka
Java

40k-45k €
Ivry-sur-Seine, Île-de-France

Cadre de la mission : - Conception des solutions techniques et architectures - Respect des bonnes pratiques de développement (Framework, qualité, test, …). - Préparation et participation aux ateliers d’architecture et chantiers techniques. - Prise en charge en totale autonomie des sujets techniques - Mise en place et maintenance des environnements de développement. - Réalisation des développements Projet et Run. - Maintien en conditions opérationnelles de la production - Conception de Tests de Montée en Charge - Assurer l’homogénéité des développements à travers les différentes équipes - Codes reviews. Le Développeur réalise le logiciel ou l'application suivant les spécifications fonctionnelles détaillées et l'architecture technique retenue : - Participe à l'analyse détaillée des besoins fonctionnels et techniques - Code la solution (logiciel, application, système...) - Réalise la documentation associée - Implémente/Paramètre la solution avec les technologies retenues - Qualifie les systèmes d'un point de vue technique et fonctionnel , - Valide les spécifications fonctionnelles détaillée - Pilote les prestataires impliqués dans le développement de la solution

Freelance

Mission freelance
Développeur expérimenté TypeScript Node.js Nest.js

SELFING
Publiée le
Apache Kafka
NestJS
Node.js

12 mois
350-400 €
Ronchin, Hauts-de-France

Nous recherchons un développeur expérimenté TypeScript / Node.js / NestJS pour rejoindre notre équipe dynamique composée de 5 développeurs et 1 Product Owner. Vous contribuerez au développement de la brique Offer Repository , partie intégrante de notre plateforme digitale de commerce. Ce composant centralise les offres produits et services de Leroy Merlin et celles provenant de la marketplace, pour les rendre disponibles aux autres parties du système d'information (front web, commande omnicanale, encaissement, etc.). Les enjeux de performance sont cruciaux : la brique Offer traite 10G d’appels/mois d'appels par mois via son API, avec un volume de données atteignant plusieurs centaines de millions d'offres. Nous souhaitons évoluer vers une offre basée sur les besoins géographiques des clients, au-delà des offres centrées sur les magasins. Vous intégrerez une équipe très agile, orientée vers le software craftsmanship , qui travaille avec une architecture hexagonale et adopte des pratiques comme le Test Driven Development (TDD) et le Behaviour Driven Development (BDD) . Missions principales : · Analyser, paramétrer et coder les composants logiciels en respectant les normes et procédures en vigueur. · Contribuer à la définition des spécifications générales et techniques. · Participer à la maintenance corrective et évolutive des composants logiciels, en garantissant leur performance et leur stabilité. · Développer de nouvelles fonctionnalités en utilisant les concepts avancés de NestJS et en appliquant le Domain Driven Design (DDD). · Utiliser des architectures hexagonales/onion et event-driven pour la conception et le développement. · Être force de proposition pour améliorer le produit et ses performances.

Freelance

Mission freelance
Data Engineer Big Data - Delta Lake / Spark / Cloudera

Intuition IT Solutions Ltd.
Publiée le
Apache Kafka
Apache Spark
Cloudera

2 ans
500-600 €
Vélizy-Villacoublay, Île-de-France

Nous recherchons un développeur Big Data avec un compétence sur l'environnement opensource Delta Lake pour une mission de longue durée à Vélizy. La Prestation s’effectuera au sein de l’équipe « IS Data Factory » du client qui est composée Data Engineer et de Data Architect. Les personnes sont basées entre Vélizy, Boston (USA) et Pune (Inde) Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de la conception et du développement d'un POC pour un Data Lakehouse ouvert en utilisant les dernières technologies (Delta Lake, Cloudera, NoSQL, NiFi, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. o Analyse et optimisation de la performance des flux de données et des requêtes. o Création et maintenance de documents techniques sur les pipelines de données, o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.

CDI
Freelance

Offre d'emploi
Lead Tech (F/H)

NOSCO
Publiée le
Ansible
Apache Kafka
Cassandra

2 ans
10k-55k €
Lyon, Auvergne-Rhône-Alpes

Le poste est basé à Lyon avec 50% de télétravail maximum Activité principale Animation des ateliers techniques : Conduit des ateliers techniques avec les équipes de développement et les partenaires externes pour aligner les besoins, partager des connaissances et résoudre des problématiques complexes. Conception des solutions techniques : Développe des solutions techniques répondant aux besoins métier tout en respectant les contraintes de sécurité et les normes de l'entreprise. Définition et entretien du backlog technique : Établit et maintient un backlog technique structuré, en priorisant les tâches en fonction des besoins métiers et des objectifs du projet. Animation des équipes de développement : Guide et motive les équipes de développement, en assurant la coordination et la collaboration pour optimiser les processus de création et de livraison des solutions. Assurance qualité et performance : Veille à la qualité et aux performances des développements, en mettant en place des mécanismes de contrôle et d’évaluation pour garantir la conformité aux exigences techniques et fonctionnelles. Analyse des données/logs : Réalise l’analyse approfondie des données et des logs pour diagnostiquer les problèmes, améliorer les performances et optimiser les solutions techniques. Modélisation de données : Conçoit des modèles de données adaptés aux besoins du projet, en garantissant leur cohérence, leur intégrité et leur efficacité. Organisation/participation à la qualification des profils techniques : Participe à l’évaluation et à la qualification des profils techniques, en contribuant au recrutement et à la sélection des talents pour l’équipe. Garantie de la qualité des livrables : Assure la qualité des livrables en vérifiant leur conformité aux spécifications, aux normes de l’entreprise et aux attentes des parties prenantes. Activité secondaire : Participation au développement d’applications : Le Lead Technique contribue activement à la conception et au développement de solutions, en apportant son expertise technique pour garantir la qualité et la performance des applications. Prise de recul et force de proposition : Il analyse les processus de développement en place, identifie les points d'amélioration et propose des optimisations pour augmenter l'efficacité, la qualité et l'innovation au sein des projets. Animation et participation à des ateliers techniques : Il organise et participe à des ateliers techniques, qu'ils soient dédiés à des projets spécifiques ou transversaux, afin de partager les bonnes pratiques, aligner les équipes sur les choix technologiques et favoriser la cohésion entre les différentes parties prenantes.

Freelance
CDD

Offre d'emploi
DEVOPS GCP H/F

SMARTPOINT
Publiée le
Apache Kafka
ELK
Grafana

12 mois
10k-50k €
Châtillon, Île-de-France

Vos missions • Maintenir en condition opérationnelle les infrastructures en diagnostiquant les pannes et les dysfonctionnements • Configurer et dimensionner les plateformes en fonction des performances requises • Industrialiser les architectures cibles et configurer les équipements (CI / CD) • Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures • Veiller à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées • Participer aux phases de validation technique lors des mises en production ou des évolutions. • Effectuer le suivi des coûts des différents composants et applications (FinOps)

Freelance

Mission freelance
Data Engineer Big Data

Signe +
Publiée le
Apache Kafka

6 mois
700-740 €
Marseille, Provence-Alpes-Côte d'Azur

Vous interviendrez dans le cadre de la construction et de l'optimisation d’un programme d’ingestion de données pour une initiative d'IA. Ce poste requiert une solide expérience en ingénierie de données dans un environnement Big Data. Vous serez responsable de la gestion des données en temps réel à l’aide de technologies de streaming et de solutions cloud. Construire et optimiser le programme d’ingestion de données Collaborer avec l’équipe métier pour répondre aux besoins en matière de données et de traitement Big Data

176 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous