Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Votre recherche renvoie 43 résultats.
Freelance

PO Technique Kafka

Cherry Pick

En quelques mots Cherry Pick est à la recherche d'un "PO Technique Kafka" pour un client dans le secteur du Luxe Description 📌 Descriptif du Poste Nous recherchons un Product Owner Technique avec une solide expertise en Kafka et DocumentDB pour piloter la maintenance évolutive d’un outil s’appuyant sur Kafka. Ce rôle implique une forte interaction avec les développeurs et architectes , ainsi que l’animation de la roadmap et des cérémonies Agile . Le candidat idéal est un profil technique expérimenté en Kafka et intégration de flux Kafka Stream en Java , ayant évolué vers un rôle de PO . 🎯 Objectifs et Livrables Piloter la maintenance évolutive de l’outil basé sur Kafka et DocumentDB Gérer le backlog et rédiger les User Stories Animer les cérémonies Agile et assurer la coordination entre les équipes techniques Accompagner la roadmap de l’application Analytics Data Échanger avec les équipes de développement et d’architecture pour garantir la bonne intégration des flux Kafka 📌 Démarrage : ASAP 📌 Durée : Long terme

Démarrage Dès que possible
Durée 12 mois
TJM 550-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Lead Technique Fullstack Java/Angular/Kafka

ABALSIA CONSULTING

Vos responsabilités : Piloter la conception technique, l’architecture et les choix de design sur l’ensemble du périmètre applicatif. Encadrer et accompagner techniquement les développeurs (revue de code, mentoring, partage de bonnes pratiques). Participer activement au développement des modules backend en Java 10/11 , Spring Boot , Kafka , JMS , et Hibernate . Contribuer au développement du front-end avec Angular 8+, TypeScript, SCSS, PrimeNG , et assurer une bonne intégration UI/UX. Assurer la mise en place de l’intégration continue , des tests automatisés et du monitoring via GitLab CI, Jenkins, Cypress, Sonar, Dynatrace . Gérer l’intégration de services tiers via des API REST/SOAP , ESB, et systèmes de gestion des données (MDM). Travailler en étroite collaboration avec les architectes, les équipes DevOps et les métiers pour garantir la cohérence des livrables.

Démarrage Dès que possible
Durée 6 mois
TJM 100-480 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

Consultant Big Data Infra

KLETA

Dans le cadre du renforcement de nos équipes Big Data orientées production , nous recherchons un Consultant Big Data expérimenté, capable d’intervenir sur des environnements critiques. Vous serez en charge de la gestion des incidents , de la supervision , du déploiement et du maintien en conditions opérationnelles des plateformes data. Suivi et gestion des incidents de production Maintenance des clusters Kubernetes et des composants CDP Automatisation et industrialisation des processus Contribution à la fiabilisation et à l’ amélioration continue Participation possible à l’astreinte (selon organisation) Migration vers Starburst

Démarrage Dès que possible
Durée 3 ans
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

Digistrat consulting

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

Démarrage Dès que possible
Durée 3 ans
Salaire 50k-70k €⁄an
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

expert kafka dataops

Gentis Recruitment SAS

je cherche un expert kafka dataops pour une misison longue en banque: faire du tunning en java sur les services de streaming kafka (optimisation de perf principalement) installer de nombreux connecteurs implémenter kubernetes dans l'écosysteme de l'entreprise participer à la mise en action des bonnes pratiques kafka plus de détails en privé postulez et je vous appelle -- je cherche un expert kafka dataops pour une misison longue en banque: faire du tunning en java sur les services de streaming kafka (optimisation de perf principalement) installer de nombreux connecteurs implémenter kubernetes dans l'écosysteme de l'entreprise participer à la mise en action des bonnes pratiques kafka plus de détails en privé postulez et je vous appelle

Démarrage Dès que possible
Durée 2 ans
TJM 450-670 €⁄j
Lieu Paris, France
CDI

Data engineer GCP

KOMEET TECHNOLOGIES

Missions principales : Concevoir, développer et maintenir des pipelines de données robustes et scalables sur GCP. Collecter, transformer et charger des données depuis diverses sources (Oracle, Postgres, MySQL, fichiers plats, API) vers BigQuery . Mettre en place des contrôles de qualité des données , notamment pour les cas d’usage liés à l’achat-revente. Réaliser la modélisation des données dans BigQuery (SQL avancé). Orchestrer les workflows avec Cloud Composer (Airflow) . Assurer une bonne gestion des accès et de la sécurité (IAM / BigQuery). Participer à la mise en place et au maintien de la chaîne CI/CD sur GitLab . Environnement technique : Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Cloud Composer) Orchestration : Airflow (via Cloud Composer) Sources de données : Oracle, PostgreSQL, MySQL, fichiers plats, API CI/CD : GitLab Sécurité & IAM : Gestion fine des accès, bonnes pratiques sur BigQuery

Démarrage Dès que possible
Salaire 40k-65k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

dev java spring (et spark)

Gentis Recruitment SAS

Missions principales : Conception et développement de traitements batchs critiques en Java et Spark. Développement d'API REST et de services backend avec Spring Boot. Modélisation et exploitation de bases de données relationnelles. Participation à la migration de données et à l'amélioration continue des performances des traitements. Contribution aux tests unitaires et d'intégration. Documentation des processus techniques et participation aux bonnes pratiques DevOps. Profil recherché : Expérience confirmée en développement Java (impératif). Maîtrise de Spark pour les traitements de données volumineuses (impératif). Bonne connaissance de Spring Boot et des API REST. Solide compétence en bases de données relationnelles. Expérience en migration de données et en réalisation de tests. Connaissances en CI/CD, Docker, Kubernetes sont un plus. Soft skills attendues : Autonomie et réactivité dans la résolution de problématiques techniques. Esprit d'analyse, de synthèse et capacité de documentation. Capacité à collaborer efficacement avec les équipes DEV, OPS et produit. Proactivité et partage de connaissances au sein de l'équipe.

Démarrage Dès que possible
Durée 2 ans
TJM 200-380 €⁄j
Lieu Paris, France
Freelance

data engineer senior

Gentis Recruitment SAS

data engineer senior - freelance - Paris python / SQL / Spark : databricks contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence) dans le cadre de la création d'une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables. -- data engineer senior - freelance - Paris python / SQL / Spark : databricks contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence) dans le cadre de la création d'une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.

Démarrage Dès que possible
Durée 2 ans
TJM 310-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

TOP TECH

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
Salaire 45k-55k €⁄an
TJM 500-700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris

Smarteo

Smarteo recherche pour l'un de ses clients, grand compte, Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris. Nous recherchons un Data Engineer - Sénior avec un minimum de 7 ans d'expériences sur des projets similaires. Projet : Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de l'équipe Construction nouveaux usages Principaux livrables : Participer au cadrage technique Définition des solutions applicatives Développement, Intégration et Recette technique Traitement des incidents & assistance utilisateurs Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Participer au cadrage technique Définition des solutions applicatives Développement, Intégration et Recette technique Traitement des incidents & assistance utilisateurs Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.

Démarrage Dès que possible
Durée 2 ans
TJM 100-400 €⁄j
Lieu Paris, France
Freelance

Developpeur Java Spark Angular

ODHCOM - FREELANCEREPUBLIK

Notre client recherche un Développeur Java Spark Angular , profil Confirmé 3-5 ans d'expérience Obligatoire : Java, Spark, Angular Mission : 6 mois avec possibilité d'être prolongé Télétravail : 2 jours par semaine (non négociable) Secteur : Divertissement L'entreprise souhaite migrer plusieurs jobs Datastage vers Spark, une plateforme de traitement de données Big Data. Le consultant devra travailler sur la plateforme Spark pour réaliser les évolutions nécessaires. L'environnement : Java , Angular, Spark, Kafka, AWS

Démarrage Dès que possible
Durée 12 mois
TJM 410-500 €⁄j
Lieu Paris, France
Freelance
CDI

Développeur Talend / JEE

OBJECTWARE MANAGEMENT GROUP

1. Développement de flux Recevoir et analyser les spécifications techniques en vue de la réalisation de nouveaux développements ou de l’évolution de développements existants. Développer des flux avec Talend Data Integration . Développer des composants ou services API en environnement JEE , sur la plateforme de flux temps réel KaXa . Réaliser les tests unitaires de ses développements. 2. Tests et accompagnement des équipes de recette Analyser les anomalies remontées et proposer les corrections adaptées. Réaliser les tests d’intégration de ses développements. Accompagner les équipes de recette sur son périmètre technique. Gérer le workflow JIRA lié à ses tâches et anomalies. 3. Suivi en production Analyser les anomalies en environnement de production et proposer des corrections. Être en lien direct avec les équipes de support à la production. Assurer le suivi et la mise à jour des tickets dans JIRA sur son périmètre.

Démarrage Dès que possible
Durée 12 mois
Salaire 20k-70k €⁄an
TJM 150-570 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP

Twenty One Talents

ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes

Démarrage Dès que possible
Salaire 40k-60k €⁄an
Lieu Paris, Île-de-France
Freelance
CDI

Chef de Projet Technique Risque Opérationnel

VISIAN

Le bénéficiaire souhaite une prestation d'accompagnement pour la gestion des activités IT de delivery et d'expertise technique de plusieurs applications et projets traitant du Risque Opérationnel. Les missions sont les suivantes, Activités récurrentes : - Maintenance, déploiements (Gitlab/ Ansible) et support des environnements Hors-Production - Respect des normes d'intégration de l'application dans le SI. - Gestion des incidents - Interaction avec les interlocuteurs Production (Technical Office, IOPS) - Rédaction / mise à jour de la documentation conformément à la méthodologie en vigueur

Démarrage Dès que possible
Durée 1 an
Salaire 40k-45k €⁄an
TJM 300-500 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Développeur & Tech-Lead Java/Kafka

SQLI

Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche de 2 profils pour compléter son équipe, qui sont : Un développeur expérimenté Java/Kafka Un tech-lead Java/Kafka Environnement : Azure / Azure DevOps Déploiement sous Azure / Kubernetes / Service Les 2 consultants viendront intégrer l'équipe déjà staffée sur un projet de mon client. Ils devront être oppérationnels dès la prise en main du projet & apporter la pierre à l'effice projet jusqu'au Go-live.

Démarrage Dès que possible
Salaire 40k-60k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

IT SCALER DATA

Cherry Pick

Objectifs et livrables Les missions de l'IT Scaler DATA - DIT incluent : Support technique du Product Owner (PO) : Apporter une expertise technique et méthodologique sur les aspects IT. Comprendre, analyser et proposer des solutions techniques répondant aux besoins du business, qui intègre chaque jour de nouvelles données. Piloter le transfert de nouveaux produits : Définir les compétences requises pour la bonne reprise du produit, identifier les membres de la squad et coordonner les opérations nécessaires pour assurer un transfert efficace des responsabilités. Piloter la performance des équipes : Veiller à ce que les équipes techniques maintiennent un niveau de performance optimal et une efficacité élevée afin de garantir la réalisation réussie des projets attendus. Assurer la conformité : Veiller à ce que les développements des équipes techniques soient conformes au cadre d’architecture, de cybersécurité, de SRE et agile. Mettre en œuvre le monitoring et définir la roadmap SRE de l'application Concilier les attentes métiers et les évolutions techniques : Prendre en compte les attentes métiers et les évolutions techniques provenant de l’architecture et de la cybersécurité. Maintenir la qualité des livrables : Assurer la qualité des livrables produits et la fiabilité globale des solutions techniques. Anticiper et gérer les risques : Proposer des plans de mitigation et les mettre en œuvre. Créer et maintenir une culture d’amélioration continue : Favoriser l'identification des opportunités d'amélioration des processus, des pratiques de travail et des compétences techniques. Développer l’autonomie de l’équipe : Guider l’équipe vers une prise de décision autonome dans un cadre référencé. Contrôler l’adéquation des consommations : S'assurer que les consommations (cloud, ressources, etc.) sont en adéquation avec les objectifs sur son périmètre. Mise en production et suivi des pipelines de données : Suivre le déploiement des pipelines de données robustes (collecte, stockage, transformation et exploitation) Suivi et compréhension des processus qualité des données : Assurer la préparation, la complétude, l’épuration et l’enrichissement des données. Collaboration avec le Techlead offshore : Challenger et améliorer les processus internes ; localisation et traçabilité des données, standardisation des flux et des scripts de traitement des données, documentation. Automatisation des tâches récurrentes (intégration de nouveaux tags, reprise d'historique).

Démarrage Dès que possible
Durée 12 mois
TJM 600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous