Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris
PO Technique Kafka

En quelques mots Cherry Pick est à la recherche d'un "PO Technique Kafka" pour un client dans le secteur du Luxe Description 📌 Descriptif du Poste Nous recherchons un Product Owner Technique avec une solide expertise en Kafka et DocumentDB pour piloter la maintenance évolutive d’un outil s’appuyant sur Kafka. Ce rôle implique une forte interaction avec les développeurs et architectes , ainsi que l’animation de la roadmap et des cérémonies Agile . Le candidat idéal est un profil technique expérimenté en Kafka et intégration de flux Kafka Stream en Java , ayant évolué vers un rôle de PO . 🎯 Objectifs et Livrables Piloter la maintenance évolutive de l’outil basé sur Kafka et DocumentDB Gérer le backlog et rédiger les User Stories Animer les cérémonies Agile et assurer la coordination entre les équipes techniques Accompagner la roadmap de l’application Analytics Data Échanger avec les équipes de développement et d’architecture pour garantir la bonne intégration des flux Kafka 📌 Démarrage : ASAP 📌 Durée : Long terme
Lead Technique Fullstack Java/Angular/Kafka

Vos responsabilités : Piloter la conception technique, l’architecture et les choix de design sur l’ensemble du périmètre applicatif. Encadrer et accompagner techniquement les développeurs (revue de code, mentoring, partage de bonnes pratiques). Participer activement au développement des modules backend en Java 10/11 , Spring Boot , Kafka , JMS , et Hibernate . Contribuer au développement du front-end avec Angular 8+, TypeScript, SCSS, PrimeNG , et assurer une bonne intégration UI/UX. Assurer la mise en place de l’intégration continue , des tests automatisés et du monitoring via GitLab CI, Jenkins, Cypress, Sonar, Dynatrace . Gérer l’intégration de services tiers via des API REST/SOAP , ESB, et systèmes de gestion des données (MDM). Travailler en étroite collaboration avec les architectes, les équipes DevOps et les métiers pour garantir la cohérence des livrables.
Consultant Big Data Infra

Dans le cadre du renforcement de nos équipes Big Data orientées production , nous recherchons un Consultant Big Data expérimenté, capable d’intervenir sur des environnements critiques. Vous serez en charge de la gestion des incidents , de la supervision , du déploiement et du maintien en conditions opérationnelles des plateformes data. Suivi et gestion des incidents de production Maintenance des clusters Kubernetes et des composants CDP Automatisation et industrialisation des processus Contribution à la fiabilisation et à l’ amélioration continue Participation possible à l’astreinte (selon organisation) Migration vers Starburst
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
expert kafka dataops

je cherche un expert kafka dataops pour une misison longue en banque: faire du tunning en java sur les services de streaming kafka (optimisation de perf principalement) installer de nombreux connecteurs implémenter kubernetes dans l'écosysteme de l'entreprise participer à la mise en action des bonnes pratiques kafka plus de détails en privé postulez et je vous appelle -- je cherche un expert kafka dataops pour une misison longue en banque: faire du tunning en java sur les services de streaming kafka (optimisation de perf principalement) installer de nombreux connecteurs implémenter kubernetes dans l'écosysteme de l'entreprise participer à la mise en action des bonnes pratiques kafka plus de détails en privé postulez et je vous appelle
Data engineer GCP

Missions principales : Concevoir, développer et maintenir des pipelines de données robustes et scalables sur GCP. Collecter, transformer et charger des données depuis diverses sources (Oracle, Postgres, MySQL, fichiers plats, API) vers BigQuery . Mettre en place des contrôles de qualité des données , notamment pour les cas d’usage liés à l’achat-revente. Réaliser la modélisation des données dans BigQuery (SQL avancé). Orchestrer les workflows avec Cloud Composer (Airflow) . Assurer une bonne gestion des accès et de la sécurité (IAM / BigQuery). Participer à la mise en place et au maintien de la chaîne CI/CD sur GitLab . Environnement technique : Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Cloud Composer) Orchestration : Airflow (via Cloud Composer) Sources de données : Oracle, PostgreSQL, MySQL, fichiers plats, API CI/CD : GitLab Sécurité & IAM : Gestion fine des accès, bonnes pratiques sur BigQuery
dev java spring (et spark)

Missions principales : Conception et développement de traitements batchs critiques en Java et Spark. Développement d'API REST et de services backend avec Spring Boot. Modélisation et exploitation de bases de données relationnelles. Participation à la migration de données et à l'amélioration continue des performances des traitements. Contribution aux tests unitaires et d'intégration. Documentation des processus techniques et participation aux bonnes pratiques DevOps. Profil recherché : Expérience confirmée en développement Java (impératif). Maîtrise de Spark pour les traitements de données volumineuses (impératif). Bonne connaissance de Spring Boot et des API REST. Solide compétence en bases de données relationnelles. Expérience en migration de données et en réalisation de tests. Connaissances en CI/CD, Docker, Kubernetes sont un plus. Soft skills attendues : Autonomie et réactivité dans la résolution de problématiques techniques. Esprit d'analyse, de synthèse et capacité de documentation. Capacité à collaborer efficacement avec les équipes DEV, OPS et produit. Proactivité et partage de connaissances au sein de l'équipe.
data engineer senior

data engineer senior - freelance - Paris python / SQL / Spark : databricks contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence) dans le cadre de la création d'une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables. -- data engineer senior - freelance - Paris python / SQL / Spark : databricks contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence) dans le cadre de la création d'une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation
Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris

Smarteo recherche pour l'un de ses clients, grand compte, Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris. Nous recherchons un Data Engineer - Sénior avec un minimum de 7 ans d'expériences sur des projets similaires. Projet : Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de l'équipe Construction nouveaux usages Principaux livrables : Participer au cadrage technique Définition des solutions applicatives Développement, Intégration et Recette technique Traitement des incidents & assistance utilisateurs Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Participer au cadrage technique Définition des solutions applicatives Développement, Intégration et Recette technique Traitement des incidents & assistance utilisateurs Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.
Developpeur Java Spark Angular

Notre client recherche un Développeur Java Spark Angular , profil Confirmé 3-5 ans d'expérience Obligatoire : Java, Spark, Angular Mission : 6 mois avec possibilité d'être prolongé Télétravail : 2 jours par semaine (non négociable) Secteur : Divertissement L'entreprise souhaite migrer plusieurs jobs Datastage vers Spark, une plateforme de traitement de données Big Data. Le consultant devra travailler sur la plateforme Spark pour réaliser les évolutions nécessaires. L'environnement : Java , Angular, Spark, Kafka, AWS
Développeur Talend / JEE

1. Développement de flux Recevoir et analyser les spécifications techniques en vue de la réalisation de nouveaux développements ou de l’évolution de développements existants. Développer des flux avec Talend Data Integration . Développer des composants ou services API en environnement JEE , sur la plateforme de flux temps réel KaXa . Réaliser les tests unitaires de ses développements. 2. Tests et accompagnement des équipes de recette Analyser les anomalies remontées et proposer les corrections adaptées. Réaliser les tests d’intégration de ses développements. Accompagner les équipes de recette sur son périmètre technique. Gérer le workflow JIRA lié à ses tâches et anomalies. 3. Suivi en production Analyser les anomalies en environnement de production et proposer des corrections. Être en lien direct avec les équipes de support à la production. Assurer le suivi et la mise à jour des tickets dans JIRA sur son périmètre.
Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP
ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes
Chef de Projet Technique Risque Opérationnel

Le bénéficiaire souhaite une prestation d'accompagnement pour la gestion des activités IT de delivery et d'expertise technique de plusieurs applications et projets traitant du Risque Opérationnel. Les missions sont les suivantes, Activités récurrentes : - Maintenance, déploiements (Gitlab/ Ansible) et support des environnements Hors-Production - Respect des normes d'intégration de l'application dans le SI. - Gestion des incidents - Interaction avec les interlocuteurs Production (Technical Office, IOPS) - Rédaction / mise à jour de la documentation conformément à la méthodologie en vigueur
Développeur & Tech-Lead Java/Kafka
Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche de 2 profils pour compléter son équipe, qui sont : Un développeur expérimenté Java/Kafka Un tech-lead Java/Kafka Environnement : Azure / Azure DevOps Déploiement sous Azure / Kubernetes / Service Les 2 consultants viendront intégrer l'équipe déjà staffée sur un projet de mon client. Ils devront être oppérationnels dès la prise en main du projet & apporter la pierre à l'effice projet jusqu'au Go-live.
IT SCALER DATA

Objectifs et livrables Les missions de l'IT Scaler DATA - DIT incluent : Support technique du Product Owner (PO) : Apporter une expertise technique et méthodologique sur les aspects IT. Comprendre, analyser et proposer des solutions techniques répondant aux besoins du business, qui intègre chaque jour de nouvelles données. Piloter le transfert de nouveaux produits : Définir les compétences requises pour la bonne reprise du produit, identifier les membres de la squad et coordonner les opérations nécessaires pour assurer un transfert efficace des responsabilités. Piloter la performance des équipes : Veiller à ce que les équipes techniques maintiennent un niveau de performance optimal et une efficacité élevée afin de garantir la réalisation réussie des projets attendus. Assurer la conformité : Veiller à ce que les développements des équipes techniques soient conformes au cadre d’architecture, de cybersécurité, de SRE et agile. Mettre en œuvre le monitoring et définir la roadmap SRE de l'application Concilier les attentes métiers et les évolutions techniques : Prendre en compte les attentes métiers et les évolutions techniques provenant de l’architecture et de la cybersécurité. Maintenir la qualité des livrables : Assurer la qualité des livrables produits et la fiabilité globale des solutions techniques. Anticiper et gérer les risques : Proposer des plans de mitigation et les mettre en œuvre. Créer et maintenir une culture d’amélioration continue : Favoriser l'identification des opportunités d'amélioration des processus, des pratiques de travail et des compétences techniques. Développer l’autonomie de l’équipe : Guider l’équipe vers une prise de décision autonome dans un cadre référencé. Contrôler l’adéquation des consommations : S'assurer que les consommations (cloud, ressources, etc.) sont en adéquation avec les objectifs sur son périmètre. Mise en production et suivi des pipelines de données : Suivre le déploiement des pipelines de données robustes (collecte, stockage, transformation et exploitation) Suivi et compréhension des processus qualité des données : Assurer la préparation, la complétude, l’épuration et l’enrichissement des données. Collaboration avec le Techlead offshore : Challenger et améliorer les processus internes ; localisation et traçabilité des données, standardisation des flux et des scripts de traitement des données, documentation. Automatisation des tâches récurrentes (intégration de nouveaux tags, reprise d'historique).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Apache
Administrateur·rice système Unix (linux...)
L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.
Explorez les offres d'emploi ou de mission freelance pour Administrateur·rice système Unix (linux...) .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresIngénieur·e d'exploitation
L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresResponsable des infrastructures et de la production
Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres