Trouvez votre prochaine offre d’emploi ou de mission freelance Apache
POT8394 - Un développeur GO sur Boulogne-Billancourt

Almatek recherche pour l'un de ses clients, un développeur GO sur Boulogne-Billancourt. Description détaillée : Participer aux développements en Go de l'équipe vidéo: 1) ajout de workflows basés sur la plateforme opensource Temporal pour livrer nos contenus à des partenaires externes tels que des FAI via différents protocoles 2) maintenance et évolutions sur nos workflows d'ingestion, par exemple traitements sur les vidéos ou les métadonnées les accompagnant 3) migration de workflows PHP de notre outil interne MOVE vers Temporal 4) évolutions de nos services utilisés par les players Nos services tournent principalement sur AWS, dans des cluster Kubernetes, avec des bases de données PostgreSQL et Redis, et des transcodeurs video cloud ou on-premise. Nous utilisons des API HTTP/JSON, GRPC ou Kafka pour la communication entre nos services. Notre code est hébergé en privé sur Github, avec des actions Github et l'utilisation de Bazel pour les builds d'images. Les déploiements se font via ArgoCD. Il faut être assez à l'aise techniquement pour pouvoir se concentrer sur la partie métier qui est très riche d'informations à assimiler. Des connaissances système et réseaux sont un plus, ainsi que du scripting Shell. Définition du profil : À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures orientées Web Back. Compétences techniques : Go - Expert - Impératif AWS - Confirmé - Important Video - Confirmé - Serait un plus Temporal - Confirmé - Serait un plus Connaissances linguistiques : Français Courant (Impératif) Anglais Lu, écrit (Impératif)
Big Data Dev - Scala / Cassandra

📌 Mission : Accompagnement Développement Big Data – Projet Lutte Contre la Fraude Dans le cadre d’un projet de refonte d’une application de lutte contre la fraude, notre client recherche un accompagnement technique afin de renforcer son équipe de développement Big Data (Java/Scala). 🎯 Objectifs de la mission : Accompagner techniquement les développeurs sur le projet Contribuer à l'amélioration de la vélocité et de la productivité de l’équipe Participer à la réflexion autour de l’architecture de la nouvelle application 💡 Stack technique : Langages : Scala (AKKA Actor / Play), Java Big Data : Spark , Hadoop (HTC) , Cassandra Bases de données : Oracle Streaming : Kafka Middleware : MQSeries DevOps / Qualité : Git , Jenkins , JUnit , Sonar Méthodologies : Agile (Scrum, Kanban) ✅ Compétences recherchées : Expérience solide en développement Java/Scala (front & back) Bonnes connaissances en DevOps Maîtrise des outils d’intégration continue et de qualité de code Capacité à intervenir dans un environnement Agile Sens de l’analyse et esprit de collaboration 📄 Livrables attendus : Audit technique du code et des processus existants Plan d’action pour améliorer la vélocité de l’équipe Propositions d’architecture pour la refonte applicative Recommandations techniques globales
Expert DYNATRACE H/F

CONTEXTE : Nous recherchons un Expert DYNATRACE pour une mission longue au sein d’une compagnie d’assurance leader dans son domaine. Maintien en condition opérationnelle du SI. Descriptif de la mission : Expertise Dynatrace avec une expérience significative au niveau du troubleshooting des serveurs d'applications : Wildfly, Tomcat Etre en capacité de créer des Dashboard Dynatrace en lien avec un nouveau projet. Avoir une bonne capacité d'analyse des fichiers de logs Java et comportement des JVM. Savoir faire remonter les métriques à suivre. Nombre de thread Taille des JVM Pool de connexion Comportement des GC
Développeur Back-End Java – Médiation API & Événementiel (React / Kafka / Salesforce)

Développer sur la plateforme FASST avec une vision ADOPT en priorité Développer les services OAV permettant la Médiation avec Salesforce Travailler avec le techlead, le Product Owner Socle, le Product Owner Epargne Retraite, le Product Owner Santé Prévoyance et l’éditeur FASST Être un expert technique dans l’écosystème FASST Être l’expert technique de l’intégration de la plateforme FASST au sein de l’écosystème, notamment avec Salesforce. Participer au sein de l’équipe Vente à l’intégration du mode produit et des méthodes agiles (SAFE, SCRUM, etc..) pour accélérer notre delivery et prioriser la valeur des réalisations pour nos clients et notre Groupe.
Développeur Full-Stack Java/Kafka/Angular

Dans le cadre du renforcement de son équipe IT, notre client recherche un Développeur Full-Stack disposant d'une expertise solide sur Java/Spring Boot côté back-end et Angular côté front-end. Vous interviendrez sur des projets à forte volumétrie, au sein d’un environnement technique exigeant, en architecture distribuée (Kafka, ESB, MDM), et en méthodologie agile. Vos missions : Participer à l’analyse, la conception et au développement de nouvelles fonctionnalités sur des applications critiques. Développer et maintenir des API REST/SOAP, gérer les communications asynchrones avec Kafka et MQ Series/JMS . Implémenter des mécanismes de sécurité via Spring Security + JWT . Travailler en architecture distribuée avec l’intégration de solutions ESB et MDM . Réaliser l'intégration continue et le déploiement via Jenkins , XLDeploy et OpenShift . Côté Front-End, concevoir des interfaces dynamiques avec Angular 8 , TypeScript , HTML5 , CSS3/SCSS , MobX , et PrimeNG . Participer activement aux tests (unitaires, end-to-end) avec Jest , JUnit , Cypress , Postman , Cucumber , Selenium ... Collaborer étroitement avec les équipes design (Zeplin) et métier pour assurer des livrables conformes aux attentes. Assurer la qualité du code (Clean Code, revue de code) et la supervision applicative via Dynatrace .
Architecte logiciel C++ Qt (F/H)

Dans le cadre d’un projet de transformation reposant sur une architecture en microservices nous recherchons un architecte logiciel C++ expérimenté, capable de structurer le code, d’implémenter une architecture robuste et de collaborer avec nos équipes afin de poser les bases d’un développement pérenne. Objectif du Poste : Concevoir, définir et superviser les architectures applicatives pour différents périmètres, en assurant la cohérence technique, la scalabilité et la maintenabilité des solutions. Objectifs principaux : Mise en place d'une architecture moderne et performante orientée microservices. Application des meilleures pratiques pour organiser, structurer et industrialiser le code en C++. Utilisation et intégration d’un ensemble d’outils technologiques, notamment Conan, CMake, Qt, et modélisation avec ArchiMate, pour répondre aux attentes des utilisateurs et garantir la maintenabilité du logiciel. Architecture logicielle : Conception et modélisation d’architectures orientées microservices. Familiarité avec des protocoles de communication interservices (par exemple : gRPC, REST, etc.). Solides connaissances des pratiques de découplage et modularisation. Outillage : Conan : gestionnaire de dépendances pour faciliter le partage et le contrôle des bibliothèques externes. CMake : automatisation des scripts de configuration et de compilation du projet. ArchiMate : méthodes formalisées et outils pour la modélisation et la documentation d’architectures techniques et fonctionnelles. OS : maitrise de Linux, Unix au minimum Qualité & maintenabilité : Sensibilité particulière à la maintenabilité, scalabilité et robustesse des systèmes. Pratique des tests unitaires et d'intégration.
Developpeur Java Angular Spark

Obligatoire : Java, SPARK , Angular Développeur Java Angular Spark (H/F) Localisation : 92 Durée : 6 mois Renouvelable (visibilité 3ans) Démarrage : Avril Contexte : 1) Dans le cadre d'une application au sein du du domaine SI, plusieurs Jobs Datastage vont être migrés vers Spark. le consultant aura pour rôle de faire les évolutions sur la plateforme Spark. 2) Le candidat prendre en charge le développement d'application en java Angular, les montées de versions et correctifs Technologies du projet : Java, Angular, Spark, ElasticSearch... Process : 1 entretien Télétravail : 2 jours/semaine
Lead Technique Fullstack Java/Angular/Kafka

Vos responsabilités : Piloter la conception technique, l’architecture et les choix de design sur l’ensemble du périmètre applicatif. Encadrer et accompagner techniquement les développeurs (revue de code, mentoring, partage de bonnes pratiques). Participer activement au développement des modules backend en Java 10/11 , Spring Boot , Kafka , JMS , et Hibernate . Contribuer au développement du front-end avec Angular 8+, TypeScript, SCSS, PrimeNG , et assurer une bonne intégration UI/UX. Assurer la mise en place de l’intégration continue , des tests automatisés et du monitoring via GitLab CI, Jenkins, Cypress, Sonar, Dynatrace . Gérer l’intégration de services tiers via des API REST/SOAP , ESB, et systèmes de gestion des données (MDM). Travailler en étroite collaboration avec les architectes, les équipes DevOps et les métiers pour garantir la cohérence des livrables.
ingénieur streaming OTT encodage vidéo

Contrainte forte du projet Maîtrise des architectures de streaming OTT Les livrables sont Evolution de nos architectures d’encodage et de diffusion video Amélioration continue des infrastructures et de leur industrialisation Travailler en collaboration avec les équipes de développement afin de faire évoluer et améliorer les plateformes Compétences techniques : Encodage/Transcodage VOD et Live - Expert - Impératif Packaging - Expert - Impératif Supervision OTT - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif)
Data Engineer (H/F)

Poste : Data Engineer (H/F) Type de contrats : CDI/Freelance Localisation : Niort (79) L’ IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . 👍 Alors, vous nous rejoignez ?! Artemys Agil-IT recrute dès à présent un.e Data Engineer . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un d'un de nos clients auprès duquel vous interviendrez sur les missions suivantes : Modéliser et structurer des bases de données en fonction des besoins analytiques. Implémenter des DAGs en python pour alimenter les entrepôts de données. Contribuer à la définition et l’optimisation des normes de développements de l’équipe Data Automatiser et enrichir les contrôles permettant de garantir la fiabilité des données alimentées. Réaliser la documentation fonctionnelles. Réaliser la documentation technique. Contribuer à la définition et l’exécution des plan de tests pour valider le bon fonctionnement des DAGs et assurer la cohérence et fiabilité des jeux de données. Maintenir les entrepôts de données. Participer à la mise en place de tableaux de bord Préparer, suivre les phrases d'homologation et de déploiement des réalisations. Assurer un support technique et fonctionnel auprès des équipes métiers sur l'utilisation des données et des outils analytiques. Optimiser les process et proposer des méthodologies adaptées (veille sur les données, les outils).
Consultant MOA PL/SQL + Hive + Risque de Crédit

MOA PL/SQL et Hive - analyses d'impacts des évolutions . Risque de Crédit et notions associées : RWA, IFRS9, TITRISATION, CRR3 Les missions sont : • Maîtrise d’Ouvrage sur le projet • Rédaction d’expressions de besoins et de documents de spécifications fonctionnelles • Élaboration de cahiers de recettes et exécution des cas de recette • Contribution suivie de l’exploitation de l’outil à travers la maintenance corrective et évolutive • Support aux utilisateurs dans l'explication des résultats • Suivi trimestriel des arrêtés
Incident Manager / Analyste PES PIL et CERT H/F

METSYS est un intégrateur de solutions Cloud, Cybersécurité et Microsoft. Les missions du poste Intégré(e) au sein d'une équipe à taille humaine, tu seras amené(e) à intervenir en Assistance Technique chez l'un de nos clients franciliens, et/ou à participer à des projets dans nos locaux modernes et conviviaux. Dans ce contexte, les missions qui te seront confiées : Intervention sur des missions de prévention ; Intervention sur la détection de réponses à incidents, notamment sur les applications de l'un de nos clients franciliens.
INFRA - Ingénierie KAFKA Elasticsearch SENIOR

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La mission consiste à assurer le support , l'automatisation et le maintient en conditions opérationnelles des plateformes se basant sur les technologies mentionnées ci-dessus (Elasticsearch étant la priorité forte). L’équipe étant intégrée dans des écosystèmes de solutions automatisées, une compréhension de principes DevOps et la capacité à compléter notre outillage maison dans une logique versionnée et déployée est impérative. Cette mission a clairement un orientation production et donc nous cherchons avant tout une expertise à l'aise avec la gestion de la production ( et donc par opposition , moins des développeurs). Quoiqu'il en soit, l'environnement est hétérogène et il sera demandé d'investir du temps pour automatiser la plupart des tâches L1/L2 et le passage sur des Clouds interne ou hybrides ( voir externes) Dans le cadre de l'équipe Analytics, nous créons et maintenons des architectures Big Data pour les besoins interne de l’entreprise. Pour renforcer notre équipe, nous recherchons un ingénieur Elasticsearch / Kafka /Splunk avec des connaissances avancées de ces produits (support de production et accompagnement sur des architectures de grande volumétrie). Les principales technologies supportées sont (par ordre d'importance) • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Splunk • Kafka
PO Technique Kafka

En quelques mots Cherry Pick est à la recherche d'un "PO Technique Kafka" pour un client dans le secteur du Luxe Description 📌 Descriptif du Poste Nous recherchons un Product Owner Technique avec une solide expertise en Kafka et DocumentDB pour piloter la maintenance évolutive d’un outil s’appuyant sur Kafka. Ce rôle implique une forte interaction avec les développeurs et architectes , ainsi que l’animation de la roadmap et des cérémonies Agile . Le candidat idéal est un profil technique expérimenté en Kafka et intégration de flux Kafka Stream en Java , ayant évolué vers un rôle de PO . 🎯 Objectifs et Livrables Piloter la maintenance évolutive de l’outil basé sur Kafka et DocumentDB Gérer le backlog et rédiger les User Stories Animer les cérémonies Agile et assurer la coordination entre les équipes techniques Accompagner la roadmap de l’application Analytics Data Échanger avec les équipes de développement et d’architecture pour garantir la bonne intégration des flux Kafka 📌 Démarrage : ASAP 📌 Durée : Long terme
Développeur C# .NET Backend Finance - systèmes de caching (Apache IGNITE idéalement)

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La mission consiste à : Équilibrez le travail de développement stratégique avec les interruptions de soutien immédiates et le travail tactique. Interagissez avec les équipes d'assistance de première ligne, les utilisateurs professionnels le cas échéant et les autres équipes d'application qui utilisent des postes, y compris en hiérarchisant les demandes provenant de ces différentes sources. Responsable du cycle de vie complet des changements ; clarifier les exigences de l'entreprise, mettre en œuvre des changements, puis s'assurer qu'aucune régression n'a été introduite. Soutien technique de troisième ligne au besoin. L'équipe positions, au sein de laquelle se déroule cette mission, est responsable des services de gestion des positions et de l'API client associée. Le champ d'application comprend plusieurs classes d'actifs des marchés mondiaux - dérivés de taux d'intérêt, devises, obligations, pensions, contrats à terme, MBS, dérivés EQD. L'un des principaux objectifs de l'équipe est de faire progresser la plateforme, tout en répondant au support et aux demandes ad hoc dans un environnement en évolution rapide avec des exigences commerciales en constante évolution.
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- 4 ans de BI, des projets complexes, de la mobilité… mais aucune missionil y a 28 minutes
- ARCE ou ARE : Nouvelles règles 2025il y a une heure
- Etat du marché - Avril 2025il y a 2 heures
- Question sur Contrat d'apporteur d'affaire signéil y a 3 heures
- Office 365il y a 4 heures
- Recherche de témoignagesil y a 19 heures
Les métiers et les missions en freelance pour Apache
Administrateur·rice système Unix (linux...)
L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.
Explorez les offres d'emploi ou de mission freelance pour Administrateur·rice système Unix (linux...) .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresIngénieur·e d'exploitation
L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresResponsable des infrastructures et de la production
Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres