Trouvez votre prochaine offre d’emploi ou de mission freelance Apache
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting
Expert SysOps Kafka

Qui sommes-nous ? Le Groupe Objectware est une ESN spécialisée dans le Conseil IT et la transformation digitale. Nous sommes plus de 1 000 collaborateurs en France (IDF, Strasbourg, Nancy, Lille, Bordeaux, Nantes) et à l'International (Luxembourg, Belgique) pour plus de 100 M€ de CA. Objectware c'est aussi, et surtout, une entreprise à taille humaine, qui a à cœur d’écouter, valoriser et respecter ses collaborateurs, et reconnue Great Place to Work depuis plusieurs années ! Notre conception de l'entreprise ? Un lieu d’énergie, d’innovation, de partage, et d’épanouissement ! Ce que nous proposons : Rejoindre Objectware c'est intégrer des équipes férues de technologies, engagées et dynamiques, dans un environnement collaboratif et stimulant autour de projets variés, ambitieux et innovants. Objectware s’est aussi des communautés d’experts qui accompagnent et participent à la veille technologique ! Votre quotidien en tant qu’expert SysOps KAFKA Dans le cadre de l’audit et de l’amélioration de la plateforme Kafka de notre client : - Audit de l’installation et de la configuration de clusters Kafka - Surveillance et tuning des performances (latence, throughput, partitioning, etc.) - Gestion des incidents et résolution des problèmes de disponibilité ou de débit - Sécurisation des flux Kafka (authentification, autorisations, chiffrement) - Mise en place de la haute disponibilité, de la réplication, du monitoring - Automatisation des tâches récurrentes avec des outils comme Ansible, Terraform ou scripts Shell/Python - Gestion des mises à jour et évolutions du cluster Kafka
Développeur KAFKA

Nous sommes à la recherche d'un(e) : Développeur KAFKA -Valider les topics, ACLs et schémas Avro (compatibilité). - Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka. - Support & Troubleshooting -Analyser et résoudre les incidents sur Kafka (Kafka producer, Kafka consumer, Kafka Connect, Schema Registry…). - Diagnostiquer les problèmes de latence, offset, débit et consommation. - Identifier les root causes et proposer des optimisations. - Développement & Intégration de Connecteurs Kafka Connect -Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible). - Structurer et documenter les process pour assurer une gouvernance efficace. - Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants. - Installer et configurer des agents de monitoring pour prévenir les incidents. - Définir des alertes automatisées pour garantir la résilience de la plateforme. - Automatisation & Industrialisation
lead data scala spark kafka

J'ai un poste à pourvoir pour un data engineer senior qui connaisse le secteur de la finance de marché pour une mission longue en banque technos : scala spark kafka (java) si vous êtes intéressé, n'hésitez pas à postuler je vous appelle dans la journée plus de détails en privé. -- J'ai un poste à pourvoir pour un data engineer senior qui connaisse le secteur de la finance de marché pour une mission longue en banque technos : scala spark kafka (java) si vous êtes intéressé, n'hésitez pas à postuler je vous appelle dans la journée plus de détails en privé.
CONSULTANT APACHE SUPERSET

Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote
Ingénieur Data Scala / Spark

Contexte du poste : Nous recrutons un Expert Data pour rejoindre une équipe projet dans le cadre de la mise en place d’une nouvelle plateforme de pilotage décisionnel. Cette plateforme accompagne la modernisation des systèmes d'information et remplace les outils existants devenus obsolètes. Vous serez directement impliqué dans l'intégration de données à fort volume, la modélisation et l’automatisation, le tout dans un environnement cloud moderne avec une forte culture de la donnée. Missions principales : Mettre en place les flux d’alimentation de données volumineuses via Databricks Concevoir les modèles de données décisionnels et les implémenter dans l’architecture cloud Participer aux rituels agiles du projet (daily, sprint review, planning, démo) Réaliser les notebooks sous Databricks et préparer les données pour la data visualisation Détecter les anomalies de données et contribuer à l'amélioration continue de la qualité Documenter l’architecture, les tests, les procédures de livraison et d’exploitation
Architecte Kafka Confluent Cloud

Responsabilités principales : Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Compétences et qualifications : Diplôme en informatique, ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle. Maîtrise des langages de programmation tels que Java, Scala ou Python. Connaissance approfondie des pratiques de sécurité des données et des architectures microservices. Excellentes compétences en communication, en présentation et en leadership.
INFRA - Ingénierie KAFKA Elasticsearch SENIOR

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La mission consiste à assurer le support , l'automatisation et le maintient en conditions opérationnelles des plateformes se basant sur les technologies mentionnées ci-dessus (Elasticsearch étant la priorité forte). L’équipe étant intégrée dans des écosystèmes de solutions automatisées, une compréhension de principes DevOps et la capacité à compléter notre outillage maison dans une logique versionnée et déployée est impérative. Cette mission a clairement un orientation production et donc nous cherchons avant tout une expertise à l'aise avec la gestion de la production ( et donc par opposition , moins des développeurs). Quoiqu'il en soit, l'environnement est hétérogène et il sera demandé d'investir du temps pour automatiser la plupart des tâches L1/L2 et le passage sur des Clouds interne ou hybrides ( voir externes) Dans le cadre de l'équipe Analytics, nous créons et maintenons des architectures Big Data pour les besoins interne de l’entreprise. Pour renforcer notre équipe, nous recherchons un ingénieur Elasticsearch / Kafka /Splunk avec des connaissances avancées de ces produits (support de production et accompagnement sur des architectures de grande volumétrie). Les principales technologies supportées sont (par ordre d'importance) • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Splunk • Kafka
Tech Lead KAFKA - Secteur assurance

Doté d’une solide expérience dans la MOE et la gestion de Kafka, le dispositif doit avoir une forte appétence pour la technologie et une solide capacité d’analyse, ainsi que de communiquant lui permettant de s’adresser à une population large et variée dans les profils. Nous recherchons un dipsoistif ayant une pleine connaissance de la solution. Capable de l'administrer, de la mettre en place, de la monitorer. Il faut être force de proposition pour ce poste et avoir déjà des réalisations sur la solution. La mission consiste à prendre en charge les activités suivantes ; • Evolution au sein d'une équipe complètement transverse à la DSI afin de gérer le cluster Kafka gérant une forte volumétrie. • Participation à la définition de la feuille de route en tenant compte des adhérences et trajectoires de convergence avec les usages actuels • Conseille aux équipes clientes de la plateforme événementielle. • Construction des principes et outillages autour de la gestion événementielle et de sa plateforme technologique, • Préconisation et implémentation des solutions et ingénieries de type Event Driven Architecture en réponse aux besoins des utilisateurs et les conseiller sur les choix finaux. • Maintenance en condition opérationnelle les plateformes événementielles en diagnostiquant les pannes et les dysfonctionnements liés aux problèmes d’infrastructures • Optimisation des performances des systèmes (tuning) • Gestion des patterns et Librairies • Alimenttion de la Roadmap Kafka : Questionnement d'une possible migration vers Confluent Cloud, à challenger • Mise en place d'un guide de bonne pratique / librairie pour les différentes équipes métiers • Mise en place des templates de paramétrage Au sein de l'équipe, certaines de vos responsabilités seront : • Gestion et développement de plusieurs clusters Kafka on Premise • Forte volumétrie de données • Monitorer les différents clusters • Ensemble de la palette DevOps (chaîne CI/CD, Jenkins, Ansible, Gitlab...) • Capacité à travailler dans un contexte international
Expert Système - serveurs d'applications - N3

CONTEXTE Mettre au catalogue (cloud interne) et maintenir en état opérationnel les solutions clé en main de socles serveurs d'applications. Mettre au catalogue et maintenir en état opérationnel les outillages de configuration de ces socles. Description détaillée : Assurer la prise en charge et la résolution d'incidents N3 critiques en hors production et production. Assurer des astreintes régulières et ponctuelles sur le périmètre de l'ensemble des serveurs d'applications. La composante expertise technique & expérience de production (minimum 5 ans) sur les serveurs d'applications est donc essentielle. Les serveurs d'applications principalement concernés sont : WAS / IHS / JBOSS / TOMCAT / APACHE Les technologies et méthodes utilisées : DEVOPS / AGILE / Gestion de configuration Ansible Tower / Configuration applicatives via XLD/XLR Réalise la conception technique des nouvelles infrastructures ou produits techniques - En relation avec les Architectes, contribue à la réalisation des POC1 et prototypes - Participe aux études pour définir les infrastructures et / ou les produits nécessaires aux besoins des projets et au Maintien en Condition Opérationnelle des Infrastructures et / ou des produits - - Participe aux études ou évolutions de l'architecture technique générale et ainsi qu'à la qualification des plates-formes informatiques - Assure l'interface avec les experts des autres domaines. - Vérifie l'application des normes (sécurité informatique, qualité). Peut intervenir dans le choix des fournisseurs - Garantit la bonne implémentation des produits pour atteindre le bon niveau de qualité de service en cohérence Contrainte forte du projet : Astreintes régulières, expertise WAS / IHS / JBoss / Tomcat / Apache Les livrables sont : Documentations techniques Rapports d'activité
Intégrateur applicatif/ ingénieur OPS

Au sein d'un client grand compte nous recherchons un profil Expert Applicatif Au sein de la section d'expertise applicative du centre d'hébergement, l’ingénieur OPS a pour mission d’assurer l’intégration des applications et les mises à jour dans les environnements hors production de qualification, et pré-production. La section d'expertise applicative accompagne les équipes d’exploitation lors des mises en production des applications (première mise en production et mises en production d'évolutions fonctionnelles et techniques majeures) et en assure le support de niveau 2. Activités principales : L’ingénieur OPS effectue les missions suivantes : • Assister les équipes de développement à préparer des demandes de composants applicatifs • Récupération et installation des packages sur les différentes plates-formes (applicatif+bases de données) sur la base de procédures d'installation • Qualification technique des packages sur les plates-formes selon les normes MI en vigueur (politique d'exploitation de la sécurité et cadre de cohérence technique) • Qualification, sous la conduite du chef de section et avec le concours de l’exploitant, de la conformité des applications vis à vis des normes d’exploitabilité • Industrialisation des procédures d’installation et d’exploitation • Rédaction des cahiers/rapports de tests techniques (y compris fiches de tests) et réalisation des tests • Rédaction ou contribution à la rédaction des documents d'exploitabilité (supervision, sauvegarde, exploitation, ordonnancement) • Accompagnement, assistance et support technique lors des opérations d'installation et de mise en production par les équipes d’exploitation • Accompagnement technique lors de la recette métier (batchs + analyse d'incident) • Support auprès des équipes d’exploitation/intégration • Diagnostic et analyse des dysfonctionnements/incidents techniques sur les briques mises en œuvre. • Traitement des incidents/opération planifiée/demande de service • Veille technologique sur le périmètre technique couvert Modalités : Plage horaire: 09H00-18H00 Astreinte du lundi au lundi. HNO récurrent Compétences techniques : Linux : Savoir administrer des serveurs applicatifs hébergés sur des environnements Linux (système de service, rotation de logs, etc...) Windows : 2 Savoir administrer des serveurs applicatifs hébergés sur des environnements Windows Middleware: 3 Connaître les technologies répandues tel que : - Apache, Tomcat, Nginx, Certificats et SSL - SolR, Haproxy, Vault / sécurité et réseau (seraient un plus) Poste à pourvoir sur Rosny sous bois pour une mission longue durée.
Architecte Kafka Confluent Cloud

Dans le cadre de la mise en place d’une équipe dédiée au streaming de données , nous recherchons un(e) Architecte Système spécialisé(e) Kafka / Confluent Cloud pour notre client dans le domaine du Luxe. Vous interviendrez sur un projet stratégique de transformation des flux de données temps réel , en lien étroit avec les équipes IT, développement et métier. Vos missions principales : Concevoir des architectures de données évolutives et sécurisées via Kafka et Confluent Cloud Définir les stratégies de déploiement et d’intégration (sources de données, plateformes aval) Encadrer des équipes techniques et accompagner la montée en compétences interne Participer à la rédaction de spécifications techniques (architecture, sécurité, performance) Coordonner avec les équipes projet pour le delivery et le support technique de niveau 3 Créer et structurer la documentation (référentiels, bonnes pratiques, procédures de monitoring) Contribuer à la gestion de backlog et au suivi des priorités en lien avec les équipes métiers Compétences recherchées : Expertise avérée sur Apache Kafka et Confluent Cloud Maîtrise des flux de données temps réel , des environnements microservices et des enjeux sécurité Bonne pratique des langages Java / Scala / Python , scripting Unix, SQL/PLSQL Connaissance des outils : Kafka toolset, SQL Server, OpCon, Jira, ServiceNow (SNOW) Expérience en environnement Agile ou hybride Leadership technique, sens du mentoring, autonomie et rigueur Processus : 2 entretiens Go - No Go
TECH LEAD KAFKA
Nous recherchons un Tech Lead expérimenté pour piloter et optimiser nos projets basés sur Kafka et l'architecture Event-Driven. Le candidat idéal maîtrisera l'ensemble des technologies associées au streaming et au développement full-stack, tout en garantissant la sécurité et l'évolutivité des systèmes. Objectifs de la mission : • Garantir la performance et la robustesse des systèmes Kafka. • Mettre en place et superviser une architecture Event-Driven performante. • Assurer la sécurité et l'intégrité des données tout au long des processus. • Apporter une expertise technique à l'équipe et aux projets.
Expert Système

Définition du profil : Participe aux différentes phases projet ou peut être amené à piloter le projet - Met en œuvre des solutions techniques. - Réalise des diagnostics pour identifier les causes de dysfonctionnement, proposer et mettre en œuvre des corrections et des solutions de "back-up". - Propose des solutions pour améliorer les performances de son domaine d'activité. - Assure, si nécessaire, l'interface des experts des autres domaines et gère les échanges avec les sous-traitants. - Définit les règles de bonne gestion des systèmes d'exploitation. - Conçoit si nécessaire les normes et les règles de bonne gestion et vérifier systématiquement leur application (sécurité informatique, qualité?). - Assure la mise à niveau, l'assemblage, la cohérence et l'homologation des différents logiciels (progiciels, base de données, développements spécifiques) dans le respect de l'architecture retenue. - Prend en charge l'intégration de nouvelles applications ou de progiciels (transactionnel et/ou batch) dans le respect des normes et procédures en vigueur - Effectue la réception, la validation et le packaging des composants. - Installe et met à disposition des composants. - Réalise la recette technique et l'homologation des composants / applications. - Participe à l'amélioration des processus et des outils d'industrialisation et de déploiement. - Travaille en relation étroite et permanente avec les équipes Etudes, Infrastructures et Sécurité. Spécificités pour les tests techniques : - Prise de connaissance du changement et de son contexte technique - Complète le plan de tests proposé - Prépare les infrastructures de tests - Valide les documents et les procédures à destination de la production - Réalise les différents tests techniques - Analyse les résultats - Contribue au diagnostic en cas de dysfonctionnement - Rédige les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production - Constitue ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures - Effectue le reporting vers le Responsable Intégration - Contribue à l'amélioration continue - Industrialise les tests techniques récurrents (automatisation, outillage?)
Développeur Expert Kafka

Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements. La prestation peut-être basée à Levallois ou Mérignac. Mission principales dans le cadre de la prestation : Onboarding & Accompagnement des équipes - Valider les topics, ACLs et schémas Avro ( compatibilité) . - Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka. Support & Troubleshooting - Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….) - Diagnostiquer les problèmes de latence, offset, débit et consommation. - Identifier les route cause et proposer des optimisations. Développement & Intégration de Connecteurs Kafka Connect - Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers. - Réaliser des tests de performance et assurer la validation avant mise en production. - Documenter et mettre à disposition les connecteurs sur la plateforme Kafka. Monitoring & Observabilité - Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants. - Installer et configurer des agents de monitoring pour prévenir les incidents. - Définir des alertes automatisées pour garantir la résilience de la plateforme. Automatisation & Industrialisation - Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible). - Structurer et documenter les process pour assurer une gouvernance efficace. Profil & Compétences recherchées : - Expertise technique sur Apache Kafka (administration, technique, troubleshooting). - Schéma Avro & Schema Registry : validation, compatibilité et évolution. - Monitoring & Logging : Kibana, Logstash, Filebeat, Grafana , Dynatrace. - CI/CD & Automatisation : Git, Jenkins, Terraform, Ansible. - Esprit analytique et capacité à résoudre des problèmes complexes. - Excellentes compétences en communication pour accompagner les équipes. - Approche DevOps et automatisation des processus. - Bonne compréhension des architectures de données (API, flux, BDD, etc.) - Anglais courant
Développeur Java Kafka (H/F)

Les missions s’articulent autour des axes suivants : Participer aux phases de Discovery Prendre part dans les analyses techniques et les études d’impacts en amont des développements Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) Réaliser les développements en suivant les bonnes pratiques de développement du Groupe Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette Assurer le support lors des mises en production de chacune des évolutions Assurer le maintien en condition opérationnelle des applications du périmètre Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Apache
Administrateur·rice système Unix (linux...)
L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.
Explorez les offres d'emploi ou de mission freelance pour Administrateur·rice système Unix (linux...) .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresIngénieur·e d'exploitation
L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresResponsable des infrastructures et de la production
Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres