Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Engineer
Ton quotidien : ⭐ Être garant de l'accès qualitatif aux données 📈, ⭐ Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprises, ⭐ Réaliser la publication des données dans le Cloud, ⭐ Participer à la construction des modèles de données à mettre en œuvre (Alimentation, stockage, modélisation, restitution), ⭐Validera la qualité des développements de son équipe, ⭐ Définir la politique de la donnée et de son cycle de vie 🧬. 🏅 𝐓𝐞𝐬 𝐚𝐭𝐨𝐮𝐭𝐬 𝐩𝐨𝐮𝐫 𝐫𝐞́𝐮𝐬𝐬𝐢𝐫 Être force de proposition sur d’éventuelles innovations Capacité à travailler en interdépendance avec d’autres équipes Volonté d’évoluer dans un environnement agile et dynamique
INGENIEUR SYSOPS( Redhat/ Kafka) CONFIRME - Profil Habilitable

Nous recherchons un Ingénieur SysOps RedHat, Kafka confirmé pour un client situé dans le département 78. Le profil doit avoir la Nationalité française pour une habilitation. ANGLAIS LU ECRIT ET PARLE. Installation et configuration de Kafka Déploiement des clusters Kafka sur des environnements distribués (serveurs physiques ou virtuels). Configuration des servers Kafka pour assurer leur performance optimale Mise en place des flux de données, partitions et réplications 2. Surveillance et maintenance Surveillance en temps réel de l'état des servers , des partitions et des flux de données Kafka pour détecter les éventuelles pannes ou dégradations de performance. Utilisation d'outils comme Prometheus , Grafana , ou Kafka Manager pour superviser les métriques de Kafka (latence, débit, erreurs, etc.). Gestion des logs et des alertes pour assurer une disponibilité continue et des performances optimales. 3. Gestion de la sécurité Mise en place des mécanismes de sécurité , et cryptage des données en transit (SSL/TLS). Application des meilleures pratiques en matière de sécurité pour protéger les flux de données transitant sur Kafka. 4. Scalabilité et haute disponibilité Gestion de la mise à l'échelle des clusters Kafka Mise en place de stratégies pour assurer la haute disponibilité et la tolérance aux pannes , par exemple, en configurant des répliques de partitions sur plusieurs serveurs. 5. Optimisation des performances Ajustement des paramètres de configuration pour améliorer les performances comme la gestion de la mémoire, des fichiers journaux (logs), et des fichiers de données. Mise en place des stratégies de compression des données pour optimiser l'utilisation de l'espace disque. 6. Gestion de la rétention des données Configuration de la rétention des messages sur Kafka en fonction des politiques de l'entreprise (rétention par temps, par taille, etc.). 7. Déploiement des mises à jour et des patches Mise à jour des versions de Kafka, application des patches de sécurité et de performance, tout en minimisant les interruptions de service. Tests avant mise en production pour éviter toute régression dans les environnements sensibles. 8. Automatisation et scripts Création de scripts d'automatisation pour faciliter la gestion de Kafka, 9. Documentation et formation Documentation des procédures et des meilleures pratiques pour l'utilisation et l'administration de Kafka. Formation des équipes internes sur l'utilisation de Kafka et l'optimisation des performances de leurs applications. 10. Support technique Assistance aux équipes internes TECHNOLOGIES : KAFKA / REDHAT LINUX Kibana / ElasticSearch DevOps (Saltstack, Rundeck) Zabbix, Prometheus, Grafana
Développeur full stack sénior Nodejs / Vuejs
Nous recherchons un développeur full stack senior, expert en Node.js, Vue.js et PostgreSQL, pour une mission chez notre client final à Lille. Les tâches principales consistent à : Participer à l'ajout de nouvelles fonctionnalités au produit et contribuer à l'amélioration des fonctionnalités existantes. Développement de fonctionnalités au sein de l'API (NodeJS / ES6 / Typescript). Mise en place de l'intégration via des flux Kafka. Développement des interfaces utilisateur pour notre application front-end (VueJS / Vuex). Participation aux phases d'analyse et de conception de l'application ainsi que du modèle de données.
Développeur Expert Java

Nous recherchons un Développeur Java Expert pour intégrer une Digital Factory et contribuer au développement et à la maintenance des applications d’un Order Management System (OMS) . Ce système gère l’ensemble du processus de commande, du tunnel d’achat jusqu’à la logistique. Vos missions 🔹 Concevoir et développer des solutions performantes et évolutives 🔹 Assurer la maintenance et l’amélioration continue des applications 🔹 Analyser et corriger les anomalies 🔹 Participer activement aux rituels agiles (Daily, Sprint Planning, Rétrospective, etc.) 🔹 Contribuer à l’amélioration de la qualité du code (Craftsmanship, bonnes pratiques) 🔹 Documenter les projets développés
Ingénieur DevOps (H/F)

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans un environnement technique stimulant et en constante évolution, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur DevOps (H/F) 🚀 🎲 Notre client est l’un des leaders des jeux d’argent en Europe , avec plus de 25 millions de Français adeptes d’une offre de jeux sécurisée, innovante et créatrice de valeur pour la collectivité. Il s’adapte continuellement aux usages pour proposer de nouvelles expériences, notamment en diversifiant son réseau de distribution (site web, points de vente, applications mobiles). 🎰 🙌🔽 Les tâches à effectuer seront donc les suivantes : 🔽🙌 🔸 Industrialisation des processus DevOps ✔ Déploiement de pipelines CI/CD ✔ Automatisation des tâches récurrentes (scripting) 🔸 Gestion des déploiements (de DEV à PROD) ✔ Contribution au plan de Mise en Production (MEP) ✔ Répétition des gestes de MEP en suivant les procédures et le cadencement ✔ Rédaction des tâches de changements 🔸 Sur l’environnement de production ✔ Maintien en Conditions Opérationnelles (MCO) ✔ Gestion des incidents et des problèmes (ITIL)
Data Engineering Elasticsearch/Kafka

Le bénéficiaire souhaite une prestation d'ingénierie Big Data (Elasticsearch, Kafka) dans le cadre de projets, consistant à la collecte et l'indexation massive de logs, ainsi que l’accompagnement et le conseil sur l’usage de ces couches techniques (support N2). L'équipe est dédiée à la mise en œuvre et l’exploitation d'infrastructures de très grandes tailles. Les missions sont : - Conseil auprès des clients internes sur les bons usages et les aider dans leurs implémentations utilisant nos plateformes
Expert Devops KAFKA

Nous recherchons un Expert Kafka pour accompagner le déploiement, l’optimisation et l’exploitation de notre plateforme de streaming de données. Vous jouerez un rôle clé dans la mise en œuvre d’une architecture orientée événements (Event-Driven Architecture), en intégrant Apache Kafka comme élément central du traitement et de la distribution des données en temps réel. Vous interviendrez dans un environnement technique moderne , intégrant le Cloud (AWS, GCP, Azure) , des technologies Big Data et des outils de monitoring avancés. Missions Principales 🔹 Conception et Mise en Place de Kafka Concevoir, déployer et administrer une infrastructure Kafka robuste et scalable. Définir les bonnes pratiques d’architecture event-driven et de gestion des flux de données. Assurer la haute disponibilité et la résilience des clusters Kafka. Sécuriser Kafka en appliquant les meilleures pratiques de chiffrement, d’authentification et d’autorisation. 🔹 Optimisation et Performance Analyser les performances des clusters Kafka et proposer des améliorations (scalabilité, latence, débit). Optimiser la gestion des partitions, des topics et des configurations de réplication. Mettre en place des outils de monitoring et d’alerting pour assurer la supervision proactive des flux de données. 🔹 Développement et Intégration Concevoir des producers et consumers Kafka performants et sécurisés. Intégrer Kafka aux autres systèmes du SI (bases de données, applications métier, services cloud). Participer au déploiement et à la gestion de Kafka Connect et Kafka Streams pour les transformations de données en temps réel. 🔹 Support et Accompagnement Assurer un support aux équipes IT et métiers sur les problématiques Kafka. Rédiger des documentations techniques et animer des sessions de formation pour améliorer l’adoption des solutions de streaming. Collaborer avec les équipes DevOps, Data et Cloud pour garantir une intégration fluide de Kafka dans l’écosystème IT du Crédit Agricole.
Mission SYSOPS

Nous recherchons un consultant SYSOPS pour une mission de 12 mois. La mission comporte deux volets: un volet architecture et un volet administration / exploitation de production : · La partie Architecte nécessite de discuter avec les clients pour comprendre leurs enjeux et proposer un sizing de la plateforme, ainsi que les accompagner dans les bonnes pratiques de développement et de livraison. · La partie Exploitation de production nécessite des opérations obligatoires de patching, mise à jour de mot de passe et certificats, certificats création des nouveaux utilisateurs et policies associées, etc. Dans ce contexte, la prestation consiste à : Ø Maintenir l’architecture existante Ø Participer à l’industrialisation, au déploiement, au maintien des clusters Ø Mettre en place les nouveaux outils que notre SI souhaite explorer comme Kafka, Iceberg, Impala … Ø Participer à l’exploitation quotidienne des plateformes (vérifier la santé des clusters, mettre à jours mensuellement les serveurs) Ø Gérer la sécurité et l’accès aux clusters Ø Monitorer les plateformes et communiquer sur les besoins futurs Ø Mener les réflexions sur les évolutions à apporter aux plateformes Compétences requises Ø Environnement anglophone qui nécessite la maitrise de l’anglais à l’oral et à l’écrit Ø De formation BAC + 5 (Universitaire ou Ingénieur) avec une spécialisation en Informatique ou discipline équivalente Ø Expérience de minimum 2 ans comme Sysops Ø Connaissance d’administration de Sparks, Kafka, Iceberg Ø Maitrise des systèmes d'exploitation Linux et une bonne connaissance des scripts Python Ø Connaissance de l'architecture de haute disponibilité et de la sauvegarde Ø Connaissance d'Unix Ø Connaissance de l'Infra As Code (SaltStack ou autres outils de gestion de configuration) serait un plus
Administrateur Kafka

Contexte : Dans le cadre du renforcement de son infrastructure de streaming de données, notre client, une banque de renom, recherche un Administrateur Kafka pour assurer l’installation, la configuration, la gestion et l’optimisation de l’écosystème Kafka. Vous interviendrez sur des environnements critiques en garantissant la haute disponibilité, la performance et la sécurité des plateformes de messagerie en temps réel. Missions Principales : En tant qu’Administrateur Kafka, vous serez en charge de : Installation, configuration et maintenance de l’écosystème Kafka (Kafka Brokers, Zookeeper, Kafka Connect, Kafka Streams, Schema Registry) ; Supervision et monitoring des clusters Kafka afin d’assurer la performance et la haute disponibilité des services (via Prometheus, Grafana, ELK, Splunk, etc.) ; Optimisation des performances en ajustant les paramètres de configuration et en mettant en œuvre les bonnes pratiques de tuning et de scalabilité ; Sécurisation des échanges de données (authentification, autorisation, chiffrement TLS, intégration Kerberos ou ACLs) ; Gestion des mises à jour et des montées de version de Kafka et de ses composants ; Automatisation des opérations d’administration via des scripts (Shell, Python, Ansible, Terraform) ; Support et troubleshooting des incidents liés à Kafka, analyse des logs et résolution des problèmes en lien avec les équipes IT et DevOps. Documentation des procédures, des architectures et des bonnes pratiques liées à l’administration de Kafka.
Développeur JAVA Calypso

Développement et Personnalisation Calypso est une solution prête à l'emploi , mais chaque banque a des besoins spécifiques . Un développeur doit : Créer des modules spécifiques (ex : nouveaux types de produits financiers). Personnaliser les workflows et règles métiers en Java. Développer des adaptateurs pour interfacer Calypso avec d’autres systèmes (ERP, risk management, autres applications bancaires). Intégration avec le Système d’Information Calypso doit communiquer avec d’autres applications de la banque , donc un développeur travaille sur : Connexion aux bases de données (Oracle, SQL Server, PostgreSQL). Développement d’API REST/SOAP pour exposer les fonctionnalités Calypso. Intégration avec Kafka / RabbitMQ pour la gestion des flux de données en temps réel.
Développeur Back JAVA / KAFKA STREAM / DEVOPS

- Développement Back-End en JAVA 11+ - Frameworks JAVA commun tels que Hibernate, et la suite Spring - Modèles d’architectures Microservices (CQRS, Event driven) - Pratique de la sécurité des API - Connaissance et pratique d’Apache Kafka - Serveur d'application Tomcat et des technologies JEE - Utilisation quotidienne de l'IDE IntelliJ - Utilisation des outils de "CI" (Gitlab, Gitlab-CI) et de contrôle de source (Bitbucket / Git) - Infra cloud (GCP, Kubernetes, Helm, ArgoCD). - Utilisation et configuration de Grunt, Bower. - Techniques de conception (UML) - Les bases de données et la modélisation (SQL, Oracle, MySQL) - La méthodologie Agile SCRUM - Connaissance Keycloack, ou protocole OpenID Connect Compétences techniques et/ou fonctionnelles souhaitable : - Environnement UNIX et LINUX (Redhat), Script Shell, Bash, Python, Etc. - Kafka Stream
Développeur Fullstack Senior Java / Angular / DevOps (H/F) – CDI
📍 Localisation : Paris & Île-de-France (hybride) 💼 Contrat : CDI 🎯 Expérience requise : 8 ans et + 🏠 Télétravail : Selon mission Amontech (groupe Artemys) recrute un(e) Développeur(se) Fullstack Senior expert(e) en Java, Angular et DevOps pour accompagner nos clients dans leurs projets à forte valeur ajoutée. Votre mission : 🔹 Développement Fullstack : Conception et développement en Java (Spring Boot) et Angular . 🔹 Architecture et Performance : Optimisation des applications pour assurer leur scalabilité et leur robustesse. 🔹 DevOps & Automatisation : CI/CD, gestion de l’infrastructure en tant que code, monitoring des performances. 🔹 Collaboration internationale : Travail avec des équipes situées en Inde et des clients internationaux. 🔹 Leadership technique : Accompagnement des équipes et choix stratégiques sur l’architecture logicielle.
Product Owner

Nous recherchons un Product Owner ayant la capacité de collaborer avec une équipe produit, dans un contexte B2B pour des clients de type grand compte et à l’international. Vous intégrerez une équipe agile responsable de deux des produits, et au sein de laquelle vous assurerez toutes les tâches relatives à la gestion de produit. Principales tâches relatives à la mission : Contribuer à construire un produit standardisé / « core » pour accompagner l’accélération du développement de diverses applications métiers ; Travailler selon la méthodologie Scrum, participer à l’ensemble des cérémonies agiles. Préparer les développements : Participer à l’élaboration du product goal des releases et des sprints, en accord avec la roadmap produit ; Analyser, cadrer, rédiger, estimer et prioriser les users stories ; Analyser et prioriser les bugs à résoudre ; Etablir les stratégies de tests en relation avec l’équipe QA. Pendant les développements : Piloter et suivre l’avancement des sprints, mettre à jour les priorités lorsque nécessaire ; Accompagner les équipes de développements et de QA ; Réaliser des tests et des validations ; S’assurer de la livraison des développements conformément aux objectifs ... Gestion des releases : Suivre et contribuer aux phases de tests QA et utilisateurs pour permettre de valider les montées de versions ou les résolutions de bugs dans délais attendus ; Gérer et coordonner les opérations de mise en production. Process / Méthode : Être garant d’un process de delivery solide ; Contribuer à l’amélioration continue des processus de l’équipe en étant force de proposition et acteur de la mise en place des évolutions (organisation, pratiques, outils …). Discovery : Intervenir en tant que référent produit dès la phase de cadrage lors de projets de déploiement : recueil des besoins, analyse et priorisation des gaps avec la solution standard, proposition et cadrage des solutions ; Etudier les besoins clients et réaliser des études d’impact de manière transverse dans l’optique de développer des fonctionnalités standard/ « core » ...
developpeur back

Java SpringBoot - Confirmé - Impératif Kafka - Confirmé - Impératif API REST - Confirmé - Impératif MongoDB - Confirmé - Important Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée Nous te proposons d’intégrer l’équipe chargée de maintenir et construire les composants qui permettent la communication entre le logiciel de référencement produit et les différents produits digitaux. La plateforme d'intégration multi-protocole, est déployée sur GCP. A ce titre, tu es notamment en charge : ● De concevoir et réaliser des solutions standardisées - en particulier la partie backend, tout en respectant les drivers digitaux de la société. ● De déployer et maintenir nos solutions (évolutions et corrections) ● De contribuer aux études et définitions des spécifications applicatives et techniques de la solution ● De participer à l’ensemble des rituels agiles (Daily meetings, Affinage, Sprint review, Retrospective) En tant que développeur, tu connais les nouvelles tendances et opportunités technologiques et tu sais les partager. Tu es en relation avec les différents pôles au sein du domaine Product Master Data, et plus généralement de la plateforme Produit.
developpeur back

Java Spring Boot - Confirmé - Impératif Mongo DB - Expert - Impératif kafka - Confirmé - Impératif Outils de tests unitaires - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Secondaire) Description détaillée Notre mission est d'optimiser la connaissance du groupe sur ces actifs stratégiques, en accord avec les principes de la confidentialité des données, tout en offrant une expérience utilisateur de haute qualité. La mission actuelle se concentre sur le développement de services back-end pour le produit Data Compliance, dédié à garantir le respect de la confidentialité des données client. Le produit, principalement développé en Java Spring, repose sur des bases de données MongoDB, avec une infrastructure de messagerie Kafka, intégrant également un front-end développé en VueJS. Les chaînes CI/CD s'appuie sur Turbine (solution de déploiement GKE mutualisé ADEO). En tant que Developpeur backend, vous serez responsable du BUILD et du RUN de nos solutions, notamment : Développer, tester, documenter et livrer les fonctionnalités des nouvelles releases. Appliquer les préconisations d'architecture, de sécurité et de performance. Assurer la qualité et la robustesse des développements, en veillant à leur adéquation avec les user stories préparées par le PO. Mettre en place et maintenir des pipelines CI/CD pour garantir un déploiement continu et fiable du produit. Assurer la surveillance proactive des systèmes, l'analyse des journaux et la résolution des problèmes opérationnels. Challenger les co-équipiers sur le contenu des prochaines releases. Évaluer la charge de développement des prochaines releases et les "reste à faire" sur les développements en cours.
Développeur Java / Angular / Kafka

Bonjour à tous, Je recherche pour un de mes clients un développeur Java/Angular/Kafka : Quelques éléments concernant les missions : •Migration des offres proposées •Ajout de la nouvelle offre au catalogue •Création et envoi d’un nouvel évènement Kafka •Définir les paramètres de l’offre •Permettre aux administrateurs de gérer l’offre Transition vers une nouvelle UX & UI •Utilisation d’une nouvelle architecture à part entière dans le but de diminuer les appels vers l’API •Transition vers de nouvelles données mises en avant Mutualisation des dépendances Migration du partenaire de gestion de collecte automatique •Analyse de l’existant •POC sur la faisabilité et estimation de la charge de travail •Analyse des API et du fonctionnement du nouveau partenaire
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le mythe de la demande d'ACRE à faire immédiatementil y a 15 minutes
- Etudes quantitative mémoire de fin d'études (Indépendant/Conseil)il y a 33 minutes
- Effets de la chute des cours de bourseil y a 2 heures
- SSII refuse de payeril y a 2 heures
- Etat du marché - Avril 2025il y a 3 heures
- Démission freelance pour signer un CDI ailleursil y a 3 heures