Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
Expert technique Observabilité ELASTIC
Au sein de notre client, dans un contexte multi domaines/Clients, vous êtes rattaché(e) à l’équipe « Natif Data Cloud ». Cette équipe assure la réalisation et l’administration des plateformes DEVOPS (fabrication logiciel et déploiement) , CLOUD et DATA. Dans le cadre de besoins Clients et Internes, vous êtes chargé(e) de : Designer, développer, déployer et assurer l’évolution d’une plateforme Elasticsearch Consolider un écosystème complet et cohérent autour de la plateforme Elasticsearch : Infrastructure Concevoir l’infrastructure hautement disponible Optimiser le ratio entre les technologies de stockage Gérer la disponibilité, afin d’assurer une capacité suffisante Appliquer des mises à jour logicielle et des correctifs de sécurité à Elastic Cloud Enterprise et l’infrastructure sous-jacente. Orchestration de la Suite Elastic Assurer la connectivité entre les composants Appliquer automatiquement les changements de configuration Appliquer les paramètres de capacité des besoins clients Prendre des snapshots de façon périodique Accompagner les clients dans la résolution de leurs problématiques Intégrer une chaine de fabrication complète et opérationnelle à base d’artifactory, de Gitlab, Gitlab/CI, Ansible Industrialiser et automatiser les tâches de run autour des composants Elasticsearch, Kibana, Logstash, Beats
Offre d'emploi
Développeur backend Open
Mission au sein d'une tribu de notre client avec une équipe de 70 personnes sur le site de Montpellier. Cette tribu porte les produits cœur du SI bancaire (La Tenue de compte, les Dépôt à Vue, la Facturation, les Obligations Règlementaires (inclusion bancaire, clientèle fragile, déclarations FICOBA…etc) et également des parcours clients et conseillers à forts enjeux (demandes et réclamations clients, découverts, coffres physiques, coffre-fort électronique). Et plus particulièrement au sein de la squad qui gère les produits Saisies sur Compte et Réquisitions. Missions : Concevoir et Développer des programmes en Java pour le produit Saisies sur Compte. Participer au projet majeur de la squad : automatisation des saisies des Commissaires de justice (SecurAct V2). Contribuer au maintien en conditions opérationnelles des produits de la squad. En mission secondaire, l'équipier pourrait être amené à prêter assistance lors de la résolution d'incidents en production sur les 40 CR. Attendus : Conception et Développement, dans les critères de qualités, de coûts et de délais attendus au sein de la squad Saisie sur compte et Réquisitions. Avoir une vision transverse des impacts de ses travaux sur l’écosystème et les environnements de fabrication et de production.
Mission freelance
Tech Lead (Java/VueJS/Spring/Kafka) (H/F) - Lille
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Tech Lead (Java/VueJS/Spring/Kafka) (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - Java - VueJS - Spring - Kafka Principales responsabilités : · Développer des fonctionnalités, en respectant les priorités établies. · Superviser une équipe de développeurs : adopter un rôle de mentor pour partager vos connaissances et faire progresser les compétences de l’équipe. · Collaborer avec le Product Owner pour comprendre les exigences métier et définir les priorités de développement. · Mettre en œuvre des plans de développement logiciel avec une approche agile · Proposer des solutions applicatives en coordination avec les architectes et les autres Tech Leads, afin de répondre aux besoins de l'entreprise. · Maintenir une documentation à jour · Participer aux astreintes · Contribuer à la résolution des incidents en phase de production Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/TLJVSK/140104
Offre d'emploi
Ingénieur DevOps BigData
Notre client, acteur majeur du secteur de la défense, participe à l'innovation et à la sécurisation des systèmes d'information critiques. Dans le cadre de l'amélioration de ses capacités de gestion des données, il développe des solutions avancées pour la collecte, l'indexation et l'exploitation des informations stratégiques au sein de son infrastructure Big Data. Mission : Vous serez responsable de la mise en œuvre et de l’exploitation des solutions de gestion de données au sein des systèmes d’information. Vous interviendrez sur l’ensemble du cycle de vie des plateformes Big Data en utilisant les technologies ElasticSearch, Logstash et Cloudera CDP. Responsabilités : - Assurer la mise en œuvre et l’exploitation des solutions de collecte, d’indexation et de recherche de données (ElasticSearch/OpenSearch, Logstash, Kafka). - Gérer et maintenir les plateformes basées sur Cloudera CDP. - Effectuer le Maintien en Condition Opérationnelle (MCO) des composants de la plateforme Datalake. - Garantir la disponibilité et la performance des infrastructures Big Data en exploitant les clusters associés. - Superviser et analyser les performances via des outils comme Kibana et Grafana.
Offre d'emploi
Développeur Open et Mainframe Sénior
Attendu Tout au long du cycle de vie produit, vous fabriquez les solutions nécessaires aux évolutions et au bon fonctionnement des produits de l'équipe, en respectant les normes, procédures et les ambitions de l'entreprise (TTM, UX, ROI, Qualité first). Taches Missions principales : - Assurer la conception, l'intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives - Préparer la mise en production avec les équipes expertes - Gérer et maintenir la documentation fonctionnelle et technique - Assurer l'assistance à l'utilisation des applications - Assurer le diagnostic et la résolution des dysfonctionnements
Offre d'emploi
Responsable DevOps / SRE
Je suis à la recherche d'un Responsable DevOps pour l'un de mes prestigieux clients. Les missions seront : Garantir le bon fonctionnement des infrastructures et applications avec un monitoring efficace et une réaction rapide face aux incidents Effectuer un suivi détaillé pour améliorer la disponibilité et les performances des applications, services, systèmes et infrastructures Assurer une veille permanente pour le maintien à jour des systèmes Être force de proposition sur les nouvelles technologies pouvant améliorer les performances et le déploiement de la solution Assurer le support du produit auprès de nos clients dans le respect des SLA Mettre en place les bonnes pratiques et stratégies pour fluidifier la mise en production Qualification des demandes d’évolutions techniques liées au projet Participer au déploiement des mises à jour, ainsi qu’à l’installation de la solution du client Créer et tenir à jour la documentation relative aux processus, à l’automatisation, à l’infrastructure, aux ressources et aux services
Offre d'emploi
Développeur Open et Mainframe
La Squad que vous intégrerez est en charge de la modernisation d'un autre socle de notre client. Ce Socle est un ensemble de ressources et services mis à disposition des parcours de gestion Conseiller et des différents parcours Client accessibles via les canaux web et mobile de notre client. Missions : Assurer la conception, l'intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l'assistance à l'utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Tout au long du cycle de vie produit, vous fabriquez les solutions nécessaires aux évolutions et au bon fonctionnement des produits de la squad, en respectant les normes, procédures et les ambitions de l'entreprise (TTM, UX, ROI, Qualité first).
Offre d'emploi
DEVOPS
Nous recherchons un DevOps pour intégrer l'équipe de notre client. Vos missions incluront : Assurer la maintenance et l'évolution des jobs Jenkins et des pipelines CI/CD. Contribuer à l'amélioration continue de l'infrastructure. Gérer les livraisons en environnement de recette et en production. Mettre en œuvre et améliorer les scénarios de performance. Optimiser les métriques applicatives et les dashboards existants (Grafana). Maintenir et faire évoluer l'Infrastructure-as-code. Effectuer les montées de version et gérer l'obsolescence de certaines briques techniques. Collaborer avec les équipes de développement et d'exploitation. Participer activement aux projets d'évolutions techniques, tels que la migration de zones réseau ou de technologies de bases de données
Mission freelance
Mission infrastructures de Messaging et Streaming (DevSecOps/ActiveMQ/Kafka/RabbitMQ)
La Prestation consiste à contribuer à : Être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production, Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations. Livrables Livraison des infrastructures de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Etre support pour toutes les procédures à mettre en place et vérifier leur bonne application pratique sur les différents outils ActiveMQ et Kafka Etre support technique aux équipes de Cloud RUN pour le troubleshooting des incidents de production Gestion au quotidien & coaching technique et humain de l’équipe Messaging (ingénieurs DevSecOps)
Mission freelance
Data Engineer (Hadoop, Spark, Kafka, Teradata, Microstrategy) (H/F)
Nous recherchons un Data Engineer (H/F) expérimenté pour rejoindre notre équipe en pleine expansion. Vous serez responsable de la conception, de l'optimisation et de la gestion des pipelines de données dans un environnement Big Data complexe. Vous travaillerez avec une large gamme de technologies, notamment Spark, Kafka, et la stack Hadoop Cloudera, tout en adoptant une approche DevOps pour améliorer l'efficacité des processus. Responsabilités : - Concevoir, développer et maintenir des pipelines de traitement de données à l'aide de Spark (streaming et batch), Kafka et la stack Hadoop (Cloudera). - Gérer et optimiser les flux de données sur des plateformes Big Data comme HDFS, Hive, HBase, Phoenix, et MongoDB. - Implémenter des solutions DevOps avec GIT, Jenkins, Artifactory, XL Release, ELK et Grafana pour assurer le déploiement continu et la surveillance des pipelines de données. - Collaborer avec les équipes Scrum dans un cadre agile pour garantir une livraison efficace des projets en lien avec les squads (PO, DEV). - Assurer l'intégration et la transformation des données provenant de différentes sources en veillant à la qualité et à la sécurité. - Améliorer l'architecture des données pour répondre aux exigences d'évolutivité et de performance. Vous êtes diplômé en informatique, ingénierie ou équivalent et être de minimum 5 ans d'expérience en tant que Data Engineer, dans un environnement Big Data. Vous avez de solides compétences en programmation Java et une expérience prouvée avec Spark et Kafka. Expérience en gestion d'infrastructures Hadoop Cloudera et bonnes connaissances en environnement DevOps. Familiarité avec les méthodologies agiles (Scrum) et des compétences en environnement décisionnel (Teradata / Microstrategy) seraient appréciées. Notre processus de recrutement : En 4 étapes ! Tout simplement. - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone ; - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou Teams ; - Pour finir, vous discuterez métier avec l'un de nos managers opérationnels ; - Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau !
Offre d'emploi
Data Engineer Finance
Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Mission freelance
Développeur Big Data (F/H)
Vos missions : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : -d’ingestion de données, - de validation de données, -de croisement de données, -de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels
Offre d'emploi
Intégrateur DevOps
Poste basé à Lyon avec 50% de télétravail maximum Activité principale : o Participation à l'amélioration continue de l'infrastructure, diagnostic et résolution des incidents de production et suivi de RUN o Maintenance et évolution de jobs Jenkins et CI/CD o Livraison en recette, production o Amélioration des métriques applicatives et des dashboards en place (Grafana) o Amélioration et exécution des tirs / scénarii de performance o Maintenance et amélioration de l'Infrastructure-as-code o Communication avec les équipes de développement et avec l'exploitant Activité secondaire : o Rédaction et maintien des documentations techniques o Mise en oeuvre des méthodes de modélisation des données et des traitements o Animation de réunions
Offre d'emploi
TechLead/Architect Cloud (MLOPS/DataOps)
Dans le cadre de ces développements, le DataLab souhaite confier à un expert Cloud, venant en renforcement de son équipe usine logicielle la mission suivante : - Travailler sur des sujets de migration de solution "On Premise" vers le Cloud ; - Mettre en place l'outillage nécessaire à l'implémentation d'une méthodologie DevSecOps ; - Assurer l'intégration dans les architectures cibles : Configurer les plateformes, Industrialiser les architectures, Définir es accès aux ressources et les optimiser ; - Assister à l'élaboration de solutions et leurs optimisations ; - Rédiger les documents techniques et les livrables projets ; - Améliorer l'architecture actuelle ; - Transférer la connaissance et la compétence aux internes du DataLab. Résultats Attendus Des Livrables : Le DevOps sera accompagné par l'équipe Usine Logicielle. Il devra par ailleurs, fournir les livrables suivantes : - Une documentation conforme aux exigences du DataLab ; - Un support de l'ensemble des applications gérées en interne ; - Un support de l'ensemble des applications des entités déployées ; - Codes Sources commentés et "reviewés" ; - Intégration de tests unitaires des fonctionnalités développées ; - Présentation et partage des travaux.
Mission freelance
CONSULTANT TECHNICO-FONCTIONNEL SAP FI-CO - SUPPORT APPLICATIF
Contexte Afin de renforcer l'équipe SAP FI CO, notamment sur le périmètre Support applicatif, nous cherchons un consultant connaissant SAP FI CO. Son intervention se fera sur nos 2 systèmes SAP fortement interfacés, au sein d'une équipe FICO de 5 personnes et en interaction avec d'autres personnes du domaine (MM SD ou Traducteur comptable) ou externes au domaine (MOE, MOA, métier). Description Sur les sujets qui lui seront confiés, le consultant assumera les missions suivantes : Mission principale : - Assurer la maintenance des systèmes au quotidien - Assister et former les utilisateurs (incidents, maintenance corrective-évolutive) Missions secondaires : - Assister la Maîtrise d'Ouvrage - Prise en charge et suivi des évolutions (recueil des besoins, chiffrage, planning et mise en œuvre) - Rédiger les spécifications fonctionnelles générales et détaillées - Réaliser le paramétrage SAP FI et CO - Effectuer les tests unitaires et les recettes - Assurer la coordination avec les autres équipes Livrables Rédiger et maintenir à jour la documentation technique et fonctionnelle
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes