Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 258 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC

Digistrat consulting
Publiée le
Apache Kafka
Elasticsearch
ELK

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) :  La collecte de log  La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log  La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition)  La mise en place d'un monitoring plus fin avec utilisation de l'IA  La configuration de logstash pour des tâches de parsing et d'enrichissements.  La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources.  L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs  Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont :  La mise à jour de la documentation  La maintien en condition des outils  Le développement des outils d'expoitation  La gestion des tickets d'incidents  La gestion des requêtes

CDI
Freelance

Offre d'emploi
Expert technique Observabilité ELASTIC

Deodis
Publiée le
Amazon Elastic Compute Cloud (EC2)
Ansible
DevOps

6 mois
55k-67k €
Montpellier, Occitanie

Au sein de notre client, dans un contexte multi domaines/Clients, vous êtes rattaché(e) à l’équipe « Natif Data Cloud ». Cette équipe assure la réalisation et l’administration des plateformes DEVOPS (fabrication logiciel et déploiement) , CLOUD et DATA. Dans le cadre de besoins Clients et Internes, vous êtes chargé(e) de : Designer, développer, déployer et assurer l’évolution d’une plateforme Elasticsearch Consolider un écosystème complet et cohérent autour de la plateforme Elasticsearch : Infrastructure Concevoir l’infrastructure hautement disponible Optimiser le ratio entre les technologies de stockage Gérer la disponibilité, afin d’assurer une capacité suffisante Appliquer des mises à jour logicielle et des correctifs de sécurité à Elastic Cloud Enterprise et l’infrastructure sous-jacente. Orchestration de la Suite Elastic Assurer la connectivité entre les composants Appliquer automatiquement les changements de configuration Appliquer les paramètres de capacité des besoins clients Prendre des snapshots de façon périodique Accompagner les clients dans la résolution de leurs problématiques Intégrer une chaine de fabrication complète et opérationnelle à base d’artifactory, de Gitlab, Gitlab/CI, Ansible Industrialiser et automatiser les tâches de run autour des composants Elasticsearch, Kibana, Logstash, Beats

Freelance
CDI

Offre d'emploi
Développeur backend Open

Deodis
Publiée le
Apache Kafka
API REST
Eclipse

6 mois
40k-47k €
Montpellier, Occitanie

Mission au sein d'une tribu de notre client avec une équipe de 70 personnes sur le site de Montpellier. Cette tribu porte les produits cœur du SI bancaire (La Tenue de compte, les Dépôt à Vue, la Facturation, les Obligations Règlementaires (inclusion bancaire, clientèle fragile, déclarations FICOBA…etc) et également des parcours clients et conseillers à forts enjeux (demandes et réclamations clients, découverts, coffres physiques, coffre-fort électronique). Et plus particulièrement au sein de la squad qui gère les produits Saisies sur Compte et Réquisitions. Missions : Concevoir et Développer des programmes en Java pour le produit Saisies sur Compte. Participer au projet majeur de la squad : automatisation des saisies des Commissaires de justice (SecurAct V2). Contribuer au maintien en conditions opérationnelles des produits de la squad. En mission secondaire, l'équipier pourrait être amené à prêter assistance lors de la résolution d'incidents en production sur les 40 CR. Attendus : Conception et Développement, dans les critères de qualités, de coûts et de délais attendus au sein de la squad Saisie sur compte et Réquisitions. Avoir une vision transverse des impacts de ses travaux sur l’écosystème et les environnements de fabrication et de production.

Freelance

Mission freelance
Tech Lead (Java/VueJS/Spring/Kafka) (H/F) - Lille

Espace Freelance
Publiée le
Apache Kafka
Java
Spring

3 mois
100-510 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Tech Lead (Java/VueJS/Spring/Kafka) (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - Java - VueJS - Spring - Kafka Principales responsabilités : · Développer des fonctionnalités, en respectant les priorités établies. · Superviser une équipe de développeurs : adopter un rôle de mentor pour partager vos connaissances et faire progresser les compétences de l’équipe. · Collaborer avec le Product Owner pour comprendre les exigences métier et définir les priorités de développement. · Mettre en œuvre des plans de développement logiciel avec une approche agile · Proposer des solutions applicatives en coordination avec les architectes et les autres Tech Leads, afin de répondre aux besoins de l'entreprise. · Maintenir une documentation à jour · Participer aux astreintes · Contribuer à la résolution des incidents en phase de production Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/TLJVSK/140104

CDI

Offre d'emploi
Ingénieur DevOps BigData

nextSourcia
Publiée le
Apache Kafka
Big Data
DevOps

10k-50k €
Toulon, Provence-Alpes-Côte d'Azur

Notre client, acteur majeur du secteur de la défense, participe à l'innovation et à la sécurisation des systèmes d'information critiques. Dans le cadre de l'amélioration de ses capacités de gestion des données, il développe des solutions avancées pour la collecte, l'indexation et l'exploitation des informations stratégiques au sein de son infrastructure Big Data. Mission : Vous serez responsable de la mise en œuvre et de l’exploitation des solutions de gestion de données au sein des systèmes d’information. Vous interviendrez sur l’ensemble du cycle de vie des plateformes Big Data en utilisant les technologies ElasticSearch, Logstash et Cloudera CDP. Responsabilités : - Assurer la mise en œuvre et l’exploitation des solutions de collecte, d’indexation et de recherche de données (ElasticSearch/OpenSearch, Logstash, Kafka). - Gérer et maintenir les plateformes basées sur Cloudera CDP. - Effectuer le Maintien en Condition Opérationnelle (MCO) des composants de la plateforme Datalake. - Garantir la disponibilité et la performance des infrastructures Big Data en exploitant les clusters associés. - Superviser et analyser les performances via des outils comme Kibana et Grafana.

Freelance
CDI

Offre d'emploi
Développeur Open et Mainframe Sénior

VPEX-IT
Publiée le
Apache Kafka
API REST
COBOL

1 an
10k-50k €
Montpellier, Occitanie

Attendu Tout au long du cycle de vie produit, vous fabriquez les solutions nécessaires aux évolutions et au bon fonctionnement des produits de l'équipe, en respectant les normes, procédures et les ambitions de l'entreprise (TTM, UX, ROI, Qualité first). Taches Missions principales : - Assurer la conception, l'intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives - Préparer la mise en production avec les équipes expertes - Gérer et maintenir la documentation fonctionnelle et technique - Assurer l'assistance à l'utilisation des applications - Assurer le diagnostic et la résolution des dysfonctionnements

CDI

Offre d'emploi
Responsable DevOps / SRE

Groupe Aptenia
Publiée le
Ansible
Bash
Cloud

55k-65k €
Toulouse, Occitanie

Je suis à la recherche d'un Responsable DevOps pour l'un de mes prestigieux clients. Les missions seront : Garantir le bon fonctionnement des infrastructures et applications avec un monitoring efficace et une réaction rapide face aux incidents Effectuer un suivi détaillé pour améliorer la disponibilité et les performances des applications, services, systèmes et infrastructures Assurer une veille permanente pour le maintien à jour des systèmes Être force de proposition sur les nouvelles technologies pouvant améliorer les performances et le déploiement de la solution Assurer le support du produit auprès de nos clients dans le respect des SLA Mettre en place les bonnes pratiques et stratégies pour fluidifier la mise en production Qualification des demandes d’évolutions techniques liées au projet Participer au déploiement des mises à jour, ainsi qu’à l’installation de la solution du client Créer et tenir à jour la documentation relative aux processus, à l’automatisation, à l’infrastructure, aux ressources et aux services

CDI
Freelance

Offre d'emploi
Développeur Open et Mainframe

Deodis
Publiée le
Apache Kafka
API REST
Architecture

6 mois
35k-41k €
Montpellier, Occitanie

La Squad que vous intégrerez est en charge de la modernisation d'un autre socle de notre client. Ce Socle est un ensemble de ressources et services mis à disposition des parcours de gestion Conseiller et des différents parcours Client accessibles via les canaux web et mobile de notre client. Missions : Assurer la conception, l'intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l'assistance à l'utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Tout au long du cycle de vie produit, vous fabriquez les solutions nécessaires aux évolutions et au bon fonctionnement des produits de la squad, en respectant les normes, procédures et les ambitions de l'entreprise (TTM, UX, ROI, Qualité first).

Freelance
CDI

Offre d'emploi
DEVOPS

MSI Experts
Publiée le
Ansible
Elasticsearch
Git

6 mois
10k-40k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un DevOps pour intégrer l'équipe de notre client. Vos missions incluront : Assurer la maintenance et l'évolution des jobs Jenkins et des pipelines CI/CD. Contribuer à l'amélioration continue de l'infrastructure. Gérer les livraisons en environnement de recette et en production. Mettre en œuvre et améliorer les scénarios de performance. Optimiser les métriques applicatives et les dashboards existants (Grafana). Maintenir et faire évoluer l'Infrastructure-as-code. Effectuer les montées de version et gérer l'obsolescence de certaines briques techniques. Collaborer avec les équipes de développement et d'exploitation. Participer activement aux projets d'évolutions techniques, tels que la migration de zones réseau ou de technologies de bases de données

Freelance

Mission freelance
Mission infrastructures de Messaging et Streaming (DevSecOps/ActiveMQ/Kafka/RabbitMQ)

Intuition IT Solutions Ltd.
Publiée le
Apache Kafka
Cloud

4 mois
550-700 €
Vélizy-Villacoublay, Île-de-France

La Prestation consiste à contribuer à : Être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production, Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations. Livrables Livraison des infrastructures de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Etre support pour toutes les procédures à mettre en place et vérifier leur bonne application pratique sur les différents outils ActiveMQ et Kafka Etre support technique aux équipes de Cloud RUN pour le troubleshooting des incidents de production Gestion au quotidien & coaching technique et humain de l’équipe Messaging (ingénieurs DevSecOps)

Freelance

Mission freelance
Data Engineer (Hadoop, Spark, Kafka, Teradata, Microstrategy) (H/F)

DCS EASYWARE
Publiée le

Paris, France

Nous recherchons un Data Engineer (H/F) expérimenté pour rejoindre notre équipe en pleine expansion. Vous serez responsable de la conception, de l'optimisation et de la gestion des pipelines de données dans un environnement Big Data complexe. Vous travaillerez avec une large gamme de technologies, notamment Spark, Kafka, et la stack Hadoop Cloudera, tout en adoptant une approche DevOps pour améliorer l'efficacité des processus. Responsabilités : - Concevoir, développer et maintenir des pipelines de traitement de données à l'aide de Spark (streaming et batch), Kafka et la stack Hadoop (Cloudera). - Gérer et optimiser les flux de données sur des plateformes Big Data comme HDFS, Hive, HBase, Phoenix, et MongoDB. - Implémenter des solutions DevOps avec GIT, Jenkins, Artifactory, XL Release, ELK et Grafana pour assurer le déploiement continu et la surveillance des pipelines de données. - Collaborer avec les équipes Scrum dans un cadre agile pour garantir une livraison efficace des projets en lien avec les squads (PO, DEV). - Assurer l'intégration et la transformation des données provenant de différentes sources en veillant à la qualité et à la sécurité. - Améliorer l'architecture des données pour répondre aux exigences d'évolutivité et de performance. Vous êtes diplômé en informatique, ingénierie ou équivalent et être de minimum 5 ans d'expérience en tant que Data Engineer, dans un environnement Big Data. Vous avez de solides compétences en programmation Java et une expérience prouvée avec Spark et Kafka. Expérience en gestion d'infrastructures Hadoop Cloudera et bonnes connaissances en environnement DevOps. Familiarité avec les méthodologies agiles (Scrum) et des compétences en environnement décisionnel (Teradata / Microstrategy) seraient appréciées. Notre processus de recrutement : En 4 étapes ! Tout simplement. - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone ; - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou Teams ; - Pour finir, vous discuterez métier avec l'un de nos managers opérationnels ; - Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau !

Freelance
CDI

Offre d'emploi
Data Engineer Finance

VISIAN
Publiée le
Agile Scrum
Ansible
Apache Airflow

2 ans
10k-65k €
Charenton-le-Pont, Île-de-France

Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

Freelance

Mission freelance
Développeur Big Data (F/H)

Quick Source
Publiée le
Ansible
Apache Kafka
Docker

2 mois
400-470 €
Île-de-France, France

Vos missions : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : -d’ingestion de données, - de validation de données, -de croisement de données, -de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels

Freelance
CDI

Offre d'emploi
Intégrateur DevOps

NOSCO
Publiée le
Angular
Ansible
Apache Kafka

2 ans
10k-54k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : o Participation à l'amélioration continue de l'infrastructure, diagnostic et résolution des incidents de production et suivi de RUN o Maintenance et évolution de jobs Jenkins et CI/CD o Livraison en recette, production o Amélioration des métriques applicatives et des dashboards en place (Grafana) o Amélioration et exécution des tirs / scénarii de performance o Maintenance et amélioration de l'Infrastructure-as-code o Communication avec les équipes de développement et avec l'exploitant Activité secondaire : o Rédaction et maintien des documentations techniques o Mise en oeuvre des méthodes de modélisation des données et des traitements o Animation de réunions

Freelance
CDI
CDD

Offre d'emploi
TechLead/Architect Cloud (MLOPS/DataOps)

bdevit
Publiée le
Ansible
Apache Kafka
AWS Cloud

36 mois
55k-65k €
Île-de-France, France

Dans le cadre de ces développements, le DataLab souhaite confier à un expert Cloud, venant en renforcement de son équipe usine logicielle la mission suivante : - Travailler sur des sujets de migration de solution "On Premise" vers le Cloud ; - Mettre en place l'outillage nécessaire à l'implémentation d'une méthodologie DevSecOps ; - Assurer l'intégration dans les architectures cibles : Configurer les plateformes, Industrialiser les architectures, Définir es accès aux ressources et les optimiser ; - Assister à l'élaboration de solutions et leurs optimisations ; - Rédiger les documents techniques et les livrables projets ; - Améliorer l'architecture actuelle ; - Transférer la connaissance et la compétence aux internes du DataLab. Résultats Attendus Des Livrables : Le DevOps sera accompagné par l'équipe Usine Logicielle. Il devra par ailleurs, fournir les livrables suivantes : - Une documentation conforme aux exigences du DataLab ; - Un support de l'ensemble des applications gérées en interne ; - Un support de l'ensemble des applications des entités déployées ; - Codes Sources commentés et "reviewés" ; - Intégration de tests unitaires des fonctionnalités développées ; - Présentation et partage des travaux.

Freelance

Mission freelance
CONSULTANT TECHNICO-FONCTIONNEL SAP FI-CO - SUPPORT APPLICATIF

PROPULSE IT
Publiée le
applicatif
Consultant
fi - co

24 mois
225-450 €
Paris, France

Contexte Afin de renforcer l'équipe SAP FI CO, notamment sur le périmètre Support applicatif, nous cherchons un consultant connaissant SAP FI CO. Son intervention se fera sur nos 2 systèmes SAP fortement interfacés, au sein d'une équipe FICO de 5 personnes et en interaction avec d'autres personnes du domaine (MM SD ou Traducteur comptable) ou externes au domaine (MOE, MOA, métier). Description Sur les sujets qui lui seront confiés, le consultant assumera les missions suivantes : Mission principale : - Assurer la maintenance des systèmes au quotidien - Assister et former les utilisateurs (incidents, maintenance corrective-évolutive) Missions secondaires : - Assister la Maîtrise d'Ouvrage - Prise en charge et suivi des évolutions (recueil des besoins, chiffrage, planning et mise en œuvre) - Rédiger les spécifications fonctionnelles générales et détaillées - Réaliser le paramétrage SAP FI et CO - Effectuer les tests unitaires et les recettes - Assurer la coordination avec les autres équipes Livrables Rédiger et maintenir à jour la documentation technique et fonctionnelle

258 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous