Trouvez votre prochaine offre d’emploi ou de mission freelance Bash
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Devops
La mission consiste à : - Déploiement régulier des applications - Intégration continue - Gestion des outils de CI/CD - Gestion et automatisation des environnements des développeurs - Prise en compte de la sécurité dès la conception - Mise en place des bonnes pratiques auprès des utilisateurs - Gestion des incidents et des tickets de RUN remontés par les utilisateurs Compétences demandées : - Administration systèmes Gnu / Linux - Administration réseau (VPC, VPN, Firewall) - Kubernetes, Docker, Helm, GCP, Python, CI/CD ... - Stockage des données : PostgreSQL, MongoDB, Bigquery, ElasticSearch - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Offre d'emploi
Ingénieur DevOps
Nous recherchons un ingénieur DevOps pour une mission dans le secteur bancaire. Dans un environnement technique riche (Java / .Net / Angular / Python / Datastage / Oracle / MySQL / PowerBI / Shell / Openshift / GCP / …) : - Fournir un support aux composants de l'usine logicielle (Bitbucket/Jenkins/Azure DevOps/Sonar/Checkmarx/Artifactory/XLDeploy/XLRelease) - Améliorer les scripts Groovy internes pour offrir de nouvelles fonctionnalités dans les pipelines Jenkins - Aider les développeurs à construire des pipelines pertinents pour leurs produits - Collaborer avec les équipes de développement pour identifier et résoudre les problèmes.
Offre d'emploi
DBA CASSANDRA F/H
Pour l’un de nos clients grands comptes, nous recherchons un DBA Cassandra. Dans ce contexte, le DBA sera en charge des missions suivantes : Gestion des clusters Cassandra : Installation, configuration et maintenance des clusters Cassandra en production. Performance et optimisation : Surveillance et optimisation des performances des bases de données afin de garantir la disponibilité et la scalabilité. Sécurité et sauvegarde : Mise en place des stratégies de sécurité, de sauvegarde et de récupération. Support et dépannage : Résolution des incidents de production et analyse des problèmes de performance. Évolution de l'architecture : Participer à la mise en œuvre de nouvelles versions de Cassandra et aux choix d'architecture pour répondre aux besoins croissants. Compétences Techniques Requises : Maîtrise de Cassandra : Solides compétences dans l'administration, la configuration, et le tuning de Cassandra. Langage de Requête CQL : Expérience dans la rédaction et l'optimisation des requêtes en CQL (Cassandra Query Language). Partitionnement et Modélisation de Données : Connaissance approfondie de la modélisation de données adaptée aux bases de données NoSQL et des pratiques de partitionnement pour une performance optimale. Outils d’Administration et Monitoring : Expérience avec des outils comme OpsCenter, Prometheus, Grafana ou Datastax pour le monitoring de Cassandra. Scripting et Automatisation : Maîtrise de langages de script (Python, Bash, etc.) pour l'automatisation des tâches d’administration. Gestion des Performances : Compétence en optimisation de performances, gestion de la charge, et analyse des métriques. Connaissance de la Sécurité : Compétences en configuration des autorisations, en chiffrement des données et en gestion des utilisateurs. Compétences appréciées : Connaissance des environnements cloud (AWS, Azure, Google Cloud) et des solutions de déploiement de Cassandra en cloud. Expérience avec d'autres bases de données NoSQL (MongoDB, Redis). Compétences en CI/CD et dans l’utilisation d’outils comme Jenkins, Docker, et Kubernetes pour la gestion des déploiements. Bonne compréhension de la gestion des clusters en multi-datacenters.
Offre d'emploi
Architecte SCCM Infra F/H
METSYS est un intégrateur de solutions Cloud, Cybersécurité et Microsoft. Pour l'un de nos clients grands-comptes du secteur bancaire, nous recherchons un.e Architecte SCCM Infra (F/H) pour un démarrage imminent à Paris/La Défense. Dans le cadre de cette mission, vous auriez notamment en charge les tâches suivantes : La gestion du parc des serveurs Windows via l'outil SCCM, y compris le packaging d'applications, le patching et la gestion des vulnérabilités L'encadrement de 7 collaborateurs de niveau 2 situés en Inde L'automatisation des tâches de réplication entre notre site de production et notre site de secours La réflexion autour de moyens techniques pour les évolutions de l'offre OS Windows aux différents comités organisés L'implémentation de standards de Sécurité visant à sécuriser l'écosystème Windows L'automatisation des processus de gestion du parc de serveurs Windows Le support aux autres équipes d'ICR/ALD en cas de besoin
Mission freelance
Senior AWS & Platform Engineer
Durée du contrat : 12 mois (avec possibilité de prolongation) Lieu : Télétravail 100% Présentation : Nous recherchons un Senior AWS Cloud & Platform Engineer pour concevoir, déployer et gérer des services cloud et de plateforme pour une entreprise mondiale spécialisée dans le luxe. Ce rôle est axé sur la création de solutions performantes et sécurisées pour soutenir les initiatives de transformation numérique, e-commerce, et chaîne d'approvisionnement dans un environnement haut de gamme. Responsabilités principales : Concevoir et implémenter une infrastructure AWS pour les applications de commerce de luxe, en garantissant évolutivité, fiabilité et conformité avec les normes de l'industrie. Développer et maintenir des infrastructures en tant que code (IaC) à l'aide de Terraform ou CloudFormation pour automatiser le provisionnement et gérer efficacement les ressources. Architecturer et gérer des services de plateforme , y compris des clusters Kubernetes (EKS), des applications conteneurisées et des solutions centralisées de journalisation et de surveillance. Optimiser les réseaux AWS pour des opérations mondiales, y compris VPCs , Direct Connect , Route 53 , et CloudFront pour une connectivité et une performance optimales. Mettre en œuvre des pipelines CI/CD avec AWS CodePipeline ou Jenkins pour soutenir le déploiement rapide et sécurisé des fonctionnalités des plateformes numériques. Renforcer la sécurité cloud avec des outils comme AWS Security Hub , IAM policies , GuardDuty , et WAF pour protéger les données des clients et de l'entreprise. Surveiller et gérer les services AWS clés, notamment EC2 , S3 , RDS , Lambda , et DynamoDB , pour garantir performance et efficacité des coûts. Fournir une expertise en observabilité et fiabilité de la plateforme avec des outils tels que Prometheus, Grafana et AWS CloudWatch. Collaborer avec les équipes DevOps, produit et sécurité pour assurer la livraison de solutions de haute qualité alignées sur les valeurs de la marque et les besoins opérationnels. Compétences clés : Expertise avancée des services AWS pour le calcul, le stockage, les réseaux et les bases de données. Expérience avérée en ingénierie de plateforme , y compris Kubernetes (EKS) , orchestration de conteneurs et architecture de microservices. Maîtrise de Terraform , CloudFormation , et des langages de scripting tels que Python ou Bash . Solide compréhension des concepts de réseaux AWS , y compris les configurations hybrides, le routage et la distribution de contenu mondial. Familiarité avec les solutions de journalisation et de surveillance centralisées adaptées aux environnements à grande échelle. Connaissance des meilleures pratiques en matière de sécurité des données et de conformité dans le commerce, comme le RGPD et PCI DSS.
Mission freelance
EXPERT GCP ENGINEER
Titre du poste : Expert GCP Engineer Durée du contrat : 12 mois (avec possibilité de prolongation) Lieu : Télétravail complet (bureaux à Londres et Paris) Présentation : Nous recherchons un Expert GCP Engineer pour rejoindre une initiative de transformation cloud menée par une grande banque. Ce rôle est essentiel pour concevoir, implémenter et optimiser des solutions basées sur GCP, répondant aux exigences strictes du secteur bancaire en matière d'évolutivité, de sécurité et de performance. Responsabilités principales : Concevoir et implémenter une infrastructure GCP pour soutenir des applications bancaires critiques, tout en respectant les meilleures pratiques de l'industrie et les normes de conformité (ex. : RGPD, DORA). Développer et gérer des infrastructures en tant que code ( IaC ) avec Terraform , garantissant des déploiements cohérents et reproductibles. Optimiser les configurations réseau sur GCP, notamment la conception de VPC , la connectivité hybride ( Cloud VPN , Interconnect ) et les politiques IAM. Assurer une haute disponibilité et une tolérance aux pannes des services bancaires en utilisant des outils GCP tels que Cloud Load Balancer , Cloud Monitoring et Cloud Operations Suite . Collaborer avec les équipes de sécurité pour mettre en œuvre des mesures de sécurité avancées , incluant le chiffrement, les configurations de pare-feu et la gestion des accès. Automatiser les pipelines CI/CD avec Cloud Build ou Jenkins , pour déployer efficacement des applications basées sur des microservices. Surveiller et résoudre les problèmes des services GCP ( BigQuery , Cloud Functions , Pub/Sub ) afin de garantir les performances attendues. Fournir une documentation détaillée et transférer les connaissances aux équipes internes pour renforcer leur maîtrise des bonnes pratiques sur GCP. Compétences clés : Expertise approfondie de Google Cloud Platform (GCP) avec une expérience pratique sur Compute Engine , Kubernetes Engine (GKE) et BigQuery . Maîtrise de Terraform et Git pour l’automatisation de l’infrastructure. Expérience confirmée en réseaux GCP , incluant Cloud NAT , Cloud Armor et IAM . Compétences avancées en scripting ( Python ou Bash ) pour l’automatisation et la création d’outils personnalisés. Solide compréhension des technologies de containerisation telles que Docker et orchestration avec Kubernetes. Connaissance des cadres de conformité bancaire (ex. : PCI DSS , RGPD ). Exigences : Expérience avérée dans la livraison de solutions GCP au sein d'environnements à grande échelle et fortement réglementés. Excellentes compétences analytiques et de résolution de problèmes avec une attitude proactive. Capacité à travailler de manière autonome et à produire des résultats en télétravail. Atouts : Expérience des architectures multi-cloud (ex. : Azure, AWS). Certifications telles que Google Professional Cloud Architect ou Google Professional Data Engineer .
Mission freelance
Ingénieur DevOps Senior SRE (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Ingénieur DevOps Senior SRE (H/F) dans le cadre d'un projet Big Data. Description du poste : Nous recrutons pour notre client, une entreprise d'envergure en pleine transformation digitale de sa plateforme de données. Ce projet vise à mettre en place une infrastructure automatisée, élastique et performante, capable de répondre aux besoins de personnalisation, de traitement en temps réel, et d'analyses avancées. En tant qu'Ingénieur DevOps / SRE, vous jouerez un rôle clé dans l'optimisation de la fiabilité, de l'efficacité et de la résilience de cette infrastructure. Missions principales : - Fiabilité et disponibilité : Assurer la stabilité et la résilience de l'infrastructure en appliquant les meilleures pratiques du SRE. Mettre en oeuvre des solutions pour maximiser l'uptime, surveiller les performances et gérer les incidents de manière proactive. - Infrastructure as Code : Développer et maintenir une infrastructure automatisée et scalable grâce à des outils Infrastructure as Code (IaC) comme Ansible, pour garantir la cohérence et la rapidité des déploiements. - Orchestration de conteneurs : Automatiser le déploiement et la gestion de clusters Kubernetes à grande échelle, en veillant à une orchestration fluide et à la sécurité des conteneurs. - Automatisation et CI/CD : Créer et gérer des pipelines d'intégration et de déploiement continus (CI/CD) pour assurer des déploiements fluides et rapides tout en réduisant les risques d'erreurs humaines. - Scripting et monitoring avancé : Développer des scripts et des outils pour optimiser les processus de surveillance, de sécurité et de maintenance proactive de la plateforme. Mettre en place des systèmes de monitoring avancés pour une visibilité en temps réel sur les performances et les incidents. - Gestion de données distribuées : Assurer la gestion des flux de données distribués (Kafka, Cassandra, Elastic) pour le traitement en temps réel et les besoins analytiques de la plateforme. Profil recherché : - Expérience confirmée de 5 ans minimum en DevOps et SRE, avec une expertise en Infrastructure as Code. - Solide maîtrise des concepts SRE, notamment les pratiques de fiabilité des systèmes, de gestion des erreurs et de monitoring. - Compétences avancées en conteneurisation (Docker) et orchestration de clusters (Kubernetes) pour un environnement de production à grande échelle. - Expertise en scripting (Bash, Python) pour l'automatisation de tâches complexes. - Excellente compréhension des systèmes distribués et des environnements de production élastiques. - Sens de la communication pour collaborer efficacement avec des équipes pluridisciplinaires. Compétences techniques requises : - Infrastructure as Code : Ansible pour l'automatisation et la gestion de l'infrastructure. - Orchestration et conteneurisation : Kubernetes et Docker pour le déploiement et la gestion des applications. - Automatisation et scripting : Maîtrise de Bash et Python pour l'automatisation des workflows. - CI/CD : Expérience avec GitLab CI, Jenkins, et Nexus pour créer et gérer des pipelines CI/CD. - Middleware et traitement de données : Connaissances en Kafka, Cassandra, Elastic pour gérer les données distribuées et le traitement de flux en temps réel. - Monitoring avancé : Grafana, Prometheus et Kibana pour la surveillance des systèmes et la gestion proactive des performances. - Systèmes et réseaux : Maîtrise des environnements Linux et des concepts réseau (TCP/IP, firewalls) pour optimiser la sécurité et la connectivité de la plateforme. Compétences additionnelles : - Connaissance des principaux fournisseurs de cloud (AWS, Azure, GCP) pour la gestion d'infrastructure multi-cloud. - Compréhension des bases de données relationnelles et NoSQL pour assurer la résilience des données. - Capacité d'analyse et d'anticipation pour résoudre les problèmes complexes et prévenir les incidents. - Curiosité technique et capacité d'apprentissage pour se tenir à jour sur les nouvelles pratiques DevOps et SRE.
Mission freelance
DBA CASSANDRA F/H
Pour l’un de nos clients grands comptes, nous recherchons un DBA Cassandra. Dans ce contexte, le DBA sera en charge des missions suivantes : Gestion des clusters Cassandra : Installation, configuration et maintenance des clusters Cassandra en production. Performance et optimisation : Surveillance et optimisation des performances des bases de données afin de garantir la disponibilité et la scalabilité. Sécurité et sauvegarde : Mise en place des stratégies de sécurité, de sauvegarde et de récupération. Support et dépannage : Résolution des incidents de production et analyse des problèmes de performance. Évolution de l'architecture : Participer à la mise en œuvre de nouvelles versions de Cassandra et aux choix d'architecture pour répondre aux besoins croissants. Compétences Techniques Requises : Maîtrise de Cassandra : Solides compétences dans l'administration, la configuration, et le tuning de Cassandra. Langage de Requête CQL : Expérience dans la rédaction et l'optimisation des requêtes en CQL (Cassandra Query Language). Partitionnement et Modélisation de Données : Connaissance approfondie de la modélisation de données adaptée aux bases de données NoSQL et des pratiques de partitionnement pour une performance optimale. Outils d’Administration et Monitoring : Expérience avec des outils comme OpsCenter, Prometheus, Grafana ou Datastax pour le monitoring de Cassandra. Scripting et Automatisation : Maîtrise de langages de script (Python, Bash, etc.) pour l'automatisation des tâches d’administration. Gestion des Performances : Compétence en optimisation de performances, gestion de la charge, et analyse des métriques. Connaissance de la Sécurité : Compétences en configuration des autorisations, en chiffrement des données et en gestion des utilisateurs. Compétences appréciées : Connaissance des environnements cloud (AWS, Azure, Google Cloud) et des solutions de déploiement de Cassandra en cloud. Expérience avec d'autres bases de données NoSQL (MongoDB, Redis). Compétences en CI/CD et dans l’utilisation d’outils comme Jenkins, Docker, et Kubernetes pour la gestion des déploiements. Bonne compréhension de la gestion des clusters en multi-datacenters.
Mission freelance
INTEGRATEUR EXPLOITANT JAVA VTOM H/F
Délivrer les installations applicatives dans le respect de la qualité, du périmètre et des délais conformément au plan projet ainsi que la documentation associée. 1. Configuration des systèmes d’exploitation (prérequis applicatif) 2. Installation des applications et logiciel sous-jacent 3. Configuration technique des applications 4. Scripting et ordonnancement sous l’ordonnanceur VTOM (si nécessaire) 5. Mise à jour de la CMDB ServiceNOW l’installation et la configuration d’applications sous JAVA. Installation et configuration de serveurs applicatifs comme : tomcat, jboss, apache, etc. Scripting bash, shell, powershell. Savoir élaborer une matrice de flux et faire des tests d’ouverture de flux. Savoir générer et installer des certificats serveurs. Connaissance de l’outil ServiceNow.
Mission freelance
Développeur full stack (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack (H/F) à Lille, Hauts-de-France, France. Contexte : - Les tâches d'industrialisation seront accompagnées des KPI permettant de mesurer le rapport coût, valeur et décider des actions souhaitées. - La proposition finale représentera 3 services - Industrialisation - Déploiement et mesure des actions d'améliorations - Un service minimum (astreintes) permettant aux bus qui le souhaitent une totale autonomie sur le déploiement. Les missions attendues par le Développeur full stack (H/F) : Fort de son expérience et de son background de projet de développement Front et Back. Nous recherchons un développeur Full Stack confirmé sur les technologies Java /Node.JS, KOTLIN/ ainsi que l'environnement d'exécution sous Cloud. Connaissances : Mango DB, POSGRESS/ Sécurité, Reprise de données, Script Shell, SQL Motivation, Esprit d'équipe, force de proposition, curiosité business : Exigé
Offre d'emploi
Devops 6/9 ans d'expérience
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein du département "Architecture & Excellence Opérationnelle" de la DSI Corporate, Le domaine Development Factory regroupe l'expertise DevSecOps ainsi que le support de l'usine logicielle. Dans ce contexte, le domaine recherche un Ingénieur DevOps. 🤝 Responsabilités : Dans un environnement technique riche (Java / .Net / Angular / Python / Datastage / Oracle / MySQL / PowerBI / Shell / Openshift / GCP / …) : - Fournir un support aux composants de l'usine logicielle (Bitbucket/Jenkins/Azure DevOps/Sonar/Checkmarx/Artifactory/XLDeploy/XLRelease) - Améliorer les scripts Groovy internes pour offrir de nouvelles fonctionnalités dans les pipelines Jenkins - Aider les développeurs à construire des pipelines pertinents pour leurs produits - Collaborer avec les équipes de développement pour identifier et résoudre les problèmes.
Mission freelance
Consultant HPC (High Performance computing) et Data engineering / Slurm
Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.
Mission freelance
Tech Lead en BigData/PowerBI
Attendu : BI (Senior): - SQL (Teradata serait un plus) - Script Shell/Unix - PowerBI & Business Object (confirmé) BigData (Senior): - Java - Spark - Kafka - Script Shell/Unix - La partie la plus importante car tous les process comportent des scripts javaSpark en batch ou streaming (source Kafka) Autre (Confirmé): - Anglais (B2) - Jira - Scrum - SAFe Soft Skills: Il faudrait idéalement quelqu'un qui a eu une expérience avec l'offshore en Inde. Un team player, problem solver et pragmatique qui sait se rendre dispo pour aider tous les membres de l'équipe. Nb années d'expérience : 5 ans et +
Mission freelance
POT8067-Un Ingénieur de Production sur Paris
Almatek recherche pour l'un de ses clients Un Ingénieur de Production sur Paris. A partir de 4 ans d’expérience Environnement obligatoire : Linux, Shell, Websphere, Autosys, Dynatrace, Ansible, Anglais obligatoire. Mission longue démarrage ASAP Almatek recherche pour l'un de ses clients Un Ingénieur de Production sur Paris. A partir de 4 ans d’expérience Environnement obligatoire : Linux, Shell, Websphere, Autosys, Dynatrace, Ansible, Anglais obligatoire. Mission longue démarrage ASAP Almatek recherche pour l'un de ses clients Un Ingénieur de Production sur Paris. A partir de 4 ans d’expérience Environnement obligatoire : Linux, Shell, Websphere, Autosys, Dynatrace, Ansible, Anglais obligatoire. Mission longue démarrage ASAP
Offre d'emploi
Ingénieur DevOps
Afin d'accompagner notre client, acteur majeur dans le retail, dans la mise en œuvre de leur transformation digitale, NORGAY recrute un Ingénieur Devops (H/F). Ce qui vous attend : Planification du code, sa structure, organisation (en fonction du besoin), Ecriture du code, Réalisation de tests, détection des failles, risques et exécution, Construction d’un package applicatif : obtention d’un bundle de code exécutable, optimisé pour lancer l’application, Dépôt du package sur un repository manager (gestion des différentes versions du code), Déploiement de l’application, dépôt du package sur les cibles D’automatiser le cycle de vie d’une application et l’installation “Infrastructure as a code”, De concevoir puis de mettre en œuvre des architectures systèmes, De superviser les services et infrastructures. Environnement technique : GCP, GKE, Terraform, Ansible, Hashicorp Vault, Jenkins, Python, Shell, Git, Kubernetes.
Mission freelance
Ingénieur DevOps Senior (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Ingénieur DevOps Senior (H/F) dans le cadre d'un projet Big Data. Description du poste : Nous recrutons pour notre client, une entreprise d'envergure, actuellement en pleine transformation digitale de sa plateforme de données. Ce projet vise à optimiser une infrastructure robuste et élastique capable de répondre aux besoins de performance et de personnalisation, tout en permettant des traitements en temps réel et des analyses avancées. Missions principales : - Développer et gérer une infrastructure automatisée et scalable, en utilisant des pratiques Infrastructure as Code. - Orchestrer et automatiser le déploiement de conteneurs et la gestion d'applications dans un environnement de grande échelle. - Mettre en place et gérer des pipelines d'intégration et de déploiement continus pour garantir la fluidité des déploiements et la rapidité des itérations. - Développer des scripts avancés pour optimiser les processus de monitoring, de sécurité et de maintenance. - Participer à la gestion de flux de données distribués en temps réel et au traitement de gros volumes, tout en assurant la résilience et la sécurité de la plateforme. Profil recherché : - Expérience confirmée de 5 ans minimum en DevOps et Infrastructure as Code. - Maîtrise des technologies de conteneurisation et d'orchestration. - Compétences avancées en scripting pour l'automatisation des processus. - Connaissance approfondie des systèmes distribués et des environnements de production. Connaissances techniques requises : - Infrastructure as Code : Ansible. - Conteneurisation et orchestration : Kubernetes, Docker. - Automatisation et scripting : Bash, Python. - Gestion de pipelines CI/CD : GitLab CI, Jenkins, Nexus. - Middleware et traitement des données : Kafka, Spark, Cassandra, Elastic. - Outils de monitoring : Grafana, Prometheus, Kibana. - Connaissance de GO (souhaitée) pour le développement de microservices. - Environnement cloud et réseau sous Linux.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Close de non concurrence freelance à portgae salarial
- Arce 7 mois après la création de l'entreprise ?
- Calcul de crédit impôt - cas pratique
- situation compliquée fin de mission pression client comment gèrer ?
- 🎯 Recherche Expert pour Accompagnement sur SCCM et Intune 🚀
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?