Trouvez votre prochaine offre d’emploi ou de mission freelance Kubernetes à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Développeur Fullstack VueJS/Java - Acteur Innovant de la Tech - Paris (H/F)
L'équipe IT, composée de personnes passionnées et hautement qualifiées, gère une diversité de projets depuis le développement d'applications internes jusqu'à la création de solutions digitales innovantes pour nos clients. Ce rôle de Développeur Fullstack (orienté Front) est à pourvoir pour faire face à l'accroissement de nos activités et l'évolution de nos stacks technologiques. 🔦 Missions Conception et développement des interfaces front-end en utilisant VueJS, PrimeVue et Maplibre Développement des applications et fonctionnalités back-end avec une solide maîtrise de Java, Spring Boot et RESTful Services Participation à la maintenance, au déploiement et à la sécurisation des applications Contribution à l'amélioration continue de la qualité du code et des pratiques de développement 🛠️ Stack technique Frontend : Vue.JS (2.0 et 3.0), PrimeVue, Maplibre Backend : Java, Spring Boot, Java Persistence API Base de données : SQL Server, Redis, PostgreSQL, MongoDB Outils et méthodes : Git, Jira, Gitlab CI, Azure DevOps, Docker, Kubernetes, SCRUM, UML
Mission freelance
MCO / deploiement d'applications digitale
La mission se concentre autour de 2 grands périmètres : le Maintien en Conditions Opérationnelles des applications sur le domaine digital (compte clients, frontaux) l'homologation en pre-production et la mise en production des applications La mission se réalisera dans un contexte "devops". - Assurer le bon fonctionnement, la disponibilité et la continuité des services, l’administration et l’exploitation des applications du domaine Clients, (dans le respect des engagements de résultats, de délais et de coûts), ainsi que la communication sur incident et opérations planifiées ; - Contribuer à la mise en œuvre, l’animation et la gestion de processus opérationnels d’Applications (ITIL) tels que la gestion des incidents, la gestion des problèmes, la gestion de configuration, la gestion des changements et la gestion de mise en production ; - Assurer la Vérification d’Aptitude au Bon Fonctionnement Opérationnel (VABFO) des applications du domaine sur les environnements de pré-production, dans le respect des engagements de services attendus ; - Réaliser les mises en production ; - Rendre compte auprès du manager opérationnel - Contribuer à la création, la modification ou la suppression de services applicatifs en production, en facilitant la transition de l’état projet à l’état opérationnel, dans le respect des exigences métiers ; - Contribuer à la mise à disposition, de manière industrielle et dans un contexte devops, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs du domaine Client - Contribuer en continu à l’amélioration du fonctionnement des applicatifs et services associés
Offre d'emploi
Lead Tech Data Studio & MLOPS - Sénior - Paris
En tant que Lead Tech Data Studio & MLOps Senior, vous serez responsable du cadrage et de la mise en place d'une solution de Data Studio, destinée à servir plusieurs équipes via une offre mutualisée. Vous piloterez les travaux techniques depuis le cadrage initial jusqu'au déploiement, en supervisant également la migration des usages vers cette nouvelle solution. Vos principales missions incluront : Conception et mise en œuvre : Identifier les normes, patterns, et architectures nécessaires pour une utilisation optimale du Data Studio. Évaluation des solutions existantes : Analyser les capacités et limites de la solution Big Data en place, et proposer des alternatives, notamment autour de Kubernetes et du stockage S3. Documentation technique : Élaborer une documentation claire et détaillée sur les choix d'architecture et les processus de mise en œuvre. Supervision d'équipe : Encadrer les équipes techniques, définir des objectifs, et accompagner leur montée en compétence. Implémentation de pipelines : Diriger le développement et la mise en œuvre des pipelines nécessaires au fonctionnement du Data Studio. Adoption de nouvelles technologies : Évaluer et intégrer des technologies innovantes pour renforcer les processus MLOps et améliorer l'efficacité globale. Conformité et stratégie : S'assurer de la conformité des solutions par rapport aux objectifs stratégiques tout en maintenant un équilibre pragmatique. Vous jouerez un rôle clé dans la définition de l'architecture cible en collaboration avec les architectes et parties prenantes, tout en facilitant les prises de décision sur les solutions applicatives.
Offre d'emploi
Expert Linux
Assurer le déploiement, la configuration, l’administration et la maintenance des serveurs Linux (Debian, Ubuntu, Red Hat, etc.). Superviser et optimiser les performances des systèmes Linux et des applications associées. Mettre en œuvre et gérer des solutions d’automatisation (Ansible, Puppet, etc.). Garantir la sécurité des environnements Linux (firewalls, gestion des vulnérabilités, conformité aux politiques de sécurité). Contribuer aux projets de modernisation des infrastructures (cloud, virtualisation, conteneurisation – Docker, Kubernetes). Diagnostiquer et résoudre les incidents de niveau expert, en support des équipes opérationnelles. Documenter les processus et rédiger des guides techniques pour les équipes. Maîtrise approfondie des environnements Linux et des outils open source
Mission freelance
Ingénieur Azure Infrastructure / DevOps▸ Pharmaceutique (3j TT/sem)
🔥 VOTRE MISSION : Concevoir, industrialiser et maintenir l’infrastructure Azure pour garantir une disponibilité, une sécurité et une scalabilité optimales. Développer et optimiser des recettes d'infrastructure , en appliquant les meilleures pratiques et en garantissant une documentation rigoureuse. Collaborer avec les équipes pluridisciplinaires (développeurs, architectes, experts sécurité, etc.) pour assurer l'intégration des services applicatifs. Créer et maintenir des pipelines CI/CD , en utilisant des outils tels que GitHub Actions et Azure DevOps . Superviser l’automatisation de l'infrastructure avec des outils comme Terraform , Terragrunt et Checkov , tout en veillant au respect des politiques de sécurité. Intégrer des solutions de conteneurisation (Docker, Kubernetes) pour optimiser le déploiement et l’orchestration des applications. Assurer une veille continue et proposer des améliorations en termes de sécurité, performance et résilience.
Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S
Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Offre d'emploi
Ingénieur SRE (H/F)
Nous recherchons un(e) Ingénieur SRE passionné(e) par la fiabilité, l’automatisation et les environnements complexes pour rejoindre notre équipe technique. Vous jouerez un rôle clé dans le maintien, l’optimisation et l’évolution de nos infrastructures tout en veillant à la performance et à la disponibilité de nos systèmes. Vous apporterez une réelle expertise sur Kubernetes , les pipelines CI/CD et serez un(e) référent(e) sur l’intégration de solutions de monitoring avancées telles que Dynatrace, tout en maîtrisant la gestion des logs et l’analyse avec la stack ELK . Missions principales • Gérer et optimiser les environnements Kubernetes : déploiement, scaling, monitoring et résolution d’incidents. • Concevoir et maintenir des pipelines CI/CD robustes en utilisant des outils tels que GitLab CI, Jenkins et Ansible. • Implémenter et superviser le monitoring des systèmes avec Dynatrace, en exploitant ses capacités avancées pour identifier et résoudre les goulots d'étranglement ou incidents. • Gérer et exploiter la stack ELK (Elasticsearch, Logstash, Kibana) pour centraliser, analyser et visualiser les logs des systèmes et applications. • Collaborer avec les équipes de développement pour assurer une intégration fluide et une livraison rapide des applications. • Automatiser les processus pour garantir la scalabilité et la résilience des infrastructures. • Participer à la gestion des incidents, à leur analyse post-mortem, et proposer des solutions d’amélioration continue. • Contribuer à la documentation technique et au transfert de compétences au sein de l’équipe.
Offre d'emploi
DevSecOps Expérimenté
DevSecOps : Expérimenté Animation et sensibilisation : Expérimenté Pilotage projet Agile : Expérimenté Organisation et pilotage d’audit de sécurité : Expérimenté Sécurité - Risques : Expérimenté Pilotage projet Agile : Expérimenté Intégration de la sécurité dans le développement d’applications CheckMarx, Xray, SonarQube, Docker, Jenkins, Ansible, Kubernetes, GitLab, Terraform, PIC (plateforme d’intégration continue), Keycloak, etc… Dans une démarche d’identification des points faibles et d’amélioration permanente de la sécurité des systèmes d’information au sein des différents projets, l’équipe CISO désire renforcer l’intégration de sécurité dans les projets DevOps et évaluer à l’aide d’audits de sécurité, le niveau de sécurité logique des applications (code source, fonctionnement) ainsi que la conformité des applications par rapport aux référentiels du groupe SECAPI et au référentiel OWASP. La prestation consiste à assister le référent sécurité et les équipes de développement sur les missions ci-dessous : - Piloter l’intégration de la sécurité applicative dans les projets (DeVSecOps), organiser et piloter des audits de test d’intrusion ; - Intégrer les phases de conception projet dans une approche " Security by Design " ; - Rédiger des articles focus sur l’architecture sécurité ; - Organiser la gouvernance de l’intégration, de l’usage et de la méthodologie autour des outils de sécurité ; - Participer à la professionnalisation et à l’amélioration continue de la chaine CI/CD ; - Organiser et animer des ateliers techniques de sensibilisation sur l’intégration de la sécurité dans les applications ; - Animer la communauté DecOps avec un focus DevSecOps - Accompagner les équipes DevOps pour transmettre les bonnes pratiques en matière de sécurité ; - Participer à la mise en œuvre et à l’amélioration des modèles de vulnérabilités des produits de sécurité ; - La réalisation et le suivi des revues de code, via l’outil AquasSec de TRIVY, visant à s’assurer des bonnes pratiques en termes de développement ; - Analyse des résultats de scans d’images Docker via l’outil Xray La prestation amènera à d’autres missions ponctuelles telles que le pilotage de test d’intrusion, le suivi et la correction des vulnérabilités.
Offre d'emploi
DÉVELOPPEMENT JAVA SPRING BATCH TDD sénior
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : Développement des différents projets fonctionnels Développement ITRM Maintenance du legacy Intégration des développements dans le SI La production de documentation et de recommandation Le suivi de la Feature Team Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, SonarAutres technologies : Docker et Kubernetes. Livrables Les livrables attendus sont : Développement JAVA backend Développement ITRM Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc. Documentation pour le suivi et le backuping
Mission freelance
Devops Production Digitale
Contexte : Le consultant aura pour mission d'opérer, d'industrialiser les socles techniques/applicatifs afin d'en garantir la qualité de service au travers la chaine de CI/CD. Référent technique sur un périmètre applicatif, il sera le garant de l'intégration des évolutions et des changements à réaliser. Membre à part entière d'un dispositif opérationnel plus global il sera responsable de la montée en compétences technique à réaliser auprès des équipes N1 et support utilisateurs. Le consultant intègrera une équipe qui réalise des astreintes à distance en 24/7. MISSIONS : Opérer les socles et applications au travers la chaine de CI/CD Industrialiser/outiller les opérations autours des socles et applications Former le N1 et le Support utilisateur Maintenir le patrimoine documentaire (dossier d'architecture, dossier d'exploitation, plan de production ...)
Mission freelance
Senior Developer NODE (H/F)
Vous intégrerez une équipe pluridisciplinaire composée de développeurs, de product owners et de SRE. Votre rôle principal sera de concevoir et de développer les fonctionnalités, composants et services d’une plateforme web dédiée à l’e-commerce. Vous évoluerez dans un environnement agile appliqué quotidiennement. Environnement technique : Langages : JavaScript, TypeScript. Frameworks : Node.js, Express, Nest.js, ReactJS. Web services : RESTful. Cloud : AWS. Conteneurisation et orchestration : Docker, Kubernetes. Infrastructure as Code : Terraform. Architecture événementielle : Kinesis, SQS. Moteur de recherche : ElasticSearch. Participer activement à la conception et au développement d’une nouvelle solution e-commerce, de sa réflexion à sa mise en œuvre. Contribuer aux choix techniques et fonctionnels en collaboration avec l’équipe, et challenger vos collègues sur ces décisions. Garantir les standards de qualité, de sécurité et de performance à travers la revue de code. Réaliser une veille technologique régulière et partager vos découvertes avec l’équipe.
Offre d'emploi
Tech lead VMware vRA/vRO
Contexte & Objectifs de la prestation Nous recherchons un techlead expert sur la suite Broadcom VCF en particulier sur les composants Aria Automation, Aria Orchestrator, ainsi que l'intégration de Tanzu Kubernetes Grid dans l'écosystème VMware. Sur le périmètre Aria Automation, ces produits servent de socle à notre application interne CMP (Cloud Management Plateforme), le Tech Lead recherché aura pour mission de - Nous accompagner dans l'administration et l'évolution de notre infrastructure Aria, - Réaliser l'expertise et la résolution de problèmes avancé de la plateforme CMP, - Participer à la migration de nos blueprints de VMware vSphere vers VCF, - Accompagner la montée en compétence des ressources interne à l'exploitation de la solution. Sur le périmètre Tanzu Kubernetes Grid, le composant est le socle hébergement des applications digitale du groupe ainsi que des composants d’intermédiation critiques pour le groupe (API management, MOM, micro-services...) et en charge d'intégrer les nouvelles applications. le Tech Lead recherché aura pour tâche de - Nous accompagner dans l'administration, l'évolution de notre plateforme Kubernetes - Réaliser l'expertise et la résolution de problèmes avancé de kubernetes - Préparer la migration de TKG vers notre cible intégrée à VCF, TKG 2. - Accompagner la montée en compétence des ressources interne à l'exploitation de TKG. - Participer à l'intégration des pipelines CI/CD, et pousser la démarche Infra as Code + GitOps Nature et étendue de la prestation Dans le cadre de l'exploitation et l'administration de la CMP : - Intégration de nouveau produit au catalogue / décommissionnement des produit obsolètes - Interfaçage via API REST de Aria Orchestrator avec les applications connexe à la CMP - Optimisation des opération de commissionnements et de roll-back - Installation et de configuration automatique des applications. - Opérations « Day 2 » sur des machines existantes - Automatisation des décommissionnement de VM - Suivi des déploiements et troubleshooting des incidents - Sauvegarde des objets Aria/ Administration et maintien en condition opérationnel de la plateforme Tanzu Kubernetes Grid. - Suivi des montées de version des infrastructure vSphere + TKG - Mise en place du système de monitoring/alerting/dashboards (Aria Operations for Logs, Prometheus, ...) - Suivi des outils de supervision, collecte de logs et d'audit. (Dynatrace, ELK) - Administration des clusters kubernetes On Premises Participation et évolutions des procédures d’exploitation des clusters Kubernetes. - Mise en place du modèle opérationnel avec les équipes d'intégration et développement - Définition des rôles, spécification des droits RBAC et affectations aux groupes d’utilisateurs - Conception et gestion des interconnexions avec les outils d'intégration continue et de déploiement (Jenkins, ArgoCD, ...) - Mise à jour des plans de sauvegarde et de restauration des applications en cas de sinistre. - Renforcement de la culture GitOps et DevSecOps lors des déploiements.
Mission freelance
Consultant Senior en MLOps
Nous recherchons un expert senior en MLOps pour intégrer une équipe d’ingénierie en intelligence artificielle au sein de la division des Technologies Emergentes et Données. Vous jouerez un rôle stratégique dans la mise en place et l’optimisation des pipelines de machine learning, tout en assurant la scalabilité et la fiabilité des solutions IA déployées au sein du groupe. Responsabilité : Concevoir et améliorer les pipelines ML pour garantir un flux de développement fluide et efficace. Use Case : Automatisation des Pipelines de Développement Création d’un pipeline ML automatisé qui intègre la préparation des données, l’entraînement des modèles et leur déploiement. Réduction des erreurs humaines grâce à l’automatisation et au monitoring intégré. Responsabilité : Mettre en place des outils pour surveiller les performances des modèles et détecter les dérives. Use Case : Détection et Réentraînement Automatisé des Modèles Mise en place d’un système de détection des dérives (concept drift) qui déclenche automatiquement le réentraînement des modèles sur de nouvelles données. Surveillance des performances pour identifier les déclins de précision avant qu’ils n’affectent les cas d’usage. Responsabilité : Développer une infrastructure fiable et évolutive pour la gestion des modèles ML à grande échelle. Use Case : Gestion des Versions et CI/CD pour les Modèles Implémentation d’un système de gestion des versions des modèles pour suivre les itérations et garantir la reproductibilité. Déploiement continu grâce à des pipelines CI/CD dédiés, réduisant le temps de mise en production. Responsabilité : Transformer les notebooks existants en scripts de haute qualité, adaptés aux pipelines ML. Use Case : Refactorisation des Notebooks pour les Pipelines Conversion des notebooks ad hoc en scripts Python robustes intégrés directement dans les pipelines. Documentation des scripts pour assurer leur réutilisabilité et faciliter leur maintenance. Responsabilité : Encadrer les équipes de data science pour les aider à adopter les meilleures pratiques en MLOps. Use Case : Création d’un Cadre Collaboratif Développement d’une bibliothèque interne de bonnes pratiques en MLOps, accessible à toutes les entités du groupe. Animation d’ateliers techniques pour partager des outils et des techniques avancées avec les équipes. Responsabilité : Effectuer des tests rigoureux sur les données, les modèles et les pipelines. Use Case : Assurance Qualité des Pipelines ML Développement de suites de tests automatisés pour vérifier la cohérence des données et des modèles tout au long des pipelines. Détection proactive des anomalies avant leur propagation dans l’environnement de production.
Offre d'emploi
Data Engineer AWS
Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Offre d'emploi
Ingénieur DevOps - Architecture Technique
La prestation consiste à prendre un rôle de référent technologique au sein de l’équipe DevOps de transformation du SI. En tant qu’ingénieur DevOps/Architecte son rôle sera multiple au sein de l’équipe. Accompagnement, développement, tests, optimisation, architecture, innovation. Plus précisément, les tâches confiées seraient : Accompagnement de la transformation des applications en mode cloud natif, avec la DSI dans un focus particulier sur la robustesse, l’observabilité et la performance. (Technologie Java et Python) L’adaptation de la CICD pour prendre en compte les besoins d’infrastructure de la DSI pour un usage Cloud Le développement d’outils autour des pratiques DevOps. (Observabilité, robustesse, tests…) La diffusion et accompagnement des pratiques DEVOPS au sein des équipes DSI.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?
- Démarrage Freelance - ARE ou ARCE + SASU ou AE
- Urgent Arce subtilité
- Obligé de faire la plonge pour survivre...
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE
Les métiers et les missions en freelance pour Kubernetes
Ingénieur·e devops (Cloud)
L'Ingénieur.e DevOps utilise Kubernetes pour déployer, gérer et faire évoluer les applications conteneurisées.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud utilise Kubernetes pour optimiser les architectures cloud et orchestrer les microservices.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresAdministrateur Système
L'Administrateur système utilise Kubernetes pour superviser et automatiser les tâches d'administration des clusters.
Explorez les offres d'emploi ou de mission freelance pour Administrateur Système .
Découvrir les offresIngénieur·e d'exploitation
L'ingénieur·e d'exploitation gère les plateformes Kubernetes pour assurer leur disponibilité, leur sécurité et leur performance, tout en surveillant les clusters et en les optimisant.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes & réseaux configure et maintient les clusters Kubernetes, garantissant une communication réseau fluide et sécurisée entre les conteneurs et les services.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offres