Trouvez votre prochaine offre d’emploi ou de mission freelance Ansible à Bordeaux
Ce qu’il faut savoir sur Ansible
Ansible est un outil open-source d'automatisation informatique qui permet de gérer les configurations, de déployer des applications et d’orchestrer des tâches complexes sur des infrastructures informatiques. Développé par Red Hat, Ansible se distingue par sa simplicité et sa méthode d'exécution agentless, qui ne nécessite pas l'installation de logiciels supplémentaires sur les machines cibles. Ansible utilise des fichiers YAML, appelés playbooks, pour définir les tâches à exécuter, rendant sa configuration lisible et accessible même pour les non-développeurs. Il est particulièrement adapté à la gestion des serveurs, des conteneurs, des réseaux et des environnements cloud. Grâce à sa scalabilité, sa compatibilité avec des centaines de modules et son intégration avec des outils comme Docker, Kubernetes ou AWS, Ansible est un choix privilégié pour les équipes DevOps cherchant à automatiser leurs processus et à améliorer l'efficacité opérationnelle.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
DevOps Ansible - Bordeaux - PROFIL HABILITABLE

Responsabilités et tâches : Intégrer les composants logiciels et leur documentation reçus d’autres équipes techniques, au sein d’une solution livrable aux clients. Déployer la solution sur différents environnements et analyser les problématiques de déploiement, que ce soit en lien avec la solution, les scripts Ansible, ou les machines Linux utilisées. Participer à l’écriture des tests d’automatisation pour assurer la bonne intégration des composants et le déploiement de la solution. Superviser et maintenir la solution en condition opérationnelle sur le système d’information (SI), en utilisant un catalogue de technologies pour garantir son bon fonctionnement. Analyser les problématiques remontées par les outils de supervision et/ou les utilisateurs. Communiquer la progression des tâches à l’équipe et à la hiérarchie, et participer activement aux réunions d’équipe. Contribuer à la documentation technique de la solution et assurer sa mise à jour en fonction des nouvelles fonctionnalités. Être présent physiquement sur le site pour répondre aux exigences de maintien en condition opérationnelle et aux évolutions nécessaires sur le réseau sécurisé.
Ingénieur DevOps Big Data

Dans le cadre de l’exploitation et de l’optimisation de l'infrastructure Cloudera & Data de notre client, nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. Missions : Support Technique N2 & N3 Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka Administrer et optimiser l’infrastructure Kafka sur Cloudera. Gérer la scalabilité et la résilience des clusters Kafka. Assurer une supervision efficace des topics, brokers et consommateurs. Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. Automatiser la gestion des incidents récurrents et les procédures de maintenance. Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. Assurer une veille technologique et être force de proposition pour améliorer la plateforme Documentation et Transmission de Connaissances Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
DevOps Data

Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera , posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure . Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus . Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka Administrer et optimiser l’infrastructure Kafka sur Cloudera. Gérer la scalabilité et la résilience des clusters Kafka. Assurer une supervision efficace des topics, brokers et consommateurs. Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. Automatiser la gestion des incidents récurrents et les procédures de maintenance. Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
DevOps-DataOps

Contexte : Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en Elasticsearch, MongoDB ainsi qu’une expérience sur la plateforme Dataiku seraient un plus. Missions Principales : Support Technique Niveau 2 et 3 sur Cloudera Data Platform - Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera ; - Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers ; - Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire ; - Implémenter et Améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes ; - Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka - Administrer et Optimiser l’infrastructure Kafka sur Cloudera ; - Gérer la scalabilité et la résilience des clusters Kafka ;Assurer une supervision efficace des topics, brokers et consommateurs ; - Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets ; - Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement - Développer et Maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation ; - Automatiser la gestion des incidents récurrents et les procédures de maintenance ; - Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure - Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail ; - Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources ; - Analyser et Proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier ; - Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances - Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre ; - Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents ; - Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- SASU IR : Hiway et versement résultatsil y a une heure
- Présentation du projet : Levée de fonds pour l’acquisition et le développement d’un gîte 2.0 dans le Varil y a 4 heures
- Prime de partage de la valeur (ex Prime Macron)il y a 6 heures
- Trésorerie SASU : Comment gérer les premiers mois ?il y a 9 heures
- Questionnement Client final /Apporteur d'affaires / Salarié portéil y a 13 heures
- Imposition de la prime de rémunérationil y a 20 heures
Les métiers et les missions en freelance pour Ansible
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Ansible pour automatiser le déploiement et la gestion des infrastructures Cloud, faciliter la configuration des serveurs et garantir la continuité des services.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux exploite Ansible pour automatiser la gestion des systèmes et des configurations réseau, améliorant ainsi l'efficacité et la cohérence des déploiements.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresIngénieur·e d'exploitation
L'Ingénieur·e d'exploitation emploie Ansible pour automatiser les tâches d'administration système et la gestion des serveurs, réduisant ainsi les erreurs humaines et les coûts opérationnels.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresArchitecte solutions
L'Architecte solutions conçoit des solutions d'infrastructure et d'automatisation, intégrant Ansible pour la gestion des configurations et des déploiements dans des environnements complexes.
Explorez les offres d'emploi ou de mission freelance pour Architecte solutions .
Découvrir les offres