Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
DevOps Azure / On-Premise
Automatisation des déploiements : En collaboration avec les différentes équipes techniques, l’ingénieur participera à la conception et la gestion des automatismes du système d'information : intégration, déploiement en continu en utilisant des services des Cloud public tels qu’Azure et GCP ou des solutions logicielles et infrastructures On-Premise. Le déploiement se fera via les outils Gitlab CI, Broadcom Nolio, et s’appuiera sur des technologies tel qu’Ansible, Terraform et Docker. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques dans les pipelines CI/CD. Cela inclut l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, la gestion des artefacts, etc. Garantir l'intégrité permanente des automatismes au regard des évolutions des produits Résolution des problèmes : L’ingénieur devra être en mesure de diagnostiquer et résoudre des problèmes de nature multiples (CI, CD, configuration, infrastructure, etc..). Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Il/elle devra également fournir un support aux équipes d’exploitation dans le cadre du traitement d’alertes ou d’incidents. Gestion des outils ALM : L’ingénieur devra s’assurer de bon fonctionnement et de l’évolution des outils ALM (Gitlab, Sonar, TFS, JIRA, etc…). Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production et les autres membres de l’équipe afin de garantir que les solutions proposées conjuguent les meilleures pratiques Devops, les contraintes techniques et de sécurité ainsi que les besoins des projets. Il/elle participera à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus. Contribuera au déploiement des pratiques DevOps au sein de l’entreprise. Participera au cadrage des projets dans son domaine de compétences : analyse des besoins et contribution aux chiffrages de la partie technique ENVIRONNEMENT TECHNIQUE - Plateforme de gestion des sources et CI/CD : Gitlab, TFS, Proget, Broadcom Nolio, build dotnet et java (gradle) - Espace de collaboration : M365, Confluence, JIRA - Plateforme cloud hybride : Azure, GCP, OnPrem - Infrastructure as Code : Terraform, Terragrunt, Ansible, Backstage - Conteneurisation : Azure Kubernetes Service, Azure Container Apps, Google Cloud Run - Observabilité : Datadog - Cyber Sécurité : CrowdStrike - SGBD : MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Content Delivery Network (CDN): Akamai Technologies - Firewall : CheckPoint, Fortinet, Azure Firewall - Load balancing : BigIP F5, Azure Application Gateway
Ingenieur NetOps
Nous intervenons en autonomie à tous les niveaux sur nos infrastructures, depuis le matériel jusqu’aux applicatifs. Afin d’opérer au mieux notre périmètre nous privilégions l’automatisation, la reproductibilité et l’évolutivité de nos déploiements. En nous rejoignant vous serez amené à opérer et assurer le maintien en condition opérationnelle de notre infrastructure. Vous aurez pour missions principales : • Le maintien en conditions opérationnelles de notre parc de switches, routeurs, firewall et appliances en HNO • L’automatisation des déploiements : configurations des équipements, règles de firewall. • La gestion du support de notre périmètre technique auprès des autres équipes IT. • L’évolution de nos outils.
DEVOPS AWS/AZURE (H/F)

Collaborer avec les équipes de développement pour optimiser en continu leurs pipelines de livraison de code, en s’appuyant sur Ansible, Jenkins ou une autre solution CI (nous envisageons un changement). Assurer des mises à jour fluides afin de permettre une livraison à la demande. Surveiller la disponibilité et la performance de la plateforme à l’aide d’outils comme Kibana, Logic Monitor et Open Telemetry. Gérer les tickets de support, analyser les causes profondes des incidents et enrichir notre système de monitoring avec de nouvelles alertes. Renforcer notre stack de surveillance en ajoutant des métriques et des alertes pertinentes. Participer à la migration vers le cloud public en déployant des outils comme Terraform et Ansible. Accompagner les équipes de développement dans la transition de l’environnement Windows/.NET/.NET Core vers Linux/.NET Core/NodeJS, ainsi que dans l’évolution d’une architecture monolithique vers des microservices.
Développeur React native

Nous recrutons pour l'un de nos clients, un acteur majeur du secteur industriel, un Développeur React Native (H/F) en full remote . Missions : Développer et maintenir des applications mobiles en React Native . Concevoir des interfaces utilisateur performantes et ergonomiques. Travailler sur l’intégration avec des API backend en Node.js . Assurer la scalabilité et la performance des applications via AWS et Terraform . Participer aux revues de code et aux bonnes pratiques de développement. Collaborer avec les différentes équipes techniques et fonctionnelles dans un contexte international.
DevSecOps

Nous sommes à la recherche d'un(e) : DevSecOps - Réaliser les opérations MCO/MCS des couches basses (virtualisation, stockage, sauvegarde, micro-segmentation) - Faire évoluer les processus MCO/MCS aussi bien au niveau de l’infrastructure que des applications - Rédaction de documents d’exploitation - Installation et exploitation de plateformes applicatives en environnement automatisé et contraint par des standards de Cyber Sécurité - Assurer la disponibilité du socle infrastructure et des environnements applicatifs - Gérer le déploiement des environnements applicatifs 3DX
Consultant CLOUD/DATA Confirmé H/F
Le département Data IA est responsable de fournir aux métiers une infrastructure technologique permettant de mettre en production et d'industrialiser les cas d’usage Data et IA. Ceci inclut le développement d'une plateforme d’enrichissement des métadonnées des contenus (IA & GenAI). Nous recherchons un Consultant Cloud / Data expérimenté H/F pour concevoir, construire et gérer une offre de service Data/IA. Vous participerez activement à la mise en place de l'infrastructure, en assurant sa bonne intégration avec la plateforme data et les produits associés et l'optimisation des différents aspects techniques. Vos missions seront : - Concevoir, gérer et maintenir le service permettant la mise à disposition des API Data et IA et l'orchestration des traitements dans le respect des contraintes de disponibilité, sécurité et performance. - Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. - Designer et participer à la mise en œuvre de la plate-forme sur les aspects réseau, sécurité, DNS, etc. - Designer et Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. - Co designer avec les tech Lead Data Science et mettre en place les solutions technologiques MLOps appropriées afin de pouvoir industrialiser les différents cas d’usages des métiers Data & IA . - Designer et mettre en place la migration de la stack technique Data vers la nouvelle plate-forme. - Garantir que l’architecture de la stack Data est en totale adéquation avec l’ensemble du SI applicatif - Assurer la maintenance et l'optimisation des systèmes de données existant. - Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps.
Cloud DevOps - AWS

Contexte : Nous recherchons un Cloud DevOps-AWS passionné par l'automatisation et l'industrialisation des infrastructures et des déploiements applicatifs. Vous interviendrez dans un environnement cloud AWS et serez un acteur clé de l'optimisation des processus CI/CD et de la gestion des infrastructures as code (IaC). Missions Principales : Concevoir, mettre en place et maintenir des pipelines CI/CD optimisés pour l'automatisation des déploiements ; Développer et gérer des infrastructures cloud AWS via des outils d'IaC (Terraform, CloudFormation, CDK) ; Mettre en œuvre des solutions de conteneurisation (Docker, Kubernetes, ECS, EKS) ; Assurer la supervision, la gestion des logs et l’observabilité (CloudWatch, Prometheus, Grafana, ELK) ; Automatiser les opérations de déploiement, de monitoring et de scaling ; Sécuriser les infrastructures cloud et les pipelines DevOps en appliquant les bonnes pratiques (IAM, Secrets Manager, Security Hub, etc.) ; Optimiser la gestion des coûts et la scalabilité des infrastructures cloud ; Accompagner les équipes de développement dans l’intégration des bonnes pratiques DevOps ; Participer à l'amélioration continue des processus d’industrialisation.
Ingénieur DevOps

Missions : construction des environnements (Terraform) sur le cluster OpenStack déploiement automatisé des outils (Ansible) mise en place de pipelines CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) Supervision et suivi des systèmes d'exploitation (Prometheus, Grafana, Loki, Promtail) échanges réguliers avec les équipes qui ont fait le développement Linux, Cloud, Ansible, Grafana, Terraform, Jenkins, Prometheus, GitLab, Java, Maven, Vault, Docker, Kubernetes, Rancher, Nexus, SonarQube, Selenium, Cucumber, JMeter, ZAP, Openstack, Loki, Promtail,
DATA ENGINEER (H/F)

Notre client est une entreprise en pleine transformation digitale, au cœur d’une dynamique d’expansion. L’objectif ? Optimiser la gestion des données pour accompagner le développement de ses activités, tout en ayant un impact positif sur son écosystème. Dans un contexte de croissance et de digitalisation, nous recherchons un(e) Data Engineer passionné(e) par les défis techniques liés à la gestion et à l’exploitation des données. Vos missions En tant que Data Engineer, vous jouerez un rôle clé dans la construction de pipelines de données robustes et scalables, ainsi que dans l’optimisation des flux de données existants. En collaboration avec les équipes Data et IT, vos principales responsabilités seront : * Concevoir, développer et maintenir des pipelines de données (ETL/ELT) performants pour l’ingestion, la transformation et la modélisation des données. * Assurer la qualité des données (data quality, data lineage, data governance) et la fiabilité des traitements. * Optimiser les performances des bases de données (BigQuery, Redshift, Snowflake, PostgreSQL). * Orchestrer les workflows de données via des outils comme Airflow, DBT, Talend. * Collaborer avec les équipes Data Science, BI et IT pour répondre aux besoins métiers. * Participer à l’industrialisation des modèles de données et à la mise en place de solutions cloud (GCP, AWS, Azure). * Effectuer une veille technologique pour proposer des solutions innovantes en matière de Data Engineering.
Ingénieur de production H/F

Notre client recherche actuellement un ingénieur de production Les missions sont les suivantes: - Le maintien , le suivi, la gérance du monitoring avec les différents outils avec un focus avec Dynatrace - Maintien du monitoring des applications selon une vision end to end et intégrer la gestion des logs avec les outils internes et service de log monitoring dans une vision IA - Maintien des rôles et playbooks de déploiement ansible, - Gérance des déploiements d’EAR/WAR sur WebSphere, - Support des outils à usage des applications CFT, MQ, Oracle , WAS, GPG - Création des environnements techniques applicatifs - Maintien de quelques astreintes en HNO par an (Upgrade de l'obso, incident)
Expertise en sécurité opérationnelle

Description détaillée: Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à utiliser des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations. Définition du profil: Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique
Expert Sécurité Opérationnelle

Le group Sapiens est à la recherche pour l'un de ses clients d'un consultant en Sécurité Opérationnelle Les principales missions sont les suivantes : Définir les cadres et exigences en matière de sécurité opérationnelle dans un environnement basé sur des conteneurs. Garantir l’intégration des règles de sécurité de BPCE IT dès la phase de conception des architectures et des offres de services. Identifier, tester et intégrer des solutions de sécurité adaptées au projet et au contexte de l’entreprise, notamment dans les domaines de la sécurité des conteneurs, du DevSecOps, de la gestion des vulnérabilités et de la traçabilité. Développer et automatiser les processus de sécurité au sein des chaînes CI/CD, incluant la gestion des vulnérabilités, des certificats et des secrets. Mettre en œuvre et automatiser les contrôles de sécurité, le suivi et la remontée des indicateurs liés à la sécurité. Accompagner les utilisateurs dans l’adoption et l’utilisation efficace des outils de sécurité déployés dans le cadre du projet.
Data Center Strategy - Enterprise Architect sénior
Dans le cadre d’un programme de transformation des Data Centers, un grand groupe international recherche un Enterprise Architect spécialisé en stratégie et migration d’infrastructure. L’objectif est de piloter l’évolution des Data Centers, en intégrant des solutions cloud-first, en optimisant l’hébergement et la sécurité tout en standardisant les pratiques à l’échelle internationale. Le consultant travaillera en collaboration directe avec les équipes IT globales et les fournisseurs stratégiques pour garantir une cohérence technique et économique de la transformation. Responsabilité principales Définir la stratégie technologique et les architectures cibles des Data Centers Concevoir des modèles techniques standards pour l’hébergement, la sécurité et la connectivité Piloter la transformation des infrastructures IT (migration cloud, consolidation, compliance) Standardiser les pratiques et outils pour assurer la cohérence technique à l’échelle du groupe Animer la gouvernance technologique et les communautés d’architecture Optimiser la gestion des Data Centers existants et futurs en fonction des exigences réglementaires et techniques Gérer les relations fournisseurs (hébergeurs, cloud providers, solutions de connectivité) Collaborer avec les programmes stratégiques en cours (modernisation IT, sécurité, cloud)
Expert sécurité cloud GCP / IAM GCP / SECURITE RESEAUX / TERRAFORM / PYTHON (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire un expert sécurité GCP afin de les accompagner dans l'évaluation, la mise en œuvre et l'optimisation de leurs pratiques de sécurité Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique
Data engineer (F/H)

Nous recherchons pour le compte d'un client, en région parisienne, un Data engineer (F/H) avec minimum 3 ans d'expérience sur ce poste. Contexte : Renforcement d'équipe le profil sera amené à travailler sur la mise en oeuvre de plusieurs produits data visant à l'exposition et la mise en qualité des données de références. L'environnement de travail est sur le cloud AWS avec terraform en infra as code Les enjeux : Créer des modèles de données génériques Ingestion et traitement des sources de données Préparation des données (transformation fonctionnelle et technique) Elaboration de système avancé de gestion de qualité de données Elaboration d'API/workflow Exposition des données (Elasticsearch, RDS) via des API pour les applications front Préparation des packages de livraison en Infra as code Gestion du cycle de livraison en production MCO Rédaction des documentations techniques Curiosité pour comprendre les données manipulées Démarrage début Avril 2025
Ingénieur IT OPS / DevOps

Ingénieur DevOps Cloud & Automatisation: Missions principales : Étudier et développer des solutions d’automatisation pour les actes techniques sur différents Cloud providers (BNPP et IBM), principalement sur le PaaS IBM et ponctuellement sur l’IaaS. Mettre en place et maintenir en condition opérationnelle des pipelines IaC basés sur Terraform. Déployer des pipelines CI/CD via la plateforme DevSecOps du Groupe et concevoir des charts Helm. Rédiger et exécuter des tests techniques de validation. Documenter les procédures d’exploitation (installation, exploitation). Développer des scripts pour l’exploitation et l’administration. Former et accompagner les utilisateurs sur les outils mis en place. Assurer des interventions occasionnelles hors heures ouvrées et participer à des astreintes si nécessaire. Compétences requises : Bonne compréhension des environnements de production technique et d’intégration applicative.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Peut on écrire son bilan comptable à la main?il y a 10 heures
- Enquête sur le métier d'assistante administrative ou commercialeil y a 11 heures
- Marge intermédiaire : renégocier après 2 ans de mission ?il y a 12 heures
- IA et Freelancing : Un Duo Gagnant ?il y a 12 heures
- Résultat de l'exerciceil y a 13 heures
- TVA et facturation en entreprise individuelleil y a 18 heures