Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Ingénieur de production bancaire - N4
CONTEXTE Objectif global : Réaliser le maintien d'une application sensible en production bancaire - La gestion au quotidien d’une flotte d’environ 300 serveurs Linux RedHat MISSIONS § Un pôle BUILD en charge : - Des déploiements applicatifs du hors Prod jusqu’à la Prod - Suivi des projets - Du suivi et la planification des changements - De participer aux cellules de crises lors d’un incident en Production § Un pôle RUN en charge de : - La gestion du stock des incidents affectés au service de niveau 2 à 3 aussi bien sur des sujets techniques que fonctionnels - Être moteur lors aux cellules de crises lors d’un incident en Production et s’assurer la remontée et le suivi des éléments techniques et fonctionnels auprès de nos fournisseurs - Participer aux comités opérationnels avec nos différents fournisseurs autour de nos problématiques et incidents. - Contribuer à l’élaboration de nouvelles chaines d’ordonnancement (via VTOM) et le suivi au quotidien des chaines existantes - Optimiser la supervision de l’application via Zabbix, ELK, AppDynamics, Grafana pour être le plus proactif possible dans la détection d’un incident § Des besoins communs aux deux pôles : - Assurer des astreintes et des interventions en HNO - Être en mesure d’échanger avec des interlocuteurs très variés (équipes projets applicatif, équipes réseau, sécurité, infra) - L’innovation : identifier et réaliser différentes actions pour améliorer notre quotidien (création/amélioration de scripts, rédaction de procédures pour un nouvel usage/outil, etc.) ʘ Environnement technique : § Système : Linux § Bases de données : Oracle § Middleware : Apache, Tomcat § Supervision : Zabbix, Grafana, AppDynamics, ELK, Newtest / Datamétrie § Déploiement : XLDeploy / XLRelease, Jenkins, Ansible § Sécurité : HSM, Venafi (PKI), Firewall applicatif, gestion des certificats, cryptographie § Ticketing : SUN (ServiceNOW) § Scripting/langage : Bash, Python, Java § Ordonnancement : VTOM § Gestion de projet : Jira/Confluence
Ingénieur Système Middleware/fa
Ingénieur Système Middleware - Expérimenté avec un minimum de 4 ans d’expériences. Administration Linux : RedHAT 7 8 9 Administration Windows : 2019R2 Administration Kubernetes Connaissance de base sur ce que sont les middlewares Scripting bash / powershell Anglais courant tous les jours CI/CD : Gitlab , pipeline, automation ..etc ArgoCD Artifactory Terraform Ansible Localisation Guyancourt (78)/ Télétravail Durée de la mission : 2 ans Projet et Principaux livrables : Définir les standards Grid & Caching et en assurer le respect Définition des roadmap applications et des obsolescences produits / hardwares Définition des architectures Définition des politiques de sécurité Définition des règles de monitoring Création des rapports d’activités des grilles Développement de scripts pour l’automatisation des taches Création et maintenance d’API REST de management Développement de petite application de grille pur valider des concepts avancé Cotations des demandes projets en lien avec le catalogue de services. Validation des documents d'architectures Projets (PAD) Validation des documents de besoin projets (GAD) Document sur l’état de santé du projet en cours Validation et suivi du déploiement des nouvelles versions des applications sur la grille Support de Niveau 3 pour les équipes. Compétences requises : Administration Linux : RedHAT 7 8 9 Administration Windows : 2019R2 Administration Kubernetes Connaissance de base sur ce que sont les middlewares Scripting bash / powershell Anglais courant tous les jours CI/CD : Gitlab , pipeline, automation ..etc ArgoCD Artifactory Terraform Ansible Avoir une connaissance sur AWS ou GCP est un plus. JAVA est un plus Savoir DEV dans un langage POO à minima (JAVA en est un) Connaissance sur DS et Symphony (pas obligatoire mais appréciés, peut être formé par la suite) Suivi de projet : définir son temps de travail , rendre compte des activités réalisées Prendre position sur des choix technologiques et d’architectures lors des réunions Etre force de proposition et défendre les solutions proposées. Des astreintes de 24/7 seront à réaliser ponctuellement
Ingénieur Linux
Nous recherchons pour le compte de notre client, un Ingénieur Linux, pour une mission de 3 mois renouvelable. Vos taches peuvent évoluer avec le contexte client : Administration des infrastructures Redhat, Linux et Middleware; Industrialisation et déploiement des outils; Réalisation du support de niveau 3 avec les équipes de production, projet et infra; Réalisation des projets d'évolution des Socles Standards Linux Mais aussi participation aux projets nécessitant une contribution d'architecte système et intégrateur.
CHEF DE PROJET INFRA PRODUCTION
Vous évoluerez au sein du Département d' Infrastructure et de Production Informatique Vos missions : Dans ce cadre, vous piloterez des projets applicatifs de production informatique dans le respect des jalons et engagements budgétaires. Ainsi : · Vous garantirez la définition du périmètre du projet et de ses objectifs en contribuant à la clarification et à la simplification du besoin. Vous déterminerez et validerez la solution technique avec les architectes. · Vous garantirez le pilotage, le suivi et la coordination du projet : · Organisation de toutes les interventions et coordination de tous les acteurs du projet ; · Pilotage et mesure de l'état d'avancement ; · Remontée d'alertes et reporting. · Vous maitriserez le budget du projet et garantirez l'élaboration des livrables définis dans la méthodologie de la Production et veillerez à sa bonne exécution · Sur les projets Agile/Devops, vous : · Participerez à l'ensemble des rituels AGILE · Contribuerez à l'alimentation du product backlog · Vous êtes diplômé(e) Bac +5 d'une école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique et maîtrisez l'anglais. · Vous avez une première expérience réussie de 3 ans minimum en gestion de projet, idéalement dans un environnement de production informatique Et / Ou en ingénierie de production
PRODUCT OWNER Sécurité API (JUNIOR)
Le centre d'expertise API dispose d'une équipe visant à gérance d' une plateforme d'API Management, du run et du tooling, avec notamment la collecte des besoins métiers. Dans ce contexte, recherche d'un PO sur des solutions de sécurité, de design, de tooling dans le domaine des APIs. Un vernis sur les APIs, sur Redhat Linux, et sur la CICD (Jenkins, Gitlab et Ansible) est requis. Autonomie demandée - Product owner (collecte des besoins métiers, priorisation, adéquation avec la demande, ...) - Gestion de projet (documentations projets, dossier d'architecture, dossier d'initialisation, documents d'installation et d'exploitation, checklist avant mise en service) - Préparation des comités (steering committee - Etablissement de roadmaps - Syndication entre toutes les parties prenantes - animation de réunion - Gestion de l'obsolescence : vulnérabilité, coordination entre le département et les différentes parties prenantes intra groupe, migration redhat - Sujets de conformité: Coordination homologation cis, pentests, audits passi et AR EBIOS, Disaster Recovery etc - Maitrise de l'anglais
Architecte Confluent Kafka
Nous cherchons Architecte d'Intégration avec une solide expertise de la technologie Kafka sur Confluent Cloud. Ce poste a pour objectif de renforcer notre centre decompétence en architecture d’intégration, en apportant une connaissance globale dessystèmes et pattern d'intégration (temps réel, batch et streaming). En tant qu'architecte, vous serez chargés de proposer les meilleures solutionstechnologiques d’intégration pour garantir les échanges de données dans le cadre desprojets, en s’appuyant sur les outils et les normes disponibles. Vous travaillerez égalementen collaboration avec d'autres architectes du pôle intégration sous la direction du LeadIntegration Architect. Responsabilités principales : Apporter une expertise technique de haut niveau aux projets et aux équipes métiers et IT Soutenir l’industrialisation des patterns d'intégration Fournir des recommandations de développement et de mise en œuvre de solutionapplicative Assurer l'utilisation optimale des solutions existantes et proposer des améliorations pouraccroître leur valeur d'usage Supporter techniquement les équipes décentralisées dans la mise en œuvre des projets etdes évolutions spécifiées Participer aux instances de suivi et de gouvernance du Centre de Compétence et travailleravec les Architectes d'entreprises et systèmes Contribuer à l'identification, l'évaluation et l'audit de solutions, notamment l'étude defaisabilité et la réalisation éventuelle de POC (Proof Of Concept) Assurer l'intégration de Kafka avec diverses sources de données et plateformes detraitement en aval Fédérer et former des développeurs et des autres architectes dans l'utilisation optimale deKafka et Confluent Compétences et qualifications : Diplôme en informatique, ingénierie ou domaine connexe Expérience approfondie avec Apache Kafka et la plateforme Confluent Expérience démontrée en architecture de solutions de données à grande échelle Maîtrise des langages de programmation tels que Java, Scala ou Python Connaissance approfondie des pratiques de sécurité des données et des architectures micro-services Excellentes compétences en communication, en présentation et en leadership Langues : Français, Anglais Expériences attendues : Expérience dans le développement opérationnel de flux sous Kafka Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience confirmée en testing de Performance Ou...
Data Engineer Spark Scala Python confirmé
Dans le cadre du développement de solutions analytiques et du traitement de données à grande échelle pour l'un de nos clients, nous recherchons un Data Engineer confirmé avec une expertise sur les technologies Spark , Scala et Python , ainsi qu'une solide compréhension du secteur de la finance. Missions : Concevoir, développer et maintenir des pipelines de données à grande échelle en utilisant Spark , Scala et Python . Travailler sur des systèmes de traitement de données complexes dans un environnement Big Data. Participer à l’intégration et l'optimisation des flux de données dans des environnements distribués. Collaborer avec les équipes produit et business pour comprendre les besoins et les traduire en solutions techniques adaptées. Assurer la qualité et la fiabilité des données avec des tests et des contrôles appropriés. Apporter une expertise technique pour résoudre des problématiques complexes et proposer des améliorations. Mettre en place des solutions de traitement en temps réel avec Apache Spark et optimiser les performances des systèmes. Travailler avec des outils de gestion de données et des bases de données NoSQL et SQL . Participer à des projets d'analyse de données financières et à des reporting pour les équipes business.
Ingénieur poste de travail linux redhat (H/F)
Assurer le Maintien en Condition Opérationnelle, de Sécurité et d'Homologation des infrastructures de management des postes de travail Instancier, déployer et mettre en production des solutions proposées par l'architecture en vérifiant l'adéquation avec les normes et standards Groupe Construire, produire et maitriser le hardening, durcissement, des Masters Thales, lourds et légers ou virtuels, selon les exigences de chacune des sensibilités SI Manager les cycles de vie des masters, lourds et légers par leur évolution permanente Maitriser et Manager le Change des infrastructures SSCM, ePO, Stormshield et en analyser les impacts éventuels sur le SI Contribuer au Design/Build des infrastructures EndPoint pour les nouveaux SI(s)
Ingénieur DevOps/Production - Montpellier (H/F)
Contexte et Enjeux Un programme de gestion de l’obsolescence des serveurs Red Hat 7 est en cours, nécessitant un renforcement des équipes techniques pour assurer un déploiement performant et une mise à l’échelle des infrastructures. Ce projet implique une collaboration étroite entre différentes équipes pour garantir la qualité de service et atteindre les objectifs fixés sur deux ans. Missions principales L’Ingénieur DevOps aura pour rôle de : • Gérer l’exploitation applicative des serveurs Red Hat 7. • Participer à l’automatisation et à l’optimisation des processus liés à la production. • Travailler au sein d’équipes colocalisées ou d’un pool technique centralisé. • Collaborer avec des équipes pluridisciplinaires pour traiter les obsolescences techniques et mettre en place des solutions adaptées.
Achitect Infrastructure
JCW est à la recherche d'un Architect infrastructure pour l'un de ces clients. Profil recherché: Au moins 7-8 ans d'expérience en tant qu'architecte Expertise sur VMware - Kubertnestes/Redhat Openshift - GCP sera impératif Expertise sur Big Data et C4 Model sera également impératif Connaissance de d'autres outils sera appréciée La Mission: Démarrage ASAP Localisation: Ile-de-France Durée: 1 an renouvelable Fréquence: 3 jours sur site et deux jours de remote Langues: Francais et anglais impératif Si vous êtes intéressées, ou connaissez des personnes qui pourraient l'être, merci de m'envoyer vos/ leur CV à pour une considération immédiate.
Consultant OpenStack
Configurer et déployer un OpenStack RedHat via Director conformément aux spécifications des cahiers d’installation technique. Automatiser complètement les opérations d’installation et configurer les infrastructures nécessaires. Produire de la documentation technique liée aux processus d’installation et de configuration. Créer et maintenir les outils d’automatisation nécessaires (Ansible, Terraform, Puppet). Concevoir et réaliser de nouveaux services enrichissant l’offre existante. Intégrer les OpenStack additionnels en fonction des besoins. Produire un diagnostic avancé et résoudre les problèmes complexes (support N3). Collaborer le support éditeur pour résoudre des problématiques liées à l’infrastructure (QEMU/KVM, OVN/OVS, stockage, etc.). Faire une veille et mettre en application des correctifs de sécurité pour assurer la conformité et la protection de l’infrastructure.
Data engineer Spark Databricks Sophia Antipolis
Ingénieur Data Spark Databricks Sophia Antipolis Stack Technologique : Spark - Doit Databricks - Doit Microsoft Azure Échelle Impala Python ou autre langage centré sur les données Compétences: Au moins 3 ans d'activités avérées d'ingénierie de données. Maîtrise du développement de logiciels utilisant un framework Agile. Excellentes compétences en communication Solides capacités d’analyse et de résolution de problèmes. Data engineer Spark Databricks Sophia Antipolis Technological Stack : Spark - Must Databricks - Must Microsoft Azure Scala Impala Python or other data centric language Skills: At least 3 years of proven Data engineering activities. Proficient developing software using an Agile Framework. Excellent communication skills Strong analytical and problem-solving abilities.
Ingénieur de production – MCO APP- N4
Contexte Objectif global : Accompagner Réaliser le maintien en condition opérationnelle des applications sous responsabilité MISSIONS : - Installe et met à disposition les infrastructures - Réalise la recette technique et l'homologation des applications. - Participe à l'amélioration des processus et des outils d'industrialisation et de déploiement. - Travaille en relation étroite et permanente avec les équipes Etudes, Infrastructures et Sécurité. - Met en place la supervision des applications - Assure le suivi des plateformes en production
Tech Lead API JAVA KAFKA | Casabalanca 100% Remote
Dans le cadre de projets stratégiques, nous recherchons un(e) Tech Lead API expert(e) en Java , Kafka et la gestion d’API via Apigee . Vous serez responsable de la conception, de la mise en œuvre et de la supervision d’architectures API robustes et performantes. Responsabilités principales : Conception et architecture : Concevoir des solutions API évolutives et sécurisées basées sur Java. Définir les bonnes pratiques pour la conception d'architectures API performantes. Intégrer des pipelines de données en temps réel à l’aide de Kafka. Gestion et optimisation des APIs : Superviser le développement et le déploiement des APIs sur Apigee. Mettre en place des stratégies de gestion des performances, de sécurité et de versioning des APIs. Automatiser les processus de déploiement à l’aide de pipelines CI/CD. Encadrement technique : Apporter une expertise technique et accompagner les développeurs dans la mise en œuvre des solutions. Former et guider les équipes sur l’utilisation d’Apigee, Kafka et les meilleures pratiques de développement. Assurer la relecture et la validation des codes pour garantir la qualité technique des livrables. Collaboration et communication : Travailler avec les équipes produit, DevOps et sécurité pour aligner les besoins business et techniques. Participer aux réunions stratégiques pour proposer des solutions adaptées aux objectifs de l’entreprise. Surveillance et maintenance : Implémenter des outils de monitoring pour assurer la disponibilité et la performance des APIs. Identifier et résoudre les problèmes techniques liés aux APIs ou aux intégrations Kafka.
Développeur Python/ devops (Airflow scripting)
Au sein de la division Automation Lab, vous intégrerez une équipe dynamique, en charge du maintien en condition opérationnelle des différents orchestrateurs chargés de provisionner les infrastructures de l’entreprise. Les orchestrateurs sont composés des outils Hashicorp Terraform et Airflow, ainsi que de développement en java ou en python. DEV FRONT : Développement en mode agile autour de la nouvelle robotique Dans le cadre de sa gestion de son offre d'infrastructure, l'équipe Cloud en charge de l'orchestrateur des différents Cloud privés de l’entreprise, recherche un développeur expert PYTHON et traitera des sujets liés à la résilience. A ce titre, il participera à la conception et l'écriture de l'orchestrateur afin de permettre le provisioning dans différents environnements onPremises, Clouds. Il devra aussi s'impliquer, en autonomie, sur le RUN (DEVOPS) et sur les developpements pilotés en mode AGILE SCRUM. Les compétences en JAVA sont appréciables (Maitrise) afin de pouvoir développer nos divers portails (nouveaux projet et MCO), les compétences suivantes sont souhaitées: Javascript, Typescript, Framework Svelte Java 8 - 21 - Springboot, React, Api Rest/Soap connaissances pour CI/CD (deploiement, creation de version, etc..) et de l'architecture Micro-services Maîtrise : Linux et Kubernetes (expert) Terraform Airflow scripting / automation (pipelinegitlab CI/CD, RHL, Windows, Terraform, Dev (sens general), Virtualisation VMWare, Design fonctionnel, SQL, Kubernetes + Développement sur KUBERNETES, Terraform, Python Golang Docker Connaissance de développement Cloud provider ( ibmcloud très apprécié ), agile / java spring, Orchestration Maîtrise : Gitlab CI/CD, python, TERRAFORM, ORCHESTRATION, AIRFLOW
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.