Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur de production - Intégrateur Run H/F - Nancy
Nous recherchons pour l’un de nos clients spécialisés dans le domaine bancaire un Intégrateur Run / Ingénieur de Production H/F à Nancy pour une mission démarrant dès que possible. Vous allez rejoindre une équipe d'ingénieurs au sein d'un domaine, vos missions principales au sein de cette équipe seront : - Gestion des incidents de niveau 2 : Exploiter les chaînes applicatives au quotidien dont vous aurez la charge Analyser et résoudre des incidents batch, de monitoring, applicatif - Gestion des mises en production : S’assurer que les nouvelles versions sont déployées sans encombre en environnement Hors Prod et Prod Être garant du respect des processus - Automatisation des procédures : mettre en place des flows d'automatisation sur les actions récurrentes identifiées. - Amélioration continue : Êtes-vous prêt à repousser les limites du possible ? Bien, parce que nous cherchons à toujours nous améliorer - Astreintes : Selon le périmètre et la montée en compétence, des astreintes pourront être demandées
Offre d'emploi
INGENIEUR DEVOPS F/H | LILLE (59)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Assurer la gestion et la maintenance de l'infrastructure Implémenter et gérer des pipelines d'automatisation Déployer et maintenir des clusters pour gérer les conteneurs en production. Automatiser la gestion de l'infrastructure Développer des scripts et des outils d'automatisation pour améliorer les processus d'administration et de production. Participer à l'intégration continue et à la livraison continue (CI/CD) en collaborant étroitement avec les équipes de développement. Superviser et optimiser les performances des environnements de production. Garantir la sécurité et la conformité des systèmes en production selon les normes en vigueur. Environnement Technique : Vmware, Ansible, Kubernetes, Terraform, Python Le poste est basé à Lille (59). Dans le cadre de vos fonctions, vous pourrez bénéficier de 2 jours de télétravail par semaine.
Offre d'emploi
Architectes / experts stockage sur les périmètres SAN, NAS et Objet S3 H/F
Participation active dans le cadre de projets d’infrastructure en tant qu’architecte/expert et/ou référent technique du socle Stockage : • Phase d’étude : v Définition de l’architecture, des spécifications techniques détaillées v Elaboration des normes et standards, de la roadmap et de la stratégie de Stockage v Elaboration de la stratégie, des scénarii et MODOP de migration • Phase de construction : v Participation à l’installation, à la configuration, à l’intégration dans l’écosystème (surveillance, authentification, sauvegarde, cloud, etc.), aux divers tests et recettes v Production de livrables documentaires techniques (Chronogramme, DAT, DEXP/PTE, PTI, etc.) et utilisateurs (MODOP, présentation des services, ODS, etc.) v Mise en œuvre d’indicateurs de performance et élaboration de scripts de supervision v Elaboration et mise à jour des processus et procédures d’exploitation (RACI, diagramme, MODOP, etc.) v Participation à l’élaboration, au suivi et à l’évolution du catalogue de services et des processus associés • Phase de passage en production : v Réalisation des phases de test, recette, validation technique et fonctionnelle v Monitorat des équipes opérationnelles v Passage en comité d’exploitation • Phase de migration : v Réalisation technique des gestes de migration § Gestion des évolutions, des opérations de mises à jour ou de migrations § Gestion des incidents, demandes, gestion des changements (CAB), gestion des mises en production, gestion de configuration et gestion des indicateurs, gestion des escalades § Participation, organisation et animation des ateliers internes ou avec des partenaires (constructeurs/éditeurs, fournisseurs etc.) § Participation aux phases de validation technique lors des ateliers de définition et d’architecture ou de mise en production § Elaboration et maintien de la documentation des infrastructures de stockage sur toutes leurs composantes Participation active aux comités de suivi opérationnel et technique avec les partenaires / fournisseurs et les parties prenantes § Assurer un support technique et fonctionnel de niveau 3 auprès des différentes parties prenantes Mise en œuvre des solutions méthodologiques et techniques permettant d’optimiser la production informatique (gestion capacitaire, gestion d’obsolescence), le reporting et de s’engager sur une qualité et une continuité de service § Identifier, préconiser et documenter les MAJ et les modifications de configuration nécessaires (matérielles, logicielles sur les socles serveur, virtualisation, OS, réseau, stockage et stockage) afin d’assurer la conformité des chaines de liaison et le respect des meilleures pratiques constructeurs/éditeurs § Développement de scripts/playbooks (Ansible, KSH, Python, etc.) afin d’automatiser les gestes récurrents
Mission freelance
DEVOPS
· Commissionnement/ décommissionnement de l’infrastructure AWS (EC2, RDS, ELB/ALB, AWS S3) · Maintenir et évoluer la chaine d’intégration continue Jenkins (création, modification des jobs..) · Installer les composants logiciels d’infrastructure (JRE, PHP, apache, postgreSQL..). · Déploiement des applications du programme (configuration Zuul et exécution des jobs jenkins). · Analyse et résolution des incidents survenus en production (application non disponible, serveur non disponible….). · Analyse et optimisation des performances. des serveurs (Processus, RAM, FS, CPU, nbr de transactions) · Etre le garant du respect des bonnes pratiques de livraisons (création de branches dans Git, upload dans nexus….) · Faire et suivre des demandes d’ouverture de flux inter-applicatifs et inter-plateformes. · Alerter les équipes projets sur les risques liés aux configurations et performances de leurs applications. · Etre le principal point de contact avec les équipes d’infrastructure pour le programme lors des phases de mise en production. · Transverse : · Préparation des playbook Ansible de la plateforme. · Maintenir le dossier de configuration et d’exploitation. · Maintenir les images docker utiliser. · Maintenir les job jenkins en place. · Préparation des helm charts des applications. · Travailler avec les architectes du programme pour étudier les évolutions · Adopter une approche devops (containérisation, infrastructure as code….)/ · Minimum 5 ans d’expérience dans un contexte technique similaire · Bonnes connaissances des technologies et applications Web · Bonne maîtrise de l’Anglais impérative (les équipes tech et les Stakeholders sont tous à l’international) · Docker, kafka ou ESB similaireExpérience des enjeux du développement de solutions B2B pour des clients grands comptes · Connaissance d’un broker de messages comme Kafka · Expériences avec des applications manipulant de fortes volumétries de données · Aisance dans une équipe agile, scrum et/ou kanban · Connaissance des workflows de gestion de projet ANGLAIS Indispensable
Mission freelance
Ingénieur SysOps AWS
Bonjour, Nous recherchons pour notre client grand compte un ingénieur SysOps AWS pour rejoindre ses équipes Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée à notre recherche décrite ci-dessous CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/AWS/4562 en objet de votre message La prestation Développer pour les projets l’infrastructure et services AWS en IAC avec Terraform, déployer, gérer et opérer dans une optique de sécurité, de scalabilité, de performance, de haute disponibilité, de tolérance aux pannes et d'optimisation financière Accompagner la monté en compétences des équipes projets, leur assurer le support sur les services et usages AWS Mettre en place tous les outils pour assurer le run: sécurité, monitoring, alerting, sauvegarde, process et outils de reprise, etc.. Réaliser la documentation nécessaire Appliquer et s'assurer du respect des normes de sécurité, optimisation finops et autres règles de conformité Participer à la MCO et au Run des produits développés Participer à la mise en place des environnements de développement. Ecriture des pipeline CI et de déploiement Participer à la maintenance des serveurs on-premise
Mission freelance
Ingénieur Systèmes Linux DevOps Senior Montargis/su
Ingénieur Systèmes Linux DevOps Senior Apache Tomcat Debian centOS Python Ansible Shell Script Soft skills Sens du serviceCapacité d'analyseTravail en équipeAutonomieRelationnel / CommunicationRigueurOrienté résultatAdaptation Secteurs d'activités AssuranceMutuelle / Santé / Prévoyance Description et livrables de la prestation Description des prestations : - Développement de scripts Shell, python et Ansible - Migration d’OS, containerisation - Migration de serveurs LPAR vers un nouveau serveur physique. - Administration des systèmes (Debian, CentOS, Alma), composants middleware (Tomcat, Apache…) et des applications hébergées - Automatisation des montées de version applicatives hébergées - Dimension relationnelle avec le service exploitation et le service Etudes. Expertise souhaitée Expérience et compétence requises : - Expertise scripting shell, python, ansible (expérience significative) - Expertise containerisation Docker - Culture DevOps prépondérante - Expertise dans l’administration Linux (différentes suites) - Expérience sur un poste similaire pendant au moins 5 ans Qualifications requises : - Bac + 5 ou Bac + 3ans (avec forte expérience)
Offre d'emploi
INGENIEUR DEVOPS F/H | NANTES (44)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Assurer la gestion et la maintenance de l'infrastructure Implémenter et gérer des pipelines d'automatisation Déployer et maintenir des clusters pour gérer les conteneurs en production. Automatiser la gestion de l'infrastructure Développer des scripts et des outils d'automatisation pour améliorer les processus d'administration et de production. Participer à l'intégration continue et à la livraison continue (CI/CD) en collaborant étroitement avec les équipes de développement. Superviser et optimiser les performances des environnements de production. Garantir la sécurité et la conformité des systèmes en production selon les normes en vigueur. Environnement Technique : Vmware, Ansible, Kubernetes, Terraform, Python Le poste est basé à Nantes (44). Dans le cadre de vos fonctions, vous pourrez bénéficier de 2 jours de télétravail par semaine.
Offre d'emploi
Ingénieur Système Linux Python H/F
Objectif global : Développer et Automatiser des solutions autour des bases de données Contrainte forte du projet La mission se déroulera dans un contexte de production au sein d'une unité DBA d’infrastructure en charge de concevoir, développer et maintenir des outils transverses à toutes les technologies. Contexte : En tant qu'équipe DBA infra transverse, nous intervenons aussi lors de la conception de services au sein de notre cloud privé, de l'automatisation de taches d'administration et d'exploitation des bases de données. Nous élaborons des normes de développement, développons en Python, Shell (Ksh, Bash), Ansible et nous maintenons différents outils sous forme de portail web (JS, TypeScript, Angular). Missions : Nous souhaitons aussi refondre, conteneuriser, notre plateforme API mais aussi nos services bases de données que nous proposons dans notre cloud privé. Nous effectuons aussi un support auprès de nos utilisateurs.
Offre d'emploi
Data Engineer Kafka (production/ Run)
Spécialisé dans le secteur bancaire, l'entreprise recherche un Expert Data Engineer Kafka pour renforcer ses effectifs. . Le rôle consiste à mettre en œuvre des solutions de streaming de données à grande échelle et en temps réel pour répondre aux besoins des différents départements métiers et améliorer la prise de décision grâce à une infrastructure de données solide, évolutive et performante. Architecture et conception : Concevoir et développer des pipelines de données en streaming avec Apache Kafka pour gérer des volumes de données élevés en temps réel. Participer à la définition de l’architecture de la plateforme Kafka et de ses composants (brokers, zookeepers, clusters). Développement de flux de données : Créer, configurer, et maintenir des topics Kafka , des streams et des connecteurs Kafka pour assurer l’ingestion, la transformation et la livraison des données aux consommateurs en temps réel. Optimisation des performances : Surveiller et ajuster les configurations pour optimiser la latence et le débit des flux de données en streaming. Mettre en place des processus de mise à l’échelle et de gestion des performances pour maintenir un haut niveau de fiabilité. Sécurité et conformité : Mettre en œuvre des mesures de sécurité et de gouvernance des données pour protéger les flux de données Kafka en conformité avec les exigences internes et réglementaires (authentification, contrôle d’accès, chiffrement des données en transit). Innovation continue : Mener une veille technologique active sur les évolutions d'Apache Kafka et les nouvelles technologies de streaming, telles que Apache Flink , Kafka Streams , ksqlDB , afin d’améliorer continuellement l’écosystème de données. Maîtrise de Kafka : Expertise approfondie sur Apache Kafka , avec une expérience dans l’implémentation, l’optimisation et le maintien de clusters Kafka en environnement de production. Compétences en programmation : Compétences en Java , Scala , et/ou Python pour la création de flux de données et l’intégration de Kafka avec d’autres systèmes. Traitement des données en temps réel : Connaissance des frameworks de traitement en temps réel et streaming, tels que Apache Flink , Kafka Streams , et Spark Streaming . Architecture de données distribuées : Solide compréhension des architectures de données distribuées, de la gestion des clusters et de l’optimisation des performances des systèmes de streaming. Sécurité des données : Maîtrise des pratiques de sécurité des données, y compris le chiffrement, l'authentification (SASL, SSL) et le contrôle d’accès (ACL) dans les systèmes Kafka. Environnement cloud : Expérience avec les environnements cloud (AWS, GCP, Azure) et familiarité avec les services Kafka managés comme Confluent Cloud ou Amazon MSK . Compétences en DevOps : Connaissance des outils DevOps tels que Docker , Kubernetes , et Terraform pour le déploiement, l’orchestration, et la gestion des clusters Kafka.
Mission freelance
Consultant Logiciel Technique et Fonctionnel Redmine (H/F) – Toulouse
🌟 Vous maîtrisez Redmine et avez une solide expérience en administration système et migrations d’environnements logiciels ? Ce projet pourrait bien être votre prochaine mission ! 🚀 Vous travaillerez sur un projet structurant, dans un environnement technique stimulant, où vous aurez l’opportunité de mettre en pratique vos compétences en migration logicielle et en administration de systèmes complexes. Votre expertise contribuera à optimiser les outils de gestion de projets pour un usage plus performant et sécurisé. Contexte de la mission : Notre client utilise l’outil de gestion de projets Redmine depuis plus de 15 ans, réparti sur deux environnements distincts : un serveur interne pour la production et les tests, et un serveur externe en DMZ hébergeant des instances spécifiques. Toutes les instances Redmine sont en version 2.3.3, et le client souhaite une migration vers la dernière version stable afin de mieux répondre aux exigences techniques actuelles. 💼 Vos responsabilités : - Analyser les environnements existants : Comparer fonctionnellement et techniquement les différentes instances de Redmine pour en identifier les spécificités. - Optimiser les installations actuelles : Examiner les plugins installés, proposer une rationalisation vers une utilisation plus standard de Redmine pour faciliter les futures mises à jour. - Préparer et étudier la migration : Évaluer les impacts de la mise à jour vers la dernière version stable de Redmine, et définir une architecture de serveurs répondant aux besoins, incluant une solution SSO avec Azure AD. - Archiver les données non-utilisées : Proposer et mettre en place une solution d’archivage des projets et documents inactifs pour réduire l’espace disque occupé. - Réaliser la migration : Planifier et exécuter la migration des instances Redmine sur de nouveaux serveurs en respectant les contraintes de sécurité et d’intégrité des données.
Mission freelance
Ingénieur développement Adobe Campaign H/F
Nous recherchons un Ingénieur de développement Adobe Campaign Confirmé (H/F) pour le compte de notre client spécialisé dans le secteur des assurances à Montpellier (34) Il s'agit d'une mission longue (3 ans) avec 3 jours de télétravail possible par semaine Période de démarrage : ASAP Mission: - Estimer, concevoir et développer des évolutions sur Adobe Campaign. - Analyser et résoudre les problèmes liés aux diffusions et workflows. - Collaborer avec les équipes pour garantir la qualité et la satisfaction client.
Mission freelance
EXPERT CHEF D'EQUIPE WINDOWS & VIRTUALISATION H/F
Le prestataire est chargé d’apporter son expertise technique et piloter les équipes en vue de la construction le centre de compétence : - Système Windows Il participera aux entretiens d’embauche pour constituer les équipes indiennes et évaluer leurs compétences techniques. 2.3 Expertises techniques attendues Microsoft Windows Server (expertise) Active Directory Linux, RedHat Tanium RedHat Satellite Spacewalk Virtualisation VMWare (Vsphere, ESX, ESXi, ...) v
Mission freelance
Expert PostgreSQL / Oracle N3 (F/H)
La présente consultation a pour objet la mise en place d’une prestation d’expertise pluri-SGBD N3 au sein du Domaine Exploitation. En particulier la sécurisation et l’industrialisation des migrations des BDD Oracle vers PostgreSQL. L’expertise BDD a pour principal objectif de fournir les moyens efficients au maintien en conditions opérationnelles des BDD Oracle du parc. L’accompagnement des Conduites Techniques et des Projets dans le cadre de nouveaux besoins fera également partie du rôle premier de l’expert Oracle. Description de la prestation : - MCO des BDD Oracle 19c o Montée de version, patch management o Mise en place mode RAC / RAC one Node o Mise en place et maintien de DataGuard o Audits et analyse de performances Oracle (BDD) o Gestion des problématiques de sauvegarde et restoration RMAN - MCO des BDD PostgreSQL 9.x à 15.x o Montée de version, patch management o Mise en place Haute Disponibilité (EDB EFM) o Audits et analyse de performances o Gestion des problématiques de sauvegarde et restoration - MCO des BDD SQL Server 2016 à 2022 o Montée de version, patch management o Mise en place Haute Disponibilité (AlwaysOn) o Audits et analyse de performances o Gestion des problématiques de sauvegarde et restoration - Opérationnel sur les sujets suivants o Migration de données Oracle vers PostgreSQL et des outils du marché o Industrialisations ANSIBLE o Veille technologique - Contexte applicatif o Compréhension des chaines de Production techniques et identification des SPOF (Tomcat, connexions sécurisées) o Accompagnement des Intégrateurs et Développeurs dans les déploiements d’outils connexes (Supervision, sauvegarde, connexions distantes…) - Les prestations réalisées dans ce lot peuvent être notamment (liste non exhaustive) : o Préconisations de bonnes pratiques o Audit et recommandation d’implémentation o Définition des règles de sécurité o Optimisation des bases et des requêtes o Mise en place d’options SGBD o Montée de version, Migration, Consolidation o Création/Sauvegarde/Suppression/Duplication d’environnements o Gestion des sauvegardes, Récupération de données o Supervision, Optimisation, Suivi des performances o Participer au maquettage de solutions (POC) o Elaborer des procédures de tests permettant d’évaluer la performance, la sécurité, la compatibilité et la fiabilité o Configurer et dimensionner les solutions logicielles retenues en fonction des performances requises o Rédiger et mettre à jour la documentation des procédures et consignes d’exploitation o Diagnostiquer les pannes et les dysfonctionnements o Réparer les pannes et les dysfonctionnements o Mettre en place des solutions de contournement en cas d'anomalie bloquante o Fiabiliser la production o Réaliser les installations des produits o Support aux développeurs et aux techniciens d’exploitation
Offre d'emploi
SecOps / IaaS Senior – GCP/AWS/Azure
Nous recherchons un expert en SecOps/IaaS pour intégrer notre équipe plateforme IaaS . Si vous avez une expérience significative sur GCP, AWS ou Azure et une maîtrise des outils d'automatisation comme Terraform, Ansible et Python , nous serions ravis de vous rencontrer ! Vous rejoindrez une équipe dynamique qui adopte une méthodologie agile (Kanban) et applique le principe "You run it, you build it" . Vous serez responsable du Build, du Run, du MCO , ainsi que des astreintes pour assurer le maintien en conditions opérationnelles. Responsabilités : Créer des scripts Python , des modules Terraform , et des playbooks Ansible pour l'automatisation. Gérer des VMs sous Linux (RHEL) et Windows Server . Participer à la gestion complète du cycle de vie des infrastructures en tant que membre clé de l'équipe. Assurer une communication active et partager les connaissances avec les autres membres de l'équipe. Compétences techniques requises : Cloud Public : GCP (idéalement), AWS ou Azure. Technologies : GCE, GCS, CloudFunction (ou équivalents AWS/Azure). Outils d'automatisation : Maîtrise de Terraform , Ansible , Python (obligatoire). CI/CD et Gestion du code : GitHub , Jenkins . Administration Système : Windows Server , RHEL (Linux).
Mission freelance
DevSecOps Lyon
En recherche d'un profil DevSecOps sur des sujets infrastructure pour un de mes clients Lyonnais dans le domaine des energies - Conception, développement et maintien de l’infrastructure et de l’outillage dans une logique d’automatisation, - Analyse et résolution des anomalies liées à la performance et à la scalabilité des systèmes, - Définir les actions pour améliorer l’existant et renforcer la proactivité pour anticiper les ruptures ou dégradation de Service, - Assurer le support niveau 3 des incidents et demandes métiers
Mission freelance
Architecte Technique Cloud Privé/Public (H/F)
Activités : Rédaction d’études d’architecture : Vous devrez réaliser certaines études d’architecture ou de pré-architecture. Ces études peuvent concerner des projets applicatifs ou des composants transverses au SI. Dans la majorité des cas, l'architecte transverse (HF) interviendra en appui aux projets. Il/elle devra dans ce cas identifier les attentes, les objectifs et les contraintes. A partir de ces informations et de sa connaissance des recommandations d'architecture, spécifier ou préconiser des solutions techniques (applicative, logicielle et matérielle) dans un dossier d’architecture technique ou de pré-architecture ; il évaluera avec les urbanistes la cohérence de ses propositions avec les recommandations d'urbanisme du groupe. Veille technologique : Vous pourrez aussi être amené à effectuer des évaluations de solutions. Ces évaluations, qui prendront la forme d’études techniques, devront permettre d'analyser les apports et impacts de la nouvelle solution sur le SI, les différences avec des solutions identifiées dans le catalogue des solutions de l'entreprise, l'adéquation avec les éléments déjà déployés, la capacité des infrastructures à supporter l'outil évalué, l'effort à faire pour que le nouveau composant soit exploitable selon les procédures groupe. Vous devrez aussi vous rapprocher des urbanistes afin d'évaluer l'apport du logiciel étudié aux objectifs d'urbanisation du SI. Ces travaux pourront aussi donner lieu à la réalisation de prototypes. Accompagnement des projets : Vous serez amené à effectuer de l’accompagnement aux projets dans le cadre d’une Taskforce montée pour répondre à une problématique d’infrastructure transverse. Accompagnement de la migration Cloud : Vous accompagnerez le groupe dans la Transition vers le Cloud. Cela passe par la définition de pattern d’implémentation, l’accompagnement dans la transition des projets vers ces architectures cloud native et de l’appropriation de l’approche DevSecOps de l’entreprise. Gestion documentaire et reporting : Vous serez responsable du reporting de vos activités à travers l’outil Jira. Vous produirez des pages de capitalisation des connaissances dans l’outil confluence afin qu’elles puissent être utilisées par d’autres projets et faciliter les transferts de connaissance. Appui au pilotage : Vous aurez pour mission complémentaire : o Assurer le suivi de la prestation : respect des délais de livraison, qualité des livrables. o Piloter le(s) intervenant(s) au sein de la cellule, suivre et planifier leur charge de travail. o Maintenir à jour les référentiels : documentation d’accueil des nouveaux arrivants. o Remonter les problèmes, faits marquants, établir les reportings périodiques. o Faire une étude d’impact sur l’ensemble des applications du périmètre en cas de détection d’un incident technique lié à l’architecture o Accompagner le pilote dans la mise en œuvre d’une démarche d’architecture d’entreprise
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.