Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Ingénieur Stockage N3 (SAN/NAS/S3) H/F

Nous sommes à la recherche d'un ingénieur Stockage N3 ( SAN/NAS/S3) pour intervenir chez notre client basé à Rennes , IDF , Sophia Dans les actions, principalement : Accompagner l’architecte sur la proposition et la mise en œuvre des nouvelles architectures orientées stockage Organiser voire réaliser les upgrades / patchs Suivi du capacitaire Stockage N3 type de stockage ( SAN / NAS /S3) Equipements à ISILON / NETAPP / POWERSTORE / SCALITY /switchs SAN BROCADE Dans ce contexte, vous travaillez sur les sujets stockage SAN, NAS et sauvegarde. Vous êtes responsable du maintien en conditions opérationnelles de l’ensemble des infrastructures de stockage et de leur évolution. Vous assurez les modifications sur les infrastructures de stockage afin de satisfaire les requêtes des services clients. Vous maintenez les interfaces programmatiques de gestion du stockage et participez à leur développement et à leur intégration.
support Admin Data Engineer PROD (Starburst - Spark - Airflow - Kubernetes- S3 )

Notre équipe est responsable du maintien en condition opérationnelle des plateformes suivantes qui tournent sur IKS (Kubernetes IBM) et bientôt sur OpenShift : · Apache Spark · Apache Airflow/Astronomer · Starburst (trino) Dans le cadre du renforcement de notre capacité de support sur cette nouvelle offre "DATAHUB" , nous recherchons des prestataires spécialisés dans l’exploitation et le support de ces plateformes. La prestation visera à : · Assurer le support de niveau 2 en production des plateformes mentionnées (PROD). · Intervenir dans la gestion des incidents, l’analyse des root causes et la résolution. · Participer à l’optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l'optimisation de l'orchestration Airflow, à la gestion des catalogues Starburst · Accompagner les équipes métiers dans l’utilisation efficace et sécurisée des plateformes. · Contribuer à la documentation et à l’amélioration continue de l’écosystème d’exploitation. Compétences attendues : · expérience DATA en PROD · Maîtrise des environnements Kubernetes, Spark, Airflow , Starburst (à minima 2 technos). · support sur des service Kubernetes/helm charts · Solide expérience en support de production, Monitoring, observabilité (logs, métriques), investigation d’incidents (technos Dynatrace, Kibana, Grafana) · Bonnes pratiques d’exploitation de traitements data distribués. · Connaissances en tuning Spark, gestion des ressources, profiling applicatif. · Capacités rédactionnelles pour formaliser les procédures d’exploitation et de diagnostic. · Compétences en scripting (Ansible, Python, Bash..) appréciées. · Maitrise chaine CI/CD (Git, jenkins, Gitlab CI, ….) · Connaissances Hashicorp vault Secrets + PKI · Français/Anglais
Devops applicatif en environnements aws
🚀 DevOps confirmé·e pour un projet de transformation digitale ! 📍 Mission longue durée – Environnement AWS / Terraform / CI/CD Vous aimez automatiser, fiabiliser, scaler ? Vous rêvez d’infrastructures propres, performantes et bien pensées ? Nous avons une mission passionnante pour vous. 👇 🧱 Le contexte Vous intégrerez une équipe digitale dynamique, en charge de la digitalisation des parcours clients d’un acteur majeur en BTP. Votre rôle : construire et maintenir les fondations techniques de services clés comme l’espace client, le portail punchout ou le suivi de commande – dans un environnement exigeant, cloud-native, et en pleine expansion. 🎯 Vos responsabilités Participer activement à la mise en place et évolution des stacks AWS Développer des infrastructures serverless scalables, modernes, et automatisées Implémenter et maintenir des pipelines CI/CD via GitLab-CI Piloter l’infrastructure avec une approche Infra as Code (CDK for Terraform / Terraform) Optimiser performance, sécurité et fiabilité des plateformes Assurer la supervision et l’observabilité (alerting, dashboards, logs) Contribuer aux bonnes pratiques DevOps, dans un cadre agile et collaboratif 🧪 Tech & outils Cloud : AWS (Lambda, S3, API Gateway, etc.) Infra as Code : Terraform / CDK for Terraform (TypeScript) CI/CD : GitLab / GitLab-CI Monitoring : Stack moderne (Datadog, Kibana, etc.) Langages : TypeScript, bash, YAML
DEVIENS #AUTEUR Développer une application Azure Serverless

Nous sommes une maison d'édition spécialisée dans la publication de livres et vidéos autour de l'informatique et de la bureautique. Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Azure Serverless. "Pourquoi pas moi ? Je suis formateur(trice), consultant(e), développeur(euse)... et Azure n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Vous bénéficierez d'un accompagnement éditorial (sommaire, essai, méthodologie, suivi, relecture...). La rémunération est proposée sous forme de forfait OU royalties OU mix des deux.
Data Engineer SQL/Python
Description et livrables de la prestation Intégré(e) au sein d'une équipe data dynamique, vous interviendrez sur le développement et l’évolution d’un entrepôt de données stratégique. Votre mission portera sur l’intégration de flux valorisés, la rédaction des spécifications techniques et l’amélioration continue des traitements. Environnement collaboratif, exigeant et stimulant, au cœur d’un gros projet data dans le secteur de l’énergie, avec de forts enjeux métier. Responsabilités - Récupération, traitement et valorisation de flux de données métier - Rédaction des spécifications techniques et fonctionnelles - Intégration et automatisation via Airflow - Support au RUN : MCO, suivi des incidents, surveillance - Participation active aux pratiques de DataOps & DevOps - Partage des connaissances, documentation, interactions régulières avec les équipes métiers - Force de proposition sur l’optimisation des flux et traitements existants Mobilité Lyon - 3 jours de TT par semaine
Lead Dev - Java, Angular instance AWS

Je recherche un Lead Developer expert Java / Angular / AWS Lambda pour piloter et accompagner une équipe dans la conception, le développement, le déploiement et l’optimisation d’une application critique SI dans un contexte hybride (datacenter + cloud AWS), au sein du programme stratégique. Responsabilités clés : Développement en pair avec son équipe. Garant des bonnes pratiques (Craft, TDD, DDD, DevOps, etc.). Référent qualité, sécurité, dette technique. Pilotage des indicateurs DORA. Participation aux rituels de l’usine SI. Enjeux critiques : Continuité d’activité, accessibilité, productivité. Apport métier via la data, IA et digitalisation. Conformité aux exigences de sûreté, sécurité, et performance. Environnement technique : Application web Angular, backend Java & Python. Infrastructure hybride : Datacenter (Apache, Tomcat, PostgreSQL) + AWS (Lambda, S3, DynamoDB). Environnement organisationnel : Rattaché à l’Usine SI Socles Métiers. Collaboration étroite avec PO, Engineering Manager, Architectes, Cloud Architect, DevSecOps. Équipe pluridisciplinaire. Présentiel 2 à 3 jours/semaine à Lyon.
Architecte/Devops AWS
Missions principales Concevoir et mettre en œuvre des architectures Cloud évolutives, sécurisées et hautement disponibles sur AWS . Automatiser les infrastructures via Terraform (IaC - Infrastructure as Code). Superviser et configurer des environnements utilisant VPC , IAM , Lambda , S3 , EKS et d'autres services AWS stratégiques. Assurer la sécurité, la performance et la conformité des architectures. Collaborer avec les équipes développement et DevOps via GitHub pour la gestion du code et des pipelines CI/CD. Conseiller sur les bonnes pratiques Cloud et accompagner la montée en compétence des équipes internes.
Ingénieur stockage MCO
Nous sommes à la recherche d’ un profil MCO Stockage. Vous trouverez ci-dessous plus de détails sur la mission : • Site client : Lognes (77) • Sur site ou Remote : Sur site (impératif) • Nationalité : Française • Compétences requises : o Load Balancer Kemp mêmeF5 et A10 o Baie de Stockage objet et Bloc (S3, Swift, Dell ECS, IBM FlashSystem) o Système (Linux, debian, rhel) o Automatisation (ansible, gitlab) • Périmètre : o Configuration automatisée des baies de stockage / Kemp o Maintien en condition opérationnelle et de sécurité sur l’ensemble des équipements. o Support de niveau 3 sur l’ensemble des équipements o Installation de nouveaux environnements o Contribution aux documentations d’architecture o Mise en place d’un capacity planning
Expert·e/ Architecte Backup

Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV
Administrateur Linux (H/F)

Administrateur Linux (H/F) - Toulouse Experis recherche un(e) Administrateur(trice) Linux expérimenté(e) pour renforcer une équipe sur son agence toulousaine ! YOUR DAILY LIFE Virtualisation Gestion de templates VMware, OVA, Datastore, opérations de migration Stockage Connaissance des environnements NAS, SAN, S3 et de leurs spécificités Sauvegarde Utilisation de solutions type Veeam, NetBackup, etc. Paramétrage de politiques de sauvegarde selon les types d'environnements (prod, test, qualif) Archivage, règles de rétention
Développeur Python_Matlab_AWS

Je suis à la recherche d'un Développeur Python_Matlab_AWS. Capacité à migrer des algorithmes Matlab vers Python. Construction de pipelines de traitement de données à des fins de maintenance ou de monitoring Utilisation avancée de pandas, numpy, et des outils AWS serverless (Lambda, S3, etc.) Capacité à s'intégrer aux côtés des architectes et autres développeurs, avec une communication fluide et une forte autonomie dans les tâches de codage, test, documentation et maintenance Renforcement de l’équipe projet pour assurer le développement, la migration et l’industrialisation d’algorithmes de traitement des signalements Développement de nouveaux algorithmes en Python Analyse et migration des algorithmes Matlab existants en Python Intégration de ces algorithmes au socle CBM, tout en respectant les normes d’industrialisation, de test et de documentation définies par l’usine logicielle du Client Participation à la construction progressive d’un socle CBM dédié ayant pour objectif d’accueillir à terme l’ensemble des cas d’usages de maintenance conditionnelle à venir Le projet CBM (Condition Based Maintenance) vise à moderniser les pratiques de maintenance en s’appuyant sur la maintenance conditionnelle et les données de terrain (IoT, alertes, codes défauts)
Admin Stockage MCO(Load Balancer Kemp)
Compétences requises : o Load Balancer Kemp o Baie de Stockage objet et Bloc (S3, Swift, Dell ECS, IBM FlashSystem) o Système (Linux, debian, rhel) o Automatisation (ansible, gitlab) o Configuration automatisée des baies de stockage / Kemp o Maintien en condition opérationnelle et de sécurité sur l’ensemble des équipements. o Support de niveau 3 sur l’ensemble des équipements o Installation de nouveaux environnements o Contribution aux documentations d’architecture o Mise en place d’un capacity planning
Développeur Java Sénior | Application Web & Mobile - Banque / Assurance (H/F)
Dans le cadre de la modernisation et du développement d’un ensemble d'applications métiers stratégiques dans le secteur de l’immobilier, nous recherchons un(e) Développeur Java Senior . Vous rejoindrez une équipe technique dynamique, au sein d’une DSI en pleine transformation digitale, travaillant sur des projets innovants et à fort impact business. Missions En collaboration avec les équipes produit, architecture et QA, vous serez amené(e) à : Participer à la conception et au développement d’applications backend en Java (Spring) Proposer des solutions techniques robustes, performantes et sécurisées Contribuer à la définition des architectures logicielles et à l’amélioration continue des outils existants Mettre en place et maintenir des tests automatisés (unitaires et d’intégration) Participer aux revues de code, au mentoring des développeurs plus juniors Travailler dans un environnement agile (Scrum) Stack technique Langages & frameworks : Java 11+, Spring Boot, JPA/Hibernate, Maven/Gradle Base de données : PostgreSQL, Oracle, SQL API : REST, Swagger/OpenAPI CI/CD : GitLab CI, Jenkins Cloud & Infra : AWS (EC2, S3, RDS), Docker, Kubernetes (atout) Autres outils : Jira, Git, SonarQube, IntelliJ
Architecte Cloud AWS Expert System (92)

Notre client, acteur majeur du secteur énergie , recherche un Architecte Cloud AWS expérimenté pour accompagner un programme stratégique de modernisation du SI. Ce programme couvre un ensemble de plus de 30 applications critiques liées à la transition énergétique : biogaz, hydrogène, prévisions de consommation, portail client, outils de dispatching. Vos responsabilités : Concevoir et faire évoluer les architectures AWS (cloud hybride et scalable) Participer à la définition des standards techniques, sécurité et performance Accompagner les équipes projets dans l’adoption de l’architecture cible Mettre en œuvre des pratiques DevOps et Infrastructure as Code (IaC) Contribuer à la veille technologique et à l’amélioration continue Compétences techniques requises : Expertise sur AWS (EC2, Lambda, RDS, S3, CloudFormation, etc.) Maîtrise des architectures microservices et serverless Outils IaC et CI/CD : Terraform , GitLab CI , etc.
Data Engineer

Fiche de Poste : Ingénieur Data / Cloud (H/F) Anglais professionnel (oral et écrit) obligatoire Forte appétence pour l’exploration Aisance en communication Expérience en Cloud PaaS/IaaS Amazon et bonnes connaissances AWS (S3, Lambda, DynamoDB, etc.) Maîtrise de Terraform et Git Compétences avancées en Python 3 + Boto3 AWS et Linux Expérience en data processing (pandas, pyspark, multi-threading, AWS batch) Connaissances en Data Science (NLP, LLM, AWS Bedrock) appréciées Développement backend et APIs REST Bonne pratique de la documentation technique (schémas, diagrammes, code structuré)
Tech Lead Fullstack JS (NodeJs/ReactJS)

Dans le cadre de l'un de nos projet d'envergure dans le secteur du transport, nous recherchons : Tech Lead Fullstack JS (7 ans D’exp Minimum) 🔍 Mots-clés : TypeScript, Node.js, React, React Hooks GitLab CI/CD, GitOps, Terraform Kubernetes (EKS), Docker, AWS (S3, RDS, Secrets Manager, IAM) SonarCloud, ESLint, Trivy, OWASP Git mono-repo, Feature Branch Workflow Architecture hexagonale / Clean Code / DDD OAuth2, OIDC, PKCE, JWT Test: Jest, Cypress, Gatling SBOM, CVSS, SAST/SCA Agile, Scrum, Jira 🔍 Critères : Expérience en architecture d’applications web cloud-native Leadership technique, code reviews, qualité logicielle Culture sécurité DevSecOps Expérience dans le pilotage de CI/CD complexes Bonne connaissance des standards OWASP, RGPD CDI / Freelance
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Rester ou partir pour un TJM plus basil y a 11 minutes
- Détection de texte IA, est-ce vraiment utile pour nous ?il y a une heure
- URSSAF versement libératoireil y a 7 heures
- L'ami ne s'appelle pas molette , mais BASIC ... 60 ans déjà.il y a 9 heures
- Vive les 40 ans du Turbo-Pascal du feu éditeur Borland.il y a 9 heures
- SASU IR - Prelevement sociauxil y a 11 heures