Trouvez votre prochaine offre d’emploi ou de mission freelance AWS Cloud à Paris
Ce qu’il faut savoir sur AWS Cloud
AWS (Amazon Web Services) Cloud offre une suite complète de services cloud pour le calcul, le stockage et le réseautage. Son infrastructure évolutive et fiable prend en charge une large gamme d'applications et de services.
Ingénieur réseau cloud (h/f)

emagine recherche pour l'un de ses clients un “Ingénieur réseau cloud sénior” avec un bon niveau d'anglais (obligatoire) : Démarrage : ASAP Durée : 1 an+ Lieu : Paris (75) Télétravail : 3 jours par semaine Les livrables : Concevoir, intégrer et supporter des solutions réseau durables, robustes et sécurisées. Aider les Product Owners à proposer des solutions rentables qui valorisent les stratégies commerciales. Contribuer et soutenir l'évolution et l'amélioration continue des produits. Assurer la sécurité du développement et de l'intégration des produits concernés. Maintenir la qualité de service et assurer le support des solutions. Fournir une expertise de haut niveau sur les produits et services. Exigences clés Solide expérience des réseaux cloud (AWS, Azure, Google Cloud). Expertise en conception et mise en œuvre d'architectures réseau. Maîtrise de la sécurité réseau et de la gestion des cyber-risques. Capacité à analyser et à résoudre des problèmes réseau complexes. Atouts Certifications en réseau ou cloud (par exemple, CCNA, CCNP, AWS Certified Solutions Architect). Connaissance des solutions d'interconnexion et de la technologie DWDM. Expérience des méthodologies de gestion de projet agiles.
AMOA move2cloud domaine bancaire

Un profil AMOA Assistance à Maîtrise dʼOuvrage) agit comme interface entre les équipes métiers (clients) et les équipes techniques, afin de garantir la réussite des projets informatiques, notamment lors de transformations digitales . Dans le contexte spécifique de la cloudification, lʼAMOA accompagne lʼentreprise dans la migration ou lʼadoption de solutions cloud, en veillant à lʼalignement entre les besoins métiers et les solutions techniques proposées. Missions principales dʼun AMOA cloudification Compétences requises Éléments caractérisant le poste "AMOA cloudification" >Recueillir et analyser les besoins métiers liés à la migration vers le cloud ou à lʼadoption de services cloud . >Rédiger le cahier des charges fonctionnel, incluant la cartographie du SI existant, les flux, les contraintes et les exigences spécifiques à la cloudification (sécurité, conformité, performance, etc.) . >Évaluer les solutions cloud du marché, participer au choix des technologies et des prestataires . >Piloter le projet de migration ou de transformation cloud : planification, suivi des budgets, gestion des risques, coordination des parties prenantes internes et externes .5 >Assurer la gouvernance du projet (comités, reporting, gestion des instances de pilotage) .5 Organiser et superviser la recette fonctionnelle, la validation des livrables, et le déploiement des solutions cloud >Accompagner la conduite du changement : communication, formation et support aux utilisateurs lors de la transition vers le cloud >Garantir la conformité des solutions cloud avec les exigences métiers et réglementaires. Maîtrise des concepts de cloud computing IaaS, PaaS, SaaS, sécurité cloud, architecture hybride, etc.). >Solide expérience en gestion de projet informatique et en transformation digitale Capacité à analyser et formaliser les besoins métiers et à les traduire en spécifications fonctionnelles >Connaissance des principaux acteurs et solutions cloud du marché AWS, Azure, GCP, etc.). >Excellentes compétences relationnelles et organisationnelles pour assurer la coordination entre les équipes métiers et techniques . Qualités personnelles attendues Formation et expérience Le poste dʼAMOA cloudification est stratégique pour accompagner les entreprises dans leur transformation vers le cloud. Il requiert une double compétence : compréhension fine des enjeux métiers et maîtrise des technologies cloud, ainsi quʼune forte capacité à piloter des projets complexes et à accompagner le changement auprès des utilisateurs . Capacité à piloter la conduite du changement et à accompagner les utilisateurs dans la transition. Rigueur, sens de lʼorganisation et de la planification Force de proposition et capacité dʼanticipation des risques et des besoins futurs . Bon sens de la communication, pédagogie, diplomatie . Esprit dʼanalyse et de synthèse.
Expert Infra Cloud et Big Data
Au sein d'une organisation dynamique dans le domaine du numérique, vous interviendrez sur la gestion et l’optimisation d’infrastructures cloud, ainsi que sur la gestion de plateformes de données à grande échelle. Vous serez responsable de l’industrialisation et de l’automatisation des services cloud pour garantir leur performance et leur évolutivité. Compétences techniques requises : Expertise dans les environnements cloud public (AWS, GCP, OVH) avec une préférence pour GCP . Maîtrise des outils d’automatisation et d'industrialisation des infrastructures ( Puppet , Ansible , Terraform ). Solides compétences en Big Data et technologies associées (notamment Spark , Python , Hadoop , SQL ). Expérience avec des solutions de déploiement et d’orchestration ( Jenkins , GitLab , Airflow ). Bonne culture des systèmes Unix/Linux et des environnements virtualisés. Compétences complémentaires appréciées : Expérience avec des architectures Data telles que Lakehouse et Datalake . Connaissance des solutions de stockage et traitement des données (ex : Delta , Parquet , DBT , BigQuery ). Bonne maîtrise des concepts systèmes , réseaux et virtualisation . Expérience sur des sites web à fort trafic .
Senior Data Analyst / Fin Ops H/F
Streamlink propose des solutions sur mesure et innovantes sur l’ensemble du cycle de développement des solutions Data, CRM / SAP, Dév & APPS, Cybersécurité, Cloud & infrastructures. Grâce à un réseau d’excellence à travers le Monde, basé entre Tunis (Tunisie) – Paris (France) – Port Louis (Maurice) , Streamlink favorise l'innovation digitale de ses clients. Streamlink, un environnement très agile et en forte croissance recherche pour un client dans le secteur BFA un Senior Data Engineer - Lead / Dev Lead Pyspark / Fin Ops Prestation attendues : • Analyser et cartographier, avec les experts métiers et l'équipe de développement, le pipeline de données actuel : les modèles de données des différentes base de données utilisées; les flux de données qui existent entre les différentes sources de données (lignage des données); les règles de validation, de filtrage de calcul actuellement en place lors des transferts de données • Assister les architectes dans la définition du nouveau pipeline de données en s'appuyant sur les service cloud • Appuyer l'équipe de développement dans la réalisation de la nouvelle solution : Mise en place en place de la solution et des bonnes pratiques associées ; Culture du data engineering ; Expertise sur l'outillage data mise en place (ETL, base de données, PySpark , Glue) • Être un métronome de l'agilité Compétences Techniques : • Catalogue des données consommées et produites et des règles de transformation associées • Solution pour alimenter Pluri en données provenant de plusieurs SI partenaires Compétences techniques requises : • Expertise dans l'outillage de stockage des données (base de données, fichiers) et le traitement des données (ETL, Spark) • Expertise Spark, quelque soit le langage de prédilection (Python, Scala , Python). • Maitrise des bonnes pratiques de développements et de la mise en oeuvre des outils liées à la data. • Maîtrise des technologies du Big Data, des problématiques liées à la volumétrie et aux performances • Maîtrise des outils de gestion de code (Git) et de déploiement projet (Terraform) • Connaissance de DataBricks • Connaissance du cloud Azure Savoir Faire: • Esprit analytique, rigueur et aisance relationnelle • Appétence et curiosité pour les nouvelles technologies, le Système d’Information et l’Agilité. Expériences professionnelles requises : • Plusieurs expertise significatives dans l'analyse de données et la mise en place de pipelines qu'ils soient de type batch/ETL ou événementiel/streaming • Mise en oeuvre des outils disponibles dans le cloud AWS pour stocker et traiter de la données: Glue, Spark, Airflow, RDS, OpenSearch, S3 Parquet Ce poste est ouvert aux personnes en situation de Handicap
Développeur Back-End Python - Télécommunications & Solutions IT - Paris (H/F)

## Missions ### Missions principales - Développer et maintenir des applications back-end en Python pour la gestion et le traitement des données. - Concevoir des architectures robustes et scalables adaptées aux besoins des utilisateurs internes et des clients. - Développer et intégrer des API performantes et sécurisées pour faciliter la communication entre les différents services. - Optimiser les performances et la fiabilité des applications existantes. ### Missions annexes - Participer aux choix technologiques et à l'amélioration continue de l'infrastructure technique. - Assurer une veille technologique pour proposer des innovations pertinentes. - Rédiger et maintenir la documentation technique. - Collaborer avec les équipes produit et front-end pour assurer une bonne intégration des solutions développées. ## Stack technique ### Stack à maîtriser - Langage : Python - Frameworks : Django, Fast API, Flask, DRF (Django Rest Framework) - Bases de données : PostgreSQL, SQL Server - API : REST, GraphQL ### Environnement technique - Cloud : AWS, Azure - Conteneurisation : Docker, Kubernetes - Intégration Continue/Déploiement Continu (CI/CD) - Gestion des versions : Git ## Avantages - 7% intéressement. - Télétravail : 2j/semaine
DEVELOPPEUR API SENIOR

DEVELOPPEUR API SENIOR Lieu : Paris, 3 à 4 jours de TT par semaine | Durée : Longue | Disponibilité : ASAP Contexte et mission Dans le cadre du renforcement de nos équipes IT pour un client du secteur du luxe basé à Paris, nous recherchons un Développeur API Senior pour développer et optimiser des services d’intégration et de communication entre applications. Vous interviendrez sur des projets stratégiques et serez garant de la qualité et de la performance des API développées. Responsabilités • Concevoir, développer et maintenir des API RESTful et SOAP • Optimiser les performances et la sécurité des services • Intégrer des solutions API avec des systèmes tiers • Documenter les API et assurer leur conformité aux standards (OpenAPI, Swagger, etc.) • Travailler en collaboration avec les équipes DevOps et d’architecture • Assurer une veille technologique et proposer des améliorations Compétences requises • Maîtrise des langages de programmation : Java, Python, Node.js ou .NET • Expérience avec des frameworks d’API : Spring Boot, Express.js, Flask, etc. • Bonne connaissance des protocoles REST, SOAP et GraphQL • Expérience avec des outils de gestion des API (Postman, Swagger, Apigee, etc.) • Maîtrise des bases de données SQL et NoSQL • Compétences en sécurité des API (OAuth, JWT, certificats SSL) • Expérience avec les architectures microservices et cloud (AWS, Azure, GCP) Profil recherché • Expérience de 5 ans minimum en développement d'API • Capacité à travailler en mode agile (Scrum, Kanban) • Autonomie, rigueur et esprit d’équipe • Bonne capacité d’analyse et de résolution de problèmes
Expert Contrôle-M (Technical Lead)

Dans le cadre d’un projet stratégique de migration vers le cloud AWS, notre client final recherche un Expert Contrôle-M pour intervenir sur un chantier clé : la migration d’un ordonnanceur de VETOM. Le projet est actuellement en phase de build et piloté par une équipe qui manque d’expertise spécifique sur cette technologie. L’Expert Contrôle-M aura pour rôle d’apporter son expertise technique, d’accompagner l’équipe en place et de transférer les compétences nécessaires pour assurer une montée en autonomie. Tâches principales : Analyser l’environnement actuel et définir les meilleures pratiques pour la migration de VETOM vers Contrôle-M. Participer à l’implémentation et à la configuration de l’ordonnanceur sur AWS. Rédiger et optimiser des scripts Shell. Assurer le bon fonctionnement et la maintenance de l’ordonnanceur. Former et accompagner les équipes internes sur les bonnes pratiques et l’usage de Contrôle-M. Collaborer avec les équipes Infra et Ingénierie de Production pour garantir la réussite de la migration.
Dev Fullstack Node js / React js Senior (H/F) (start up)

TEKsystems recherche pour le compte de son client un(e) Ingénieur(e) Développeur(se) Full Stack Senior. Vos missions seront les suivantes : Développement et déploiement : Créer des applications web et mobiles innovantes avec React, NestJS, TypeORM et Capacitor, en collaboration avec les product managers et UX designers. Innovation technique : Proposer et mettre en œuvre des solutions novatrices pour améliorer notre stack technologique. Mentorat : Accompagner les membres moins expérimentés de l'équipe et favoriser une culture d'apprentissage continu. Intégration IA : Collaborer avec l'équipe IA pour intégrer des solutions intelligentes au sein de nos produits. Expérience significative dans la conception et le déploiement d'applications serverless avec AWS . Automatisation CI/CD : Travailler avec l'équipe DevOps pour optimiser les pipelines de déploiement avec GitLabCI.
techlead java / vue js

Au sein d’une Squad, vous rejoignez notre équipe en tant que Tech Lead Java / vue js next js Coaching Encadrer une équipe de développeurs et QA Faire progresser techniquement et humainement l’équipe Expertise Concevoir les évolutions API demandées par les Product Owners de l’équipe API Maitriser l'aspect fonctionnel des API / règles métiers Être garant du delivery de la roadmap Suivre l’avancement des développements et réaliser les revues de code Respecter les normes de qualité définis au sein du projet, assurer le suivi Participer aux choix d’évolutions technologiques du périmètre Réaliser de la veille technologique Garantir les SLA des applications, Support technique N3 production / recette Participer au processus de change management et assurer le suivi des mises en production Facilitation Fluidifier la communication entre les équipes Hard Skills Maitrise des technologies Cloud (idéalement Amazon Web Services) Maitrise des technologies suivantes : Java JavaScript / VueJS 2+ / next js HTML 5 / CSS / SASS API Rest ORM (Relationnel et No-SQL) CI/CD Design pattern
Ingénieur LM/LLM & Data Science (H/F)

Ingénieur LM/LLM & Data Science Contexte : La mission fera partie du projet d'ingénierie de l'intelligence artificielle, au sein de la division GDAI. Dans le cadre du projet d'ingénierie de l'intelligence artificielle, nous aidons les entités à passer à l'échelle et à définir et appliquer les meilleures pratiques en matière d'ingénierie ML / LLM. Nous proposons un parcours d'apprentissage en ingénierie ML/LLM à travers le groupe au niveau mondial et nous avons besoin d'une personne pour soutenir ce projet. La mission consistera à § Améliorer le référentiel existant de la formation en ingénierie ML/ML utilisé dans l'ensemble du groupe § Évolution vers la piste du pipeline ML sur AWS et Databricks (utilisant actuellement Azure) § Faciliter les ateliers que nous donnons aux entités sur la formation § Apporter une expertise autour des meilleures pratiques de l'ingénierie LLM § Soutenir la création de contenu pour les pratiques de l'ingénierie LLM (qui peuvent être complexes). Il y a un travail autour de la traduction des pratiques complexes en explications simples § Implémenter ces pratiques dans un environnement sandbox et un outil de benchmark § (Optionnel) Soutenir le projet dans l'optimisation du POC/MVP dans les entités autour des pratiques LLMOps
Ingénieur réseaux et devops H/F

Nous sommes à la recherche d' un ingénieur réseau et DevOps, capable de gérer des environnements Cloud, réseau et automatisation qui évoulera dans un environnement technique exigeant et collaborera avec des équipes basées à Barcelone Missions Conception et gestion d’infrastructures AWS avec Terraform Automatisation des déploiements via Bash, PowerShell, Ansible Gestion avancée du réseau : VLAN, interconnexions, troubleshooting Implémentation de pipelines CI/CD pour le déploiement d’infrastructure Surveillance et optimisation des performances réseau et cloud Collaboration avec des équipes internationales en anglais Cloud & Infra : AWS, Terraforme Scripting & Automatisation : Bash, PowerShell, Ansible (un plus) Réseau : VLAN, routage, interconnexions, troubleshooting Systèmes : Windows & Linux DevOps : CI/CD, monitoring, logs
Architecte Réseau Datacenter Senior

Offre d’emploi : 📍 Localisation : Paris ( Nationalité française requise ) ⏳ Durée : 17/03/2025 - 31/12/2025 (200 jours) 🏡 Télétravail : 2 jours/semaine 📌 Type de contrat : Freelance 🎯 Mission Dans le cadre d’une fusion-acquisition (M&A), nous recherchons un Architecte Réseau Datacenter Senior pour piloter la conception et la mise en œuvre d’un nouveau Datacenter. Il jouera un rôle clé dans le projet et aura un leadership technique fort . Ses principales responsabilités seront : ✔ Accompagner l’intégrateur dans la définition et la formalisation de l’architecture technique générale et détaillée du Datacenter. ✔ Piloter l’évolution de l’architecture des Datacenters existants du groupe. ✔ Définir des solutions “Secure By Design” répondant aux standards du groupe. ✔ Assurer la coordination avec les équipes internes (DSI, SSI) et externes (intégrateurs, partenaires). ✔ Qualifier les besoins métiers et rédiger les documents d’architecture (DATG, DATD). ✔ Organiser et animer des ateliers techniques , assurer le suivi des travaux et le support aux équipes Build. ✔ Prendre en charge le volet Cloud AWS , notamment la définition et le déploiement des zones dans la Landing Zone. 🛠️ Environnement technique 🖧 Réseau & Sécurité Datacenter : Cisco VXLAN EVPN, Catalyst SD-WAN (ex-Viptela), firewalling (IPSEC, SSL), proxy SaaS, SASE (SWG, Zscaler). 💾 Load Balancing & Sécurité : F5 APM, LTM, Palo Alto, Fortigate. 🌍 Cloud : AWS (connaissance des concepts Cloud, déploiements, Landing Zone). 🔗 DDI & Proxy : Infoblox DDI, Reverse Proxy. 📜 Livrables attendus 📌 Documents d’architecture : DATG (Architecture Générale), DATD (Architecture Détaillée), schémas techniques. 📌 Compte-rendus d’ateliers et suivi des actions. 📌 Note de cadrage et expression des besoins techniques & fonctionnels. 📌 Mise à jour des standards du groupe.
Chef de projet IAM et MFA

Pour un grand compte banque assurance nous recherchons un chef de projet spécialisé sur le le pilotage de projet IAM et MFA. L’objectif de la mission est de piloter un ensemble de projets dans le cadre de leur stratégie IAM/MFA, en assurant la coordination entre les équipes d’ingénierie des opérations IT et les équipes études, dans un environnement IT hybride composé de Microsoft 365 et Azure, AWS, serveurs on-premises (Linux & Windows) et Mainframe . La gestion des identités repose sur le produit IBM Security Verify Governance (ISVG) et les annuaires d’authentification sont Active Directory (AD), Azure AD et IBM ISDS .
Ingénieur Infrastructure et Exploitation plateforme Data - Expert Cloud (publiques et privées)

Contexte de la prestation : La prestation se déroulera au sein de de la Direction Technique du Numérique. Elle concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data du Numérique du client, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - interventionx sur incidents - la documentation Le prestataire sera la référence technique auprès des acteurs projets : - Ingénieurs d’exploitation - Développeurs - PO/PM - Prestataires externes - Maitrise de l’anglais technique (lu/écrit) - Veille technologique Expertises techniques requises pour la réalisation de la prestation - Expertise en hébergement cloud plubic (AWS, GCP, OVH) : de préférence GCP - Compétences solides dans les solutions d’automation et d’industrialisation (Puppet, Ansible, Terraform, etc.) - Fortes compétences en technologies Big Data : Spark, Python, Hadoop, SQL - Une expérience sur une plateforme Big Data est un plus - Une bonne culture Unix/Linux Expertises techniques complémentaires souhaitées pour la réalisation de la prestation - Expériences dans un ou plusieurs langages dont Python et SQL - Solutions de déploiement (Jenkins, Capistrano, Gitlab) et d'orchestration (Airflow) - Architectures Data : Lakehouse, Datalake - Solutions de stockage et de traitement de données (delta, parquet, dbt, BigQuery) Une bonne culture système, réseau et virtualisation ainsi qu’une expérience sur des sites web à fort trafic sont un plus. Le prestataire pourra être amené à effectuer exceptionnellement des astreintes ou des interventions le soir et le weekend.
ELK Senior Consultant: Logboard, Stack Management, OpenTelemetry, Linux, Remote Working (h/f)

Vous êtes un expert Logboard ELK expérimenté dans la gestion d'environnements globaux à grande échelle ? Alors emagine recherche vos compétences pour gérer et optimiser un environnement de 500 nœuds, développer des pipelines d'ingestion de logs, créer des tableaux de bord et mettre en œuvre des solutions d'observabilité pour assurer la fiabilité et la performance des systèmes. Are you a Logboard ELK expert experienced in managing large scale global environments? Then emagine is looking for your skills to manage and optomize a 500 node environment, developing log ingestion pipelines, creating dashboards, and implementing observability solutions to ensure the reliability and performance of the systems Key Skills: Over 4 years of experience with the ELK stack (Elasticsearch, Logstash, Kibana). Skilled in developing log ingestion pipelines, managing Elasticsearch clusters, and creating Kibana dashboards. Strong expertise in managing Linux-based environments. Experience with scripting languages such as Python or Bash for automation tasks. Familiarity with cloud platforms (e.g., AWS, Azure) and infrastructure as code tools (e.g., Terraform, Puppet). Excellent communication skills in written and verbal English. Relevant certifications in ELK stack or cloud platforms. Experience with OpenTelemetry implementation (Preferred). Previous experience working in a global multicultural distributed team environment. Key Tasks: Configure, administer, and optimize the ELK platform to ensure efficient log collection, storage, and analysis. Develop and maintain log ingestion pipelines using Logstash and Filebeat to ensure seamless data flow. Design and implement Kibana dashboards for real-time monitoring and analysis of log data. Implement end-to-end observability solutions to enhance system monitoring and troubleshooting capabilities. Conduct performance tuning and optimization of Elasticsearch clusters to handle large-scale data. Provide support during incidents, perform root cause analysis, and implement corrective actions. Work closely with development, operations, and security teams to integrate logging and monitoring solutions. For full project details please apply with your latest CV or call Brendan with your questions.
Ingénieur de production - des projets techniques - N3

CONTEXTE Mettre en œuvre l'exploitabilité et le suivi opérationnel des applications banques à distances des applications digitales du groupe : - Internet fixe - Application mobile L’exploitation comprend : - Infrastructure : Legacy / Cloud Privé / AWS / OCP - Automatisation et Industrialisation : BitBucket / Jenkis / XLD & XLR - Intégration sur les différents environnements disponibles - Participation aux projets - Installation des changements à l’aide de nos chaînes CI/CD - Supervision : Zabbix, AppDynamics, Actuator, IP Label Ekara/Newtest - Analyse et Monitoring : ELK, Grafana - KPI : Failles, Certificat, Incident, Supervision, - Astreintes : 7/24 - Installations : Heures Non Ouvrées - Reporting de l’activité Prendre en charge la conduite et mise en oeuvre des projets techniques (Containerisation, migration MyCloud, obsolescence, configurations des infrastructures et des chaines de liaison en relation avec les équipes réseaux sécurité) Contrainte forte du projet Service 7/7 24/24 avec astreintes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Lou, esoin de conseils pour un espace de travail ergonomiqueil y a 7 minutes
- Problème avec l’URSSAF : sortie de la micro-entreprise à cause d’une erreur de déclarationil y a une heure
- Catégorisation activité micro entrepriseil y a 2 heures
- L'impact de l'immigration sur les TJMil y a 5 heures
- De CDI vers Freelanceil y a 7 heures
- Expert IA en galèreil y a 12 heures
Les métiers et les missions en freelance pour AWS Cloud
Ingénieur·e devops (Cloud)
L’ingénieur·e devops utilise AWS pour automatiser, orchestrer et gérer les déploiements d'applications dans des environnements Cloud, garantissant leur scalabilité et leur disponibilité.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L’architecte Cloud conçoit des infrastructures basées sur AWS, en intégrant des solutions sécurisées, performantes et adaptées aux besoins des entreprises.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La responsable des infrastructures utilise AWS pour superviser et optimiser les services Cloud, tout en assurant leur bon fonctionnement et leur maintenance.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offresIngénieur·e systèmes & réseaux
L’ingénieur·e systèmes & réseaux exploite AWS pour configurer, surveiller et sécuriser les environnements Cloud tout en facilitant les connexions réseau hybrides.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offres