Trouvez votre prochaine offre d’emploi ou de mission freelance AWS Cloud à Paris
Ce qu’il faut savoir sur AWS Cloud
AWS (Amazon Web Services) Cloud offre une suite complète de services cloud pour le calcul, le stockage et le réseautage. Son infrastructure évolutive et fiable prend en charge une large gamme d'applications et de services.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
POT8344-Un Ingénierie DevOps/MLOps AWS sur Paris 15e/ Télétravail

Almatek recherche pour l'un de ses clients, Un Ingénieur Devops/MLops AWS orienté IA et Cloud public sur Paris 15 Projet : Nous recherchons un Ingénieur Devops orienté IA et Cloud public. Il interviendra sur l’ensemble du cycle de vie (design, build, run) des projets orientés IA. Principaux livrables : Identifier les évolutions fonctionnelles et techniques des produits nécessitant des activités ops et les traduire dans le backlog en tant que « récits techniques ops » Provisionner les moyens techniques d’infrastructure dans tous les environnements Intégrer les produits dans les plateformes AWS et GCP (IaC, supervision/monitoring, backups, archives, log management) Fabriquer des composants techniques (scripts d'industrialisation, de déploiements, templates d’infra as code…) et automatiser les opérations en exploitant les services MLOPS Mettre en place les indicateurs d’observabilité infrastructure et applicative, du monitoring des modèles et s’assurer de l’intégration des exigences de production dans les applications livrées Mettre à disposition une chaine d'entrainement et d’exécution des modèles Prendre en main des outils de DataOps et MLOps pour industrialiser des modèles de ML et d’IA. Contribuer et maintenir les référentiels et consignes d’exploitabilité Réaliser les actes de MEP Suivre les SLAs des produits, contrôler le bon fonctionnement de la production et assurer le reporting Anticiper, traiter et suivre les incidents d’exploitation en analysant les causes racines et en prenant les mesures correctives nécessaires Suivre les consommations et allocations des ressources Normalisation des éléments produits Sécurisation by design et revue périodiques Maintien des capacités dans le temps Capacité à identifier les opportunités et limites de l’open source vs des services managés Capacité à fédérer autour des choix préconisés Compétences requises : Compétences métier : Expérience pratique en tant qu'ingénieur DevOps, responsable de l'automatisation des déploiements et de la gestion des infrastructures cloud, notamment AWS. Expertise sur la chaîne MLOPS : capture et préparation de la donnée, feature engineering, entraînement, monitoring, déploiements et évaluation des modèles Solides compétences en scripting, normalisation et en automatisation Gestion du cycle de vie des applications MCO Infrastructure et Applicatif MEP Infrastructure et Applicatif - Rédaction des procédures d'exploitation, documentation Analyse\Solution d'incidents d’infrastructure Environnements techniques : AWS, (GCP) - Sagemaker (studio, notebook instance), KubeFlow, TensorFlow, Pytorch Notebook, Python Terraform (environnement Air Gap notamment), rebase Artifactory, ECR, Helm EKS, Kubernetes, Docker, ArgoCD Jenkins Grafana, CloudWatch, ELK, OpenSearch
Devops AWS Senior

💡 Contexte /Objectifs Contexte de la mission Ces Plateformes Digitales s’appuient sur une chaine de CI/CD commune. Cette chaine de CI/CD appelée Walnut, constitue une plateforme technique déployée et maintenue par l’équipe éponyme. L’équipe Walnut s’occupe du déploiement, du maintien et de l’intégration de l’ensemble des outils composant la chaine de CI/CD d’Engie Digital. Elle porte également un rôle de conseil et de bonnes pratiques auprès des autres plateformes Digitales, mais aussi des BUs du groupe utilisant Walnut. Les outils majeurs maintenus par Walnut sont : Github Enterprise, Jfrog Artifactory, Jenkins Cloudbees CI, GitHub Actions, SonarQube, Squash-TM, Jira, Confluence. Ce patrimoine infrastructure et applicatif doit faire l’objet d’un suivi à plusieurs niveaux : • Technique (cycle de vie et obsolescence, MCO), • Facturation (FinOps), • Sécurité (SecOps), • Industrialisation (automatisation, supervision, scalabilité, Disaster Recovery Plan) • Run : Réponse aux demandes clients 💡 Les livrables attendus sont : • Scripts d’automatisation du déploiement de l’infrastructure • Programmes d’automatisation des différentes stacks • Documentation d’architecture et d’utilisation des livrables précédents De plus, l’ingénieur devra participer à la communauté de pratique DevOps : • Intervenir régulièrement aux réunions de la communauté DevOps • Présenter des REX et des démos • Intervenir aux Webinaires du Groupe (Cloud, Sécurité…)
Ingénieur Data AWS

Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Data AWS répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4730 en objet du message Vos responsabilités Mise en place de pipelines de traitement de données Développement des modèles de données Bonnes pratiques de développements (découpage de code, tests unitaire etc…) Amélioration des performances et la maîtrise des coûts sur les différents environnements AWS Captage des données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité Intégration des éléments Structuration de la donnée (sémantique, etc.) Cartographie des éléments à disposition Nettoyage de la donnée Validation de la donnée Création du référentiel de données Expertise autour de AWS (lambdas, EMR, APIGateway, cognito ...) CI/CD & automatization (Git, Terraform) Maîtrise des langages (Python, SQL, Pyspark)
Développeur Python / Java - ETL AWS (Glue & Lambda)

Le Développeur Python / Java spécialisé en ETL conçoit, développe et maintien des pipelines de données robustes et performants sur AWS Glue et AWS Lambda. Il assure l’ingestion, la transformation et l’optimisation des flux de données pour répondre aux besoins des applications métier et analytiques. Excellente maîtrise de Python et Java Expérience avec AWS Glue et AWS Lambda pour l’ETL et le traitement serverless Bac+5 en informatique, data engineering ou équivalent Expérience de 3 à 5 ans en développement ETL sur AWS Certifications AWS (AWS Certified Developer, Data Analytics, Solutions Architect) appréciées
Architecte AWS

Architecte DevOps Cloud AWS 📍 Localisation : Île-de-France (hybride) Nous recherchons un Architecte DevOps Cloud AWS pour une mission ambitieuse, axée sur l’automatisation, la migration et l’accompagnement des squads dans un environnement technique de pointe ! 🎯 Vos missions : ✅ Automatiser et améliorer en continu les processus de déploiement ✅ Migrer la plateforme CI de Jenkins vers GitLab CI/CD ✅ Accompagner l’intégration des produits sous conteneur : 🔹 Sur RedHat OpenShift (on-premise) 🔹 Sur le Cloud AWS ✅ Soutenir les squads sur : 🔹 Le développement & déploiement de leurs produits 🔹 Le maintien et l’optimisation des pipelines CI/CD 🔹 L’analyse et la résolution des incidents 🔹 Le cadrage de nouveaux besoins 💡 Stack & compétences techniques attendues : 🔹 Certification AWS Architect 🔹 Kubernetes (kubectl) & Docker / Helm 🔹 Datadog (observabilité & monitoring) 🔹 Sécurisation des environnements (RBAC, Security Context) 🔹 Git & GitLab CI/CD 🔹 AWS (Ingress, VPC, EKS, EC2, S3, RDS, Memory DB) 🔹 Expérience en mise en production et intégration technique 🔹 Connaissance de RedHat OpenShift, Terraform, Jenkins, Sonar
DataOps AWS

Type de contrat : CDI / Freelance Expérience : 3 ans minimum Nous recherchons un(e) DataOps AWS passionné(e) et motivé(e) pour rejoindre notre équipe et accompagner la transformation des infrastructures data de nos clients. Missions : Déployer et gérer des pipelines de données sur AWS (Glue, Lambda, S3, Redshift, etc.) Automatiser l’intégration et la livraison continue des flux de données Mettre en place des bonnes pratiques DevOps adaptées à la gestion des données Optimiser la performance et la scalabilité des architectures data Assurer la surveillance, la gestion des incidents et l'amélioration continue Collaborer avec les équipes Data Science, BI et IT
Développeur .Net AWS Salesforce
Le prestataire interviendra au sein de l'équipe composée de trois personnes, responsable de l'exposition des données du CRM auprès de nos clients via des APIs ainsi qu'un datalake AWS. Cette équipe est également en charge d'un moteur de calcul de la performance commerciale. Une expérience préalable avec un CRM, et en particulier Salesforce, serait un atout, bien que non indispensable pour démarre la mission. Toutefois, le prestataire devra impérativement acquérir des connaissances et compétences sur notre CRM afin de maîtriser les objets que nous exposons à nos clients et pouvoir ainsi engager un dialogue productif avec les administrateurs en charge du CRM et les divers utilisateurs. La Mission à réaliser , sous la responsabilité de la chef de projet de l’équipe , se déclinera notamment à travers: *- Développement et support des API et données *- Développement et support du module de calcul de performance commercial (2nd temps) *- Analyse du besoin utilisateur en complément du travail réalisé par la chef de projet *- Coordination et le support auprès de l’équipe admin CRM Salesforce.
Développeurs Cloud expérimentés AWS Vue.js Backend Python Anglais technique/balla

Développeurs Cloud expérimentés AWS Vue.js Backend Python Anglais technique (plus de 6 ans d'expérience). Les compétences techniques requises sont les suivantes : AWS Vue.js Backend Python Anglais technique La mission peut se réaliser entièrement en télétravail. Notre client est en phase de mise en production jusqu'au mois d'avril et nécessite des profils capables de contribuer rapidement au projet. Étant donné l'avancement du projet, nous ne pouvons pas nous permettre une période de formation prolongée, l'adaptabilité est ce qui sera le plus déterminant au yeux du client.
Data Engineer AWS

Cherry Pick est à la recherche d'un Data Engineer AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Vous participerez à la maintenance et à l'évolution de la Data & Analytics Platform, à l'évolution des infrastructures cloud via Terraform, au développement de micro-services en Python et C#, et à la conception et maintenance de chaînes de déploiement automatisé (CICD). Vous assurerez le bon fonctionnement opérationnel de la Data & Analytics Platform (MCO/Run) et enrichirez la documentation à l'attention des utilisateurs. Vous aurez une expérience significative sur AWS, en particulier sur les services de données : EKS, S3, ECS, VPC, NSG, Lambda. Compétences requises : Fondations cloud: AWS Python, Terraform, Dotnet GitHub, GitHub Action Expérience significative sur le cloud AWS, notamment sur les services de données (S3). Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Bonne connaissance des mécanismes de traitement et de valorisation des données. À l'aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d'apprendre en continu.
Senior DevOps AWS / Expérience développeur

Cherry Pick est à la recherche d'un Senior DevOps AWS / Expérience développeur pour rejoindre un client dans le secteur média. Missions : ● Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. ● Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/CD…) ● Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. ● Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) ● Travailler en étroite collaboration avec l’équipe d’infrastructure. ● Veille technologique dans le domaine du DevOps. Le candidat doit analyser les tendances et les perspectives d’évolution éventuelles ● Sensibilisation des développeurs aux problématiques opérationnelles: performances, haute disponibilité, supervision et sécurité. La stack AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns
Cloud Data Engineer AWS

En quelques mots Cherry Pick est à la recherche d'un "Data AWS Engineer" pour un client dans le secteur de L'énergie. Description CONTEXTE Vous rejoindrez une équipe dédiée à la gestion de la construction et du support de la plateforme Data & Analytics . Vous participerez à la maintenance et à l'évolution de cette plateforme, à l’optimisation des infrastructures cloud via Terraform , ainsi qu’au développement de microservices en Python et C# . Vous serez également responsable de la conception et de la maintenance des chaînes de déploiement automatisé (CI/CD) . Dans ce rôle, vous veillerez au bon fonctionnement opérationnel de la Data & Analytics Platform (MCO/Run) et contribuerez à l'enrichissement de la documentation à l'attention des utilisateurs. Une expérience significative sur AWS est requise, en particulier sur les services EKS, S3, ECS, VPC, NSG et Lambda . MISSIONS Développement et maintenance de la Data & Analytics Platform Assurer la maintenance et l’évolution de la plateforme Data & Analytics . Gérer les pipelines de données et traitements analytiques sur AWS. Implémenter et optimiser les services cloud ( S3, EKS, ECS, VPC, NSG, Lambda ). Automatisation et Infrastructure-as-Code Gérer et faire évoluer les infrastructures cloud AWS via Terraform . Concevoir et maintenir des chaînes de déploiement automatisé (CI/CD) avec GitHub Actions . Développement de microservices et intégration Développer des microservices en Python et C# (.NET) pour traiter et valoriser les données. Assurer la scalabilité et la robustesse des services déployés. Monitoring et Support Opérationnel (MCO/RUN) Veiller au bon fonctionnement opérationnel de la plateforme. Identifier et résoudre les incidents pour garantir la haute disponibilité des services. Collaboration et Amélioration Continue Travailler en méthodologie Agile avec les équipes Data, DevOps et les parties prenantes . Participer à l’amélioration des pratiques Software Craftsmanship (Clean Code, TDD, DevOps). Documenter les solutions et accompagner les utilisateurs dans leur adoption.
Data Engineer AWS
Contexte : Nous recherchons pour l'un de nos clients, un Data Engineer (H/F) afin de renforcer son pôle AI Experts, qui intervient sur des sujets impactant directement son business et l'expérience client, afin d'optimiser la personnalisation, le taux de conversion et les assets. Description : Grâce à ses compétences alliant Développement Big Data, appétences pour les modèles d’IA et Architecture Applicative, le Data Engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables : . Définir et analyser des structures de données, . Contribuer aux assets des différentes équipes produits pour interconnecter et collecter les données, . Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), . Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire), . Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés), . Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, . Présenter et expliquer les réalisations à des publics métiers et techniques.
Développeur Python data AWS

Au sein de notre squad Data Platform, vous interviendrez avec d’autres Data engineer et DevOps dans les activités ci-dessous : Expérience dans la création et l'interaction avec des solutions de Data Lake (Gen 2 et S3) Expérience significative sur l'environnement des données en Cloud (AWS), en particulier sur les services de données : ADLS Gen 2, AWS S3, VPC Azure est un plus. Maintenir et faire évoluer le processus de déploiement automatisé à l'aide de Terraform pour l'ensemble de la plateforme. Développement de microservice en python Expérience sur Databricks , MongDB Monitoring et exploitation de la data Platform Familiarité avec les mécanismes d'alimentation ETL Bonne connaissance de la méthodologie Agile Collaboration avec les parties prenantes, y compris les data officers, data architect, et data engineers Objectifs et livrables Prendre part à la réalisation du workplan, réaliser les user stories définies dans le backlog. Participer, avec les autres membres de l’équipe à la gestion du RUN, aux activités de support et aux travaux de Build. Livraison des artefacts et suivi des mises en prod Automatiser et améliorer les activités de RUN (et SRE), suggérer des optimisations (process, ou consommation Finops par exemple) Maintenir les documentations des produits “User Centric” : sera à l’écoute de ses utilisateurs et recherchera leur feedback pour construire et améliorer la solution (UX) Force de proposition sur les meilleures pratiques "shift left" pour les contrôles sur le code sur la sécurité, qualité, résilience, FinOps Force de proposition sur les bonnes pratiques d’observabilité, de monitoring et le SRE (stack actuelle: Azure App Insights, Grafana) Compétences demandées AWS : Niveau expert Python : MongoDB : Databricks : Niveau avancé GitHub Actions : Niveau expert Data Engineering : Niveau avancé Terraform : Niveau expert Docker :
Tech Lead python aws azure

Cherry Pick est à la recherche d'un Tech Lead python aws azure pour l'un de ses clients dans le secteur de l'énergie. Vous rejoindrez une équipe en tant que Tech Lead pour gérer la construction et le support de la plateforme Data & Analytics. Vous participerez à la maintenance et à l'évolution de la Data & Analytics Platform, à l'évolution des infrastructures cloud via Terraform, au développement de micro-services en Python et C#, et à la conception et maintenance de chaînes de déploiement automatisé (CICD). Vous assurerez le bon fonctionnement opérationnel de la Data & Analytics Platform (MCO/Run) et enrichirez la documentation à l'attention des utilisateurs. Vous serez responsable de la coordination technique de l'équipe, de la mise en place des bonnes pratiques DevSecOps, Data Engineering et Data Management, et de l'encadrement des développeurs. Compétences requises : Expertise technique dans les domaines du Data Engineering, DevOps, Cloud (AWS/Azure) Expérience significative en gestion de projet et d'équipe Connaissance approfondie des pratiques DevSecOps, Data Engineering et Data Management Bonne connaissance de la méthodologie Agile et Scrum Excellentes compétences en communication et en leadership Maîtrise de l'anglais et du français Disponibilité ASAP
CLOUD analyst - Azure AWS Finops

PROPULSE IT recherche un cloud analyst pour une mission en région parisienne ou en Full remote. La mission a lieu dans une équipe technique mondiale qui opère de manière agile au sein d'une organisation produit dynamique. Plongez-vous dans un environnement collaboratif où l'innovation prospère, et vos contributions joueront un rôle direct dans l'élaboration du chemin de nos produits de pointe. En tant qu'acteur clé de notre configuration agile, vous aurez l'opportunité d'améliorer l'efficacité, de favoriser créativité et jouent un rôle central dans notre processus de développement de produits. Faites partie d'une équipe qui embrasse l'adaptabilité et valorise l'amélioration continue, garantissant que nous restons à la pointe des avancées technologiques mondiales. L'analyste Cloud travaillera au sein de l'équipe Cloud Office, incluse dans la gestion des services. Ce sera une démarche transversale rôle au sein de l'ensemble de l'équipe technique, collaboration avec des collègues et des membres d'autres équipes. L'analyste cloud fournira un support transversal pour maintenir l'infrastructure et les services cloud afin d'offrir la meilleure valeur à tous les salariés. Il/elle aide Cloud Officer à aligner les solutions cloud avec les objectifs et buts de l'entreprise et superviser les opérations cloud d'un point de vue technique pour fournir la meilleure valeur sur les services cloud. o Soutenir le Cloud Officer dans la vision du paysage cloud en fournissant des contributions et des analyses o Diriger l'extension de la pratique FINOPS au sein du client en travaillant en étroite collaboration avec des coéquipiers des différents produits et équipes en charge des opérations quotidiennes o Concevoir et mettre en œuvre une analyse appropriée sur l'utilisation, la qualité, les performances et la valeur générée des services Cloud. o Collaborer au programme de perfectionnement pour les services cloud en fournissant une formation et une sensibilisation aux services avancés o Collaborer à la conception et à la gestion des services Cloud et d'infrastructure et assurer leur sécurité, leur disponibilité, et fiabilité o Assurer la livraison et la mise en œuvre des solutions techniques convenues o Participer à la mise en œuvre des processus, normes, directives et contrôles d'assistance informatique o Surveiller et rendre compte du respect, de la performance et coordonner ou intervenir chaque fois que nécessaire VOS DOMAINES DE CONNAISSANCES ET D'EXPERTISE COMPÉTENCES FONCTIONNELLES VOTRE ÉQUIPE Ligne hiérarchique (directe/indirecte) : Cloud Officer sur une base régulière et permanente. Intervenants internes clés : Directeur de la gestion des services, Toute autre équipe produit consommant des services cloud, notamment (Cloud & Infra, Données technologiques mondiales) Acteurs externes clés : Fournisseurs de services Cloud (Microsoft, AWS,...
DevOps AWS Senior

👉 Contexte Nous recherchons en ce moment un.e ingénieur.e DevOps Senior pour notre client. Il s’agira d’intégrer une équipe dans la mise en place de plateformes digitales d’envergure. Vous appuierez les équipes de développement au quotidien et assurerez le déploiement des ressources infrastructures. Ces Plateformes Digitales s’appuient sur une chaine de CI/CD commune. L’équipe s’occupe du déploiement, du maintien et de l’intégration de l’ensemble des outils composant la chaine de CI/CD . Elle porte également un rôle de conseil et de bonnes pratiques auprès des autres plateformes Digitales. Ce patrimoine infrastructure et applicatif doit faire l’objet d’un suivi à plusieurs niveaux : • Technique (cycle de vie et obsolescence, MCO), • Facturation (FinOps), • Sécurité (SecOps), • Industrialisation (automatisation, supervision, scalabilité, Disaster Recovery Plan) • Run : Réponse aux demandes clients 💡 Les livrables attendus sont : • Scripts d’automatisation du déploiement de l’infrastructure • Programmes d’automatisation des différentes stacks • Documentation d’architecture et d’utilisation des livrables précédents De plus, l’ingénieur devra participer à la communauté de pratique DevOps : • Intervenir régulièrement aux réunions de la communauté DevOps • Présenter des REX et des démos • Intervenir aux Webinaires du Groupe (Cloud, Sécurité…)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Etat du marché - Avril 2025il y a 7 minutes
- Premiers jours de prestation non facturésil y a 5 heures
- J’ai joué au Sims Entreprise 🎮... Et mon projet a plus d’étapes qu’un Univers Marvel 🎬. Vos avis d'experts svp pour éviter le plot twist fiscalo-juridique ⚖️💰?il y a 15 heures
- Fin de stage, à quoi m'attendre (salaires, postes)il y a 16 heures
- On ne m'a pas payé mes 2 dernières factures, aide recouvrementil y a 16 heures
- TJM & marge ESN – besoin de retours d’expérience pour mission en grand compteil y a 17 heures
Les métiers et les missions en freelance pour AWS Cloud
Ingénieur·e devops (Cloud)
L’ingénieur·e devops utilise AWS pour automatiser, orchestrer et gérer les déploiements d'applications dans des environnements Cloud, garantissant leur scalabilité et leur disponibilité.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L’architecte Cloud conçoit des infrastructures basées sur AWS, en intégrant des solutions sécurisées, performantes et adaptées aux besoins des entreprises.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La responsable des infrastructures utilise AWS pour superviser et optimiser les services Cloud, tout en assurant leur bon fonctionnement et leur maintenance.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offresIngénieur·e systèmes & réseaux
L’ingénieur·e systèmes & réseaux exploite AWS pour configurer, surveiller et sécuriser les environnements Cloud tout en facilitant les connexions réseau hybrides.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offres