Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris

Votre recherche renvoie 18 résultats.
Suivant
1
CDI

Data Engineer / Data Scientist (Expert Python)

KOMEET TECHNOLOGIES

Pour une startup dans le domaine de l'énérgie fialiale d'un grand groupe, Le projet vise à consommer des modèles ML sur des données structurées, les transformer, et les intégrer dans des bases relationnelles ou des stockages type S3. Nous recherchons un profil hybride Data Engineer / Data Scientist , avec une expertise forte en Python , capable d’intégrer des algorithmes de Machine Learning dans des traitements batch. Le projet vise à consommer des modèles ML sur des données structurées, les transformer, et les intégrer dans des bases relationnelles ou des stockages type S3. Python (expertise avancée) PySpark , en particulier pour l'exécution de traitements ML batch Bonne compréhension des algorithmes de Machine Learning et de leur mise en production Bases de données relationnelles (PostgreSQL, MySQL, etc.) Stockage cloud : S3 ou équivalent Connaissance des bonnes pratiques de développement (structuration du code, logging, tests, performance)

Démarrage Dès que possible
Salaire 35k-60k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Offre premium
CDI

Architecte AWS

Codezys

Missions principales Concevoir et mettre en œuvre des architectures Cloud évolutives, sécurisées et hautement disponibles sur AWS . Automatiser les infrastructures via Terraform (IaC - Infrastructure as Code). Superviser et configurer des environnements utilisant VPC , IAM , Lambda , S3 , EKS et d'autres services AWS stratégiques. Assurer la sécurité, la performance et la conformité des architectures. Collaborer avec les équipes développement et DevOps via GitHub pour la gestion du code et des pipelines CI/CD. Conseiller sur les bonnes pratiques Cloud et accompagner la montée en compétence des équipes internes.

Démarrage
Salaire 40k-60k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Engineer AWS

Phaidon London- Glocomms

Je suis à la recherche d'un Data Engineer expérimenté avec un fort accent sur AWS pour rejoindre une équipe en pleine expansion pour l'un de nos clients. Rôle : Data Engineer AWS Lieu: Paris Durée: 6 mois - extensible Travail Hybride - 3j par semaine remote Date de début : Mars/Avril Responsabilités : Développer le pipeline d'ingestion de données Nettoyage des données industrielles et autoamte Gérer la documentation Travailler avec le PO pour comprendre les besoins de l'entreprise Suivi et maintenance de la production

Démarrage Dès que possible
Durée 6 mois
TJM 500-630 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Expert Sécurité Réseau / Secure Transport

Lùkla

Au sein d'un client grand compte nous recherchons un profil Expert Sécurité Réseau / Secure Transport L'expertise demandée porte sur la maîtrise des produits Secure Transport/Edge et XFB Gateway de l'éditeur Axway ainsi que sur une connaissance approfondie des protocoles de communication associés au domaine des échanges de fichiers SFTP, HTTPs, S3 et PESIT E SSL. La maîtrise des notions de sécurité type authentification forte et négociation TLS/SSH est également un impératif incontournable. Une connaissance de base sur la notion d'analyse antivirale via le protocole ICAP est souhaitable. De manière générale, il est nécessaire de: • Assurer la relation avec les partenaires techniques et fonctionnels internes et externes au MI • Organiser / participer aux différents ateliers de travail • Coordonner les travaux entre les différents protagonistes (tests d’accrochage/tests d'envoi de fichiers) • Maîtriser le dispositif déjà mis en place afin d'assurer dès à présent une continuité des travaux de migration. • S'assurer de la mise en service effective des flux sur la nouvelle infrastructure • Diagnostiquer sur le plan technico-fonctionnel les dysfonctionnements constatés Iors de la mise en place des liaisons entre les partenaires et la plateforme : . Savoir synthétiser un rapport de dysfonctionnement et évaluer les corrections à apporter . Savoir rédiger et suivre des tickets auprès d'un guichet unique et du support éditeur • Rendre compte de manière hebdomadaire de l'état d'avancement des travaux de migration Expertise sur les produits : . Secure Transport / Edge de l'éditeur Axway (minimum 2 ans d'expérience) . XFB Gateway de l'éditeur Axway (minimum 2 ans d'expérience) • Connaître les notions associées au domaine des échanges de fichiers de données • Connaître les protocoles SFTP, HTTPs, S3, PESIT E SSL, ICAP sous réseau TCP • Connaître les notions de négociations TLS et SSH • Savoir utiliser des services de type API Rest • Esprit d'analyse et de synthèse • Capacité d'adaptation et de coordination • Accompagnement des utilisateurs • Expression orale, compétence rédactionnelle. Poste à pourvoir sur Paris pour une mission longue durée. Nationalité Française

Démarrage Dès que possible
Durée 3 mois
TJM 490-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Expert(e) Stockage (Hitachi) / Sauvegarde

Advents Resources

Nous recherchons, pour le compte d’une grande organisation nationale, un(e) consultant(e) expert(e) en infrastructures de stockage, pour une mission de longue durée au sein du pôle « Gestion des infrastructures » de la Direction Technique IT. Votre mission : Vous serez garant(e) de l’administration, du maintien en conditions opérationnelles et de l’évolution des infrastructures de stockage (HDS 5600/G1500/HCP, PureStorage) et SAN Brocade, et intervenez sur l’outil de sauvegarde CommVault HDPS. Vous aurez également à intervenir dans l’environnement VMWare de l’organisation. Projets 2025 : Migration des baies de production PureStorage vers VSP5600, Remédiation suite à un audit CommVault, Migration d’un workload VMware vers une solution VDI hyperconvergée/vSAN sur site distant. Vos activités principales : Administration, configuration, MCO et résolution des incidents N3, en collaboration avec les constructeurs, Participation aux upgrades firmwares, Mise en place de la supervision (Prometheus, Grafana) et des seuils associés, Gestion des demandes projets (ajout de stockage, extension disque, récupération de ressources…), Rédaction et maintien des procédures, transfert de compétence aux équipes de production. Environnement technique : Baies Hitachi G1500/5600 (~8Po), PureStorage (production/hors-prod), stockage S3 (HCP) SAN Brocade DCX-4S et X6-4, réplication intersite via FCIP Sauvegarde : CommVault HDPS, stockage sur HCP Infrastructures hébergées dans un Datacenter multi-salles (mirroring & PRA région IDF) Plateforme VMware de près de 190 nœuds ESXi (vSphere 7/8), hébergeant 13000 VM (Linux/Windows) Plateforme IAAS automatisée (Ansible)

Démarrage Dès que possible
Durée 6 mois
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Architecte Cloud AWS

VISIAN

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Architecte Cloud certifié AWS pour intervenir au sein d’une équipe dédiée au conseil et à l’adoption des plateformes cloud dans le secteur des services financiers spécialisés. La mission portera sur la conception et la mise en œuvre d’architectures sécurisées, évolutives et industrialisées sur AWS, tout en intégrant les bonnes pratiques DevOps et d’automatisation. Responsabilités : Concevoir et implémenter des architectures cloud sur AWS, en assurant leur sécurité et leur scalabilité. Gérer l’infrastructure à l’aide d’outils d’Infrastructure as Code comme Terraform. Automatiser les déploiements et la configuration via Ansible. Collaborer avec les équipes de développement pour intégrer les processus CI/CD (GitHub Actions, Jenkins, GitLab CI/CD). Participer à la mise en place de clusters EKS et à la création de modules de déploiement. Assurer la gestion des conteneurs avec Docker. Suivre les performances des systèmes à l’aide d’outils de monitoring et de logging. Accompagner les équipes dans la mise en œuvre et la sécurisation des solutions. Environnement technique : AWS (EKS, IAM, S3, EC2, etc.) Terraform, Ansible GitHub Actions, Jenkins, GitLab CI/CD Docker Perl, Python Outils de supervision et de journalisation Une certification AWS est requise, ainsi qu’une expérience concrète dans des environnements cloud publics et DevOps. Des certifications complémentaires en Kubernetes, Terraform ou Azure sont également appréciées. Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous.

Démarrage Dès que possible
Durée 2 ans
TJM 370-800 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Expert·e/ Architecte Backup

Blue Soft

Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV

Démarrage
Salaire 50k-70k €⁄an
Télétravail Télétravail partiel
Lieu Paris, Île-de-France
Freelance

Senior Data Analyst / Fin Ops H/F

Streamlink

Streamlink propose des solutions sur mesure et innovantes sur l’ensemble du cycle de développement des solutions Data, CRM / SAP, Dév & APPS, Cybersécurité, Cloud & infrastructures. Grâce à un réseau d’excellence à travers le Monde, basé entre Tunis (Tunisie) – Paris (France) – Port Louis (Maurice) , Streamlink favorise l'innovation digitale de ses clients. Streamlink, un environnement très agile et en forte croissance recherche pour un client dans le secteur BFA un Senior Data Engineer - Lead / Dev Lead Pyspark / Fin Ops Prestation attendues : • Analyser et cartographier, avec les experts métiers et l'équipe de développement, le pipeline de données actuel : les modèles de données des différentes base de données utilisées; les flux de données qui existent entre les différentes sources de données (lignage des données); les règles de validation, de filtrage de calcul actuellement en place lors des transferts de données • Assister les architectes dans la définition du nouveau pipeline de données en s'appuyant sur les service cloud • Appuyer l'équipe de développement dans la réalisation de la nouvelle solution : Mise en place en place de la solution et des bonnes pratiques associées ; Culture du data engineering ; Expertise sur l'outillage data mise en place (ETL, base de données, PySpark , Glue) • Être un métronome de l'agilité Compétences Techniques : • Catalogue des données consommées et produites et des règles de transformation associées • Solution pour alimenter Pluri en données provenant de plusieurs SI partenaires Compétences techniques requises : • Expertise dans l'outillage de stockage des données (base de données, fichiers) et le traitement des données (ETL, Spark) • Expertise Spark, quelque soit le langage de prédilection (Python, Scala , Python). • Maitrise des bonnes pratiques de développements et de la mise en oeuvre des outils liées à la data. • Maîtrise des technologies du Big Data, des problématiques liées à la volumétrie et aux performances • Maîtrise des outils de gestion de code (Git) et de déploiement projet (Terraform) • Connaissance de DataBricks • Connaissance du cloud Azure Savoir Faire: • Esprit analytique, rigueur et aisance relationnelle • Appétence et curiosité pour les nouvelles technologies, le Système d’Information et l’Agilité. Expériences professionnelles requises : • Plusieurs expertise significatives dans l'analyse de données et la mise en place de pipelines qu'ils soient de type batch/ETL ou événementiel/streaming • Mise en oeuvre des outils disponibles dans le cloud AWS pour stocker et traiter de la données: Glue, Spark, Airflow, RDS, OpenSearch, S3 Parquet Ce poste est ouvert aux personnes en situation de Handicap

Démarrage Dès que possible
Durée 1 an
TJM 490-650 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

Coordinateur / Chef de projet technique Infra Cloud H/F

AMAGO EXPERTISE

AMAGO IT recherche dans le cadre d'une prestation de longue durée un : Coordinateur / Chef de projet technique H/F Au sein d'un service en charge de l'Infrastructure et Cloud : Coordonner et planifier les actions et les projets techniques d’une équipe d’experts systèmes. Relever les expressions de besoins remontés par les Product Owner et les retranscrire en activité pour les experts. Animer les réunions (kick off, présentations, passations) Avoir un regard critique sur les livrables produit par l’équipe. Environnement techniques : Virtualisation (RHV, OpenStack, ProxMox) Conteneurisation (Podman/Docker, OpenShift) Système (Linux, debian, rhel) Applicatifs systèmes (DNS, NTP, SMTP, LDAP, IMAP, LoadBalancing, gitlab, vault, registry d’image, base de donnée, Satellite, Idm, syslog) Automatisation (ansible, gitlab) Stockage objet (S3, Swift)

Démarrage Dès que possible
Durée 12 mois
Salaire 50k-60k €⁄an
TJM 400 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Engineer Azure

Cherry Pick

Cherry Pick est à la recherche d'un Data Engineer Azure pour l'un de mes clients dans le secteur de l'énergie. Missions : Au sein de notre équipe Data Platform, vous interviendrez avec d'autres Data Engineers et DevOps dans les activités de création et d'nteraction avec des solutions de Data Lake (Gen 2), de maintien et d'évolution du processus de déploiement automatisé avec Terraform, de développement de microservices en Python, et de monitoring et d'exploitation de la Data Platform. Vous aurez une expérience significative sur l'environnement des données en Cloud (Azure), en particulier sur les services de données : ADLS Gen 2, Data Factory, WebApp, VNET, NSG. Une expérience sur AWS (S3, VPC) est un plus. Compétences requises :  Expertise en Microsoft Azure et Azure Data Factory  Avancé en Databricks et Data Engineering  Expertise en Terraform et Docker  Bonne connaissance de la méthodologie Agile  Expérience significative sur le cloud Azure et/ou AWS, notamment sur les services de données (Gen2 et ou S3).  Connaissance des pratiques du software craftsmanship.  À l'aise dans les interactions avec les parties prenantes.  Force de proposition et désireux(se) d'apprendre en continu.

Démarrage Dès que possible
Durée 12 mois
TJM 550-580 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Engineer AWS

Cherry Pick

Cherry Pick est à la recherche d'un Data Engineer AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Vous participerez à la maintenance et à l'évolution de la Data & Analytics Platform, à l'évolution des infrastructures cloud via Terraform, au développement de micro-services en Python et C#, et à la conception et maintenance de chaînes de déploiement automatisé (CICD). Vous assurerez le bon fonctionnement opérationnel de la Data & Analytics Platform (MCO/Run) et enrichirez la documentation à l'attention des utilisateurs. Vous aurez une expérience significative sur AWS, en particulier sur les services de données : EKS, S3, ECS, VPC, NSG, Lambda. Compétences requises :  Fondations cloud: AWS  Python, Terraform, Dotnet  GitHub, GitHub Action  Expérience significative sur le cloud AWS, notamment sur les services de données (S3).  Connaissance des pratiques du software craftsmanship.  Bonne connaissance de la méthodologie Agile.  Bonne connaissance des mécanismes de traitement et de valorisation des données.  À l'aise dans les interactions avec les parties prenantes.  Force de proposition et désireux(se) d'apprendre en continu.

Démarrage Dès que possible
Durée 12 mois
TJM 550-580 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Ingénieur Cloud

Phaidon London- Glocomms

Notre client cherche à intégrer des ingénieurs Cloud dans notre Cloud Center of Enablement avec une passion pour la construction de solutions d'infrastructure Cloud robustes, évolutives et sécurisées, livrées en tant que produits et services en libre-service. - Définir et mettre en œuvre des versions sécurisées, conformes et évolutives des ressources cloud, en veillant à ce qu'elles soient exposées en tant que produits internes ou services basés sur le réseau - Rendre les produits cloud disponibles en libre-service via Infrastructure-as-Code en utilisant Terraform et CloudFormation - Collaborer avec d'autres équipes pour concevoir et déployer l'infrastructure et les pipelines de déploiement d'applications, ainsi que des outils DevOps - Normaliser et automatiser le processus d'intégration des équipes d'applications dans la zone d'atterrissage - Aider les équipes d'applications à créer une infrastructure sécurisée et évolutive en utilisant des produits cloud approuvés - Permettre aux équipes DevOps d'applications de s'intégrer et de les soutenir de l'intégration au lancement - Déployer et gérer des services centraux tels que le réseau en utilisant DevOps et Infrastructure-as-Code - Résoudre une série de problèmes dans divers services et domaines fonctionnels - Construire et maintenir des outils opérationnels pour le déploiement, la surveillance et l'analyse de l'infrastructure AWS et des services centraux - Mettre en œuvre l'automatisation pour la gestion, l'analyse et le reporting des coûts, - Un minimum de 5 ans d'expérience dans le déploiement et l'automatisation de l'infrastructure cloud - Des compétences démontrables dans la construction et la maintenance de l'infrastructure en utilisant des outils Infrastructure-as-Code comme Ansible - Une maîtrise de Git/BitBucket pour la gestion du code et de Jenkins ou d'autres plateformes CI/CD pour l'orchestration - Une forte connaissance de Linux, y compris son utilisation comme base pour l'automatisation et la coordination des systèmes Linux - Un travail collaboratif au sein d'une équipe ainsi qu'une initiative dédiée Qualifications préférées : - Expérience pratique du déploiement et de la gestion de l'infrastructure AWS à l'aide de Terraform ou CloudFormation par le biais de pipelines CI/CD - Expérience du déploiement de services AWS fondamentaux (par ex, VPC, Subnet, Routes, EC2, EKS, ELB, S3, EBS, RDS, Aurora, DynamoDB, Cloudwatch, Cloudtrail) - Expérience avec AWS IAM, Security Groups, NACLs, KMS, Secret Manager, et SSM - Bonne compréhension de la sécurisation des environnements AWS et du respect des exigences de conformité - Expérience de la réparation d'environnements AWS - Une expérience de la gestion de configurations d'infrastructures immuables avec EC2 est un plus - Familiarité avec AWS Landing Zone et la technologie sous-jacente - Une expérience des outils de sécurité AWS (Guard Duty, Security Hub, Inspector, Config, Access Analyzer, Macie) est un avantage majeur.

Démarrage
Durée 12 mois
TJM 700-900 €⁄j
Télétravail Télétravail 100%
Lieu Paris, France
Freelance

Consultant Systèmes et Réseaux

Lùkla

Nous recherchons un consultant Systèmes et Réseaux : Sur le projet d’infrastructure Cloud , la personne aura pour mission de : • Configuration automatisé du réseau de niveau 2 et de la configuration système sur l’ensemble des équipements physiques • Maintien en condition opérationnelle et de sécurité sur l’ensemble des équipements physiques • Support de niveau 3 sur l’ensemble des équipements physiques • Installation de nouveaux environnements • Participation au Dé-commissionnement d’une ancienne plateforme Cloud A noter que des déplacements en datacenter sont à prévoir. Les domaines d’expertises couvert par l’équipe sont les suivants : • OneView • Synergy (HPE) • Switch de chassis de la marque HPE • Switch de distribution • Système (Linux, debian, rhel) • Automatisation (ansible, gitlab) • Baie de Stockage objet et Bloc (S3, Swift, Dell ECS, IBM FlashSystem) • Load Balancer Kemp Poste à pourvoir sur PARIS 75012 pour une mission longue durée. Contrainte d'habilitation

Démarrage Dès que possible
Durée 6 mois
TJM 400-550 €⁄j
Lieu Paris, France
Freelance

DataOps AWS

KUBE Partners S.L. / Pixie Services

Type de contrat : CDI / Freelance Expérience : 3 ans minimum Nous recherchons un(e) DataOps AWS passionné(e) et motivé(e) pour rejoindre notre équipe et accompagner la transformation des infrastructures data de nos clients. Missions : Déployer et gérer des pipelines de données sur AWS (Glue, Lambda, S3, Redshift, etc.) Automatiser l’intégration et la livraison continue des flux de données Mettre en place des bonnes pratiques DevOps adaptées à la gestion des données Optimiser la performance et la scalabilité des architectures data Assurer la surveillance, la gestion des incidents et l'amélioration continue Collaborer avec les équipes Data Science, BI et IT

Démarrage Dès que possible
Durée 1 an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Senior DevOps AWS / Expérience développeur

Cherry Pick

Cherry Pick est à la recherche d'un Senior DevOps AWS / Expérience développeur pour rejoindre un client dans le secteur média. Missions : ● Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. ● Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/CD…) ● Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. ● Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) ● Travailler en étroite collaboration avec l’équipe d’infrastructure. ● Veille technologique dans le domaine du DevOps. Le candidat doit analyser les tendances et les perspectives d’évolution éventuelles ● Sensibilisation des développeurs aux problématiques opérationnelles: performances, haute disponibilité, supervision et sécurité. La stack AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns

Démarrage Dès que possible
Durée 12 mois
TJM 600-630 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI
Freelance

Architecte AWS

Inventiv IT

Architecte DevOps Cloud AWS 📍 Localisation : Île-de-France (hybride) Nous recherchons un Architecte DevOps Cloud AWS pour une mission ambitieuse, axée sur l’automatisation, la migration et l’accompagnement des squads dans un environnement technique de pointe ! 🎯 Vos missions : ✅ Automatiser et améliorer en continu les processus de déploiement ✅ Migrer la plateforme CI de Jenkins vers GitLab CI/CD ✅ Accompagner l’intégration des produits sous conteneur : 🔹 Sur RedHat OpenShift (on-premise) 🔹 Sur le Cloud AWS ✅ Soutenir les squads sur : 🔹 Le développement & déploiement de leurs produits 🔹 Le maintien et l’optimisation des pipelines CI/CD 🔹 L’analyse et la résolution des incidents 🔹 Le cadrage de nouveaux besoins 💡 Stack & compétences techniques attendues : 🔹 Certification AWS Architect 🔹 Kubernetes (kubectl) & Docker / Helm 🔹 Datadog (observabilité & monitoring) 🔹 Sécurisation des environnements (RBAC, Security Context) 🔹 Git & GitLab CI/CD 🔹 AWS (Ingress, VPC, EKS, EC2, S3, RDS, Memory DB) 🔹 Expérience en mise en production et intégration technique 🔹 Connaissance de RedHat OpenShift, Terraform, Jenkins, Sonar

Démarrage Dès que possible
Durée 1 an
Salaire 60k-75k €⁄an
TJM 450-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Suivant
1

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous