Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris
Data Engineer / Data Scientist (Expert Python)

Pour une startup dans le domaine de l'énérgie fialiale d'un grand groupe, Le projet vise à consommer des modèles ML sur des données structurées, les transformer, et les intégrer dans des bases relationnelles ou des stockages type S3. Nous recherchons un profil hybride Data Engineer / Data Scientist , avec une expertise forte en Python , capable d’intégrer des algorithmes de Machine Learning dans des traitements batch. Le projet vise à consommer des modèles ML sur des données structurées, les transformer, et les intégrer dans des bases relationnelles ou des stockages type S3. Python (expertise avancée) PySpark , en particulier pour l'exécution de traitements ML batch Bonne compréhension des algorithmes de Machine Learning et de leur mise en production Bases de données relationnelles (PostgreSQL, MySQL, etc.) Stockage cloud : S3 ou équivalent Connaissance des bonnes pratiques de développement (structuration du code, logging, tests, performance)
Architecte AWS
Missions principales Concevoir et mettre en œuvre des architectures Cloud évolutives, sécurisées et hautement disponibles sur AWS . Automatiser les infrastructures via Terraform (IaC - Infrastructure as Code). Superviser et configurer des environnements utilisant VPC , IAM , Lambda , S3 , EKS et d'autres services AWS stratégiques. Assurer la sécurité, la performance et la conformité des architectures. Collaborer avec les équipes développement et DevOps via GitHub pour la gestion du code et des pipelines CI/CD. Conseiller sur les bonnes pratiques Cloud et accompagner la montée en compétence des équipes internes.
Data Engineer AWS

Je suis à la recherche d'un Data Engineer expérimenté avec un fort accent sur AWS pour rejoindre une équipe en pleine expansion pour l'un de nos clients. Rôle : Data Engineer AWS Lieu: Paris Durée: 6 mois - extensible Travail Hybride - 3j par semaine remote Date de début : Mars/Avril Responsabilités : Développer le pipeline d'ingestion de données Nettoyage des données industrielles et autoamte Gérer la documentation Travailler avec le PO pour comprendre les besoins de l'entreprise Suivi et maintenance de la production
Expert Sécurité Réseau / Secure Transport

Au sein d'un client grand compte nous recherchons un profil Expert Sécurité Réseau / Secure Transport L'expertise demandée porte sur la maîtrise des produits Secure Transport/Edge et XFB Gateway de l'éditeur Axway ainsi que sur une connaissance approfondie des protocoles de communication associés au domaine des échanges de fichiers SFTP, HTTPs, S3 et PESIT E SSL. La maîtrise des notions de sécurité type authentification forte et négociation TLS/SSH est également un impératif incontournable. Une connaissance de base sur la notion d'analyse antivirale via le protocole ICAP est souhaitable. De manière générale, il est nécessaire de: • Assurer la relation avec les partenaires techniques et fonctionnels internes et externes au MI • Organiser / participer aux différents ateliers de travail • Coordonner les travaux entre les différents protagonistes (tests d’accrochage/tests d'envoi de fichiers) • Maîtriser le dispositif déjà mis en place afin d'assurer dès à présent une continuité des travaux de migration. • S'assurer de la mise en service effective des flux sur la nouvelle infrastructure • Diagnostiquer sur le plan technico-fonctionnel les dysfonctionnements constatés Iors de la mise en place des liaisons entre les partenaires et la plateforme : . Savoir synthétiser un rapport de dysfonctionnement et évaluer les corrections à apporter . Savoir rédiger et suivre des tickets auprès d'un guichet unique et du support éditeur • Rendre compte de manière hebdomadaire de l'état d'avancement des travaux de migration Expertise sur les produits : . Secure Transport / Edge de l'éditeur Axway (minimum 2 ans d'expérience) . XFB Gateway de l'éditeur Axway (minimum 2 ans d'expérience) • Connaître les notions associées au domaine des échanges de fichiers de données • Connaître les protocoles SFTP, HTTPs, S3, PESIT E SSL, ICAP sous réseau TCP • Connaître les notions de négociations TLS et SSH • Savoir utiliser des services de type API Rest • Esprit d'analyse et de synthèse • Capacité d'adaptation et de coordination • Accompagnement des utilisateurs • Expression orale, compétence rédactionnelle. Poste à pourvoir sur Paris pour une mission longue durée. Nationalité Française
Expert(e) Stockage (Hitachi) / Sauvegarde
Nous recherchons, pour le compte d’une grande organisation nationale, un(e) consultant(e) expert(e) en infrastructures de stockage, pour une mission de longue durée au sein du pôle « Gestion des infrastructures » de la Direction Technique IT. Votre mission : Vous serez garant(e) de l’administration, du maintien en conditions opérationnelles et de l’évolution des infrastructures de stockage (HDS 5600/G1500/HCP, PureStorage) et SAN Brocade, et intervenez sur l’outil de sauvegarde CommVault HDPS. Vous aurez également à intervenir dans l’environnement VMWare de l’organisation. Projets 2025 : Migration des baies de production PureStorage vers VSP5600, Remédiation suite à un audit CommVault, Migration d’un workload VMware vers une solution VDI hyperconvergée/vSAN sur site distant. Vos activités principales : Administration, configuration, MCO et résolution des incidents N3, en collaboration avec les constructeurs, Participation aux upgrades firmwares, Mise en place de la supervision (Prometheus, Grafana) et des seuils associés, Gestion des demandes projets (ajout de stockage, extension disque, récupération de ressources…), Rédaction et maintien des procédures, transfert de compétence aux équipes de production. Environnement technique : Baies Hitachi G1500/5600 (~8Po), PureStorage (production/hors-prod), stockage S3 (HCP) SAN Brocade DCX-4S et X6-4, réplication intersite via FCIP Sauvegarde : CommVault HDPS, stockage sur HCP Infrastructures hébergées dans un Datacenter multi-salles (mirroring & PRA région IDF) Plateforme VMware de près de 190 nœuds ESXi (vSphere 7/8), hébergeant 13000 VM (Linux/Windows) Plateforme IAAS automatisée (Ansible)
Architecte Cloud AWS

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Architecte Cloud certifié AWS pour intervenir au sein d’une équipe dédiée au conseil et à l’adoption des plateformes cloud dans le secteur des services financiers spécialisés. La mission portera sur la conception et la mise en œuvre d’architectures sécurisées, évolutives et industrialisées sur AWS, tout en intégrant les bonnes pratiques DevOps et d’automatisation. Responsabilités : Concevoir et implémenter des architectures cloud sur AWS, en assurant leur sécurité et leur scalabilité. Gérer l’infrastructure à l’aide d’outils d’Infrastructure as Code comme Terraform. Automatiser les déploiements et la configuration via Ansible. Collaborer avec les équipes de développement pour intégrer les processus CI/CD (GitHub Actions, Jenkins, GitLab CI/CD). Participer à la mise en place de clusters EKS et à la création de modules de déploiement. Assurer la gestion des conteneurs avec Docker. Suivre les performances des systèmes à l’aide d’outils de monitoring et de logging. Accompagner les équipes dans la mise en œuvre et la sécurisation des solutions. Environnement technique : AWS (EKS, IAM, S3, EC2, etc.) Terraform, Ansible GitHub Actions, Jenkins, GitLab CI/CD Docker Perl, Python Outils de supervision et de journalisation Une certification AWS est requise, ainsi qu’une expérience concrète dans des environnements cloud publics et DevOps. Des certifications complémentaires en Kubernetes, Terraform ou Azure sont également appréciées. Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous.
Expert·e/ Architecte Backup

Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV
Senior Data Analyst / Fin Ops H/F
Streamlink propose des solutions sur mesure et innovantes sur l’ensemble du cycle de développement des solutions Data, CRM / SAP, Dév & APPS, Cybersécurité, Cloud & infrastructures. Grâce à un réseau d’excellence à travers le Monde, basé entre Tunis (Tunisie) – Paris (France) – Port Louis (Maurice) , Streamlink favorise l'innovation digitale de ses clients. Streamlink, un environnement très agile et en forte croissance recherche pour un client dans le secteur BFA un Senior Data Engineer - Lead / Dev Lead Pyspark / Fin Ops Prestation attendues : • Analyser et cartographier, avec les experts métiers et l'équipe de développement, le pipeline de données actuel : les modèles de données des différentes base de données utilisées; les flux de données qui existent entre les différentes sources de données (lignage des données); les règles de validation, de filtrage de calcul actuellement en place lors des transferts de données • Assister les architectes dans la définition du nouveau pipeline de données en s'appuyant sur les service cloud • Appuyer l'équipe de développement dans la réalisation de la nouvelle solution : Mise en place en place de la solution et des bonnes pratiques associées ; Culture du data engineering ; Expertise sur l'outillage data mise en place (ETL, base de données, PySpark , Glue) • Être un métronome de l'agilité Compétences Techniques : • Catalogue des données consommées et produites et des règles de transformation associées • Solution pour alimenter Pluri en données provenant de plusieurs SI partenaires Compétences techniques requises : • Expertise dans l'outillage de stockage des données (base de données, fichiers) et le traitement des données (ETL, Spark) • Expertise Spark, quelque soit le langage de prédilection (Python, Scala , Python). • Maitrise des bonnes pratiques de développements et de la mise en oeuvre des outils liées à la data. • Maîtrise des technologies du Big Data, des problématiques liées à la volumétrie et aux performances • Maîtrise des outils de gestion de code (Git) et de déploiement projet (Terraform) • Connaissance de DataBricks • Connaissance du cloud Azure Savoir Faire: • Esprit analytique, rigueur et aisance relationnelle • Appétence et curiosité pour les nouvelles technologies, le Système d’Information et l’Agilité. Expériences professionnelles requises : • Plusieurs expertise significatives dans l'analyse de données et la mise en place de pipelines qu'ils soient de type batch/ETL ou événementiel/streaming • Mise en oeuvre des outils disponibles dans le cloud AWS pour stocker et traiter de la données: Glue, Spark, Airflow, RDS, OpenSearch, S3 Parquet Ce poste est ouvert aux personnes en situation de Handicap
Coordinateur / Chef de projet technique Infra Cloud H/F

AMAGO IT recherche dans le cadre d'une prestation de longue durée un : Coordinateur / Chef de projet technique H/F Au sein d'un service en charge de l'Infrastructure et Cloud : Coordonner et planifier les actions et les projets techniques d’une équipe d’experts systèmes. Relever les expressions de besoins remontés par les Product Owner et les retranscrire en activité pour les experts. Animer les réunions (kick off, présentations, passations) Avoir un regard critique sur les livrables produit par l’équipe. Environnement techniques : Virtualisation (RHV, OpenStack, ProxMox) Conteneurisation (Podman/Docker, OpenShift) Système (Linux, debian, rhel) Applicatifs systèmes (DNS, NTP, SMTP, LDAP, IMAP, LoadBalancing, gitlab, vault, registry d’image, base de donnée, Satellite, Idm, syslog) Automatisation (ansible, gitlab) Stockage objet (S3, Swift)
Data Engineer Azure

Cherry Pick est à la recherche d'un Data Engineer Azure pour l'un de mes clients dans le secteur de l'énergie. Missions : Au sein de notre équipe Data Platform, vous interviendrez avec d'autres Data Engineers et DevOps dans les activités de création et d'nteraction avec des solutions de Data Lake (Gen 2), de maintien et d'évolution du processus de déploiement automatisé avec Terraform, de développement de microservices en Python, et de monitoring et d'exploitation de la Data Platform. Vous aurez une expérience significative sur l'environnement des données en Cloud (Azure), en particulier sur les services de données : ADLS Gen 2, Data Factory, WebApp, VNET, NSG. Une expérience sur AWS (S3, VPC) est un plus. Compétences requises : Expertise en Microsoft Azure et Azure Data Factory Avancé en Databricks et Data Engineering Expertise en Terraform et Docker Bonne connaissance de la méthodologie Agile Expérience significative sur le cloud Azure et/ou AWS, notamment sur les services de données (Gen2 et ou S3). Connaissance des pratiques du software craftsmanship. À l'aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d'apprendre en continu.
Data Engineer AWS

Cherry Pick est à la recherche d'un Data Engineer AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Vous participerez à la maintenance et à l'évolution de la Data & Analytics Platform, à l'évolution des infrastructures cloud via Terraform, au développement de micro-services en Python et C#, et à la conception et maintenance de chaînes de déploiement automatisé (CICD). Vous assurerez le bon fonctionnement opérationnel de la Data & Analytics Platform (MCO/Run) et enrichirez la documentation à l'attention des utilisateurs. Vous aurez une expérience significative sur AWS, en particulier sur les services de données : EKS, S3, ECS, VPC, NSG, Lambda. Compétences requises : Fondations cloud: AWS Python, Terraform, Dotnet GitHub, GitHub Action Expérience significative sur le cloud AWS, notamment sur les services de données (S3). Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Bonne connaissance des mécanismes de traitement et de valorisation des données. À l'aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d'apprendre en continu.
Ingénieur Cloud

Notre client cherche à intégrer des ingénieurs Cloud dans notre Cloud Center of Enablement avec une passion pour la construction de solutions d'infrastructure Cloud robustes, évolutives et sécurisées, livrées en tant que produits et services en libre-service. - Définir et mettre en œuvre des versions sécurisées, conformes et évolutives des ressources cloud, en veillant à ce qu'elles soient exposées en tant que produits internes ou services basés sur le réseau - Rendre les produits cloud disponibles en libre-service via Infrastructure-as-Code en utilisant Terraform et CloudFormation - Collaborer avec d'autres équipes pour concevoir et déployer l'infrastructure et les pipelines de déploiement d'applications, ainsi que des outils DevOps - Normaliser et automatiser le processus d'intégration des équipes d'applications dans la zone d'atterrissage - Aider les équipes d'applications à créer une infrastructure sécurisée et évolutive en utilisant des produits cloud approuvés - Permettre aux équipes DevOps d'applications de s'intégrer et de les soutenir de l'intégration au lancement - Déployer et gérer des services centraux tels que le réseau en utilisant DevOps et Infrastructure-as-Code - Résoudre une série de problèmes dans divers services et domaines fonctionnels - Construire et maintenir des outils opérationnels pour le déploiement, la surveillance et l'analyse de l'infrastructure AWS et des services centraux - Mettre en œuvre l'automatisation pour la gestion, l'analyse et le reporting des coûts, - Un minimum de 5 ans d'expérience dans le déploiement et l'automatisation de l'infrastructure cloud - Des compétences démontrables dans la construction et la maintenance de l'infrastructure en utilisant des outils Infrastructure-as-Code comme Ansible - Une maîtrise de Git/BitBucket pour la gestion du code et de Jenkins ou d'autres plateformes CI/CD pour l'orchestration - Une forte connaissance de Linux, y compris son utilisation comme base pour l'automatisation et la coordination des systèmes Linux - Un travail collaboratif au sein d'une équipe ainsi qu'une initiative dédiée Qualifications préférées : - Expérience pratique du déploiement et de la gestion de l'infrastructure AWS à l'aide de Terraform ou CloudFormation par le biais de pipelines CI/CD - Expérience du déploiement de services AWS fondamentaux (par ex, VPC, Subnet, Routes, EC2, EKS, ELB, S3, EBS, RDS, Aurora, DynamoDB, Cloudwatch, Cloudtrail) - Expérience avec AWS IAM, Security Groups, NACLs, KMS, Secret Manager, et SSM - Bonne compréhension de la sécurisation des environnements AWS et du respect des exigences de conformité - Expérience de la réparation d'environnements AWS - Une expérience de la gestion de configurations d'infrastructures immuables avec EC2 est un plus - Familiarité avec AWS Landing Zone et la technologie sous-jacente - Une expérience des outils de sécurité AWS (Guard Duty, Security Hub, Inspector, Config, Access Analyzer, Macie) est un avantage majeur.
Consultant Systèmes et Réseaux

Nous recherchons un consultant Systèmes et Réseaux : Sur le projet d’infrastructure Cloud , la personne aura pour mission de : • Configuration automatisé du réseau de niveau 2 et de la configuration système sur l’ensemble des équipements physiques • Maintien en condition opérationnelle et de sécurité sur l’ensemble des équipements physiques • Support de niveau 3 sur l’ensemble des équipements physiques • Installation de nouveaux environnements • Participation au Dé-commissionnement d’une ancienne plateforme Cloud A noter que des déplacements en datacenter sont à prévoir. Les domaines d’expertises couvert par l’équipe sont les suivants : • OneView • Synergy (HPE) • Switch de chassis de la marque HPE • Switch de distribution • Système (Linux, debian, rhel) • Automatisation (ansible, gitlab) • Baie de Stockage objet et Bloc (S3, Swift, Dell ECS, IBM FlashSystem) • Load Balancer Kemp Poste à pourvoir sur PARIS 75012 pour une mission longue durée. Contrainte d'habilitation
DataOps AWS

Type de contrat : CDI / Freelance Expérience : 3 ans minimum Nous recherchons un(e) DataOps AWS passionné(e) et motivé(e) pour rejoindre notre équipe et accompagner la transformation des infrastructures data de nos clients. Missions : Déployer et gérer des pipelines de données sur AWS (Glue, Lambda, S3, Redshift, etc.) Automatiser l’intégration et la livraison continue des flux de données Mettre en place des bonnes pratiques DevOps adaptées à la gestion des données Optimiser la performance et la scalabilité des architectures data Assurer la surveillance, la gestion des incidents et l'amélioration continue Collaborer avec les équipes Data Science, BI et IT
Senior DevOps AWS / Expérience développeur

Cherry Pick est à la recherche d'un Senior DevOps AWS / Expérience développeur pour rejoindre un client dans le secteur média. Missions : ● Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. ● Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/CD…) ● Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. ● Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) ● Travailler en étroite collaboration avec l’équipe d’infrastructure. ● Veille technologique dans le domaine du DevOps. Le candidat doit analyser les tendances et les perspectives d’évolution éventuelles ● Sensibilisation des développeurs aux problématiques opérationnelles: performances, haute disponibilité, supervision et sécurité. La stack AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector Kubernetes : Keda, Karpenter, External-secret, kube-prometheus-stack, external-dns
Architecte AWS

Architecte DevOps Cloud AWS 📍 Localisation : Île-de-France (hybride) Nous recherchons un Architecte DevOps Cloud AWS pour une mission ambitieuse, axée sur l’automatisation, la migration et l’accompagnement des squads dans un environnement technique de pointe ! 🎯 Vos missions : ✅ Automatiser et améliorer en continu les processus de déploiement ✅ Migrer la plateforme CI de Jenkins vers GitLab CI/CD ✅ Accompagner l’intégration des produits sous conteneur : 🔹 Sur RedHat OpenShift (on-premise) 🔹 Sur le Cloud AWS ✅ Soutenir les squads sur : 🔹 Le développement & déploiement de leurs produits 🔹 Le maintien et l’optimisation des pipelines CI/CD 🔹 L’analyse et la résolution des incidents 🔹 Le cadrage de nouveaux besoins 💡 Stack & compétences techniques attendues : 🔹 Certification AWS Architect 🔹 Kubernetes (kubectl) & Docker / Helm 🔹 Datadog (observabilité & monitoring) 🔹 Sécurisation des environnements (RBAC, Security Context) 🔹 Git & GitLab CI/CD 🔹 AWS (Ingress, VPC, EKS, EC2, S3, RDS, Memory DB) 🔹 Expérience en mise en production et intégration technique 🔹 Connaissance de RedHat OpenShift, Terraform, Jenkins, Sonar
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- SASU + ARE => Abus de droit ?il y a 9 minutes
- L'impact de l'immigration sur les TJMil y a 10 minutes
- Blacklist de freelances ??il y a 4 heures
- Expert IA en galèreil y a 4 heures
- HOW YOU CAN RECOVERY YOUR CRYPTO SCAM FUNDS FROM AN EXCHANGE / FOLKWIN EXPERT RECOVERYil y a 6 heures
- Déduction TVA facture electricitéil y a 15 heures