Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Lead Développeur Java / Angular (H/F)

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Lead Développeur Java / Angular (H/F) 🚀 ✨ Votre mission est pour un client reconnu dans la production d’électricité. Vous interviendrez sur une application qui est un SI de gestion permettant de couvrir une partie du processus des études d'ingénierie. Ce sera une application web en Angular avec une partie backend en Java et Python qui s’appuiera sur une infrastructure hybride en datacenter (serveurs HTTP Apache et d’application Tomcat avec BDD PostgreSQL) et sur une instance AWS (Lambda, S3, Dynamo DB). L’application est constituée de 2 services, l’application web pour la gestion de la surveillance (collaboration sur liste des livrables à surveiller, surveillance opérationnelle des livrables) et d’un service de dépôt de livrable à destination de la GED correspondante. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸A la tête d’une équipe de développeurs, vous coderez avec eux, encouragerez leur montée en compétences et chercherez à rendre l’équipe la plus autonome possible 🔸Garant que l’équipe utilise les services et applique les bonnes pratiques 🔸Participation à la rédaction des dossiers techniques (HLD, CATE, DAT,…) 🔸Collaboration avec l'équipe Plateforme pour améliorer en continu l'expérience développer au sein de son équipe 🔸Garant de la sécurité dans le cadre des développements SI, en lien avec les autres acteurs (Cloud Architect, DevSecOps, Security Champion, …) 🔸Participation au staffing des profils techniques de l’équipe 🔸Garant de la qualité du code et résolution des problèmes rencontrés par son équipe 🔸Qualification des impacts et priorisation avec le PO les remédiations des sujets de dette technique 🔸Participation à l’élaboration, au suivi et au respect des KPI de l’équipe 🔸Mise en œuvre des mesures permettant d'atteindre le niveau 'high performer' 🔸Moteur de l’innovation et de l’amélioration continue de l’équipe
Senior Data Analyst / Fin Ops H/F
Streamlink propose des solutions sur mesure et innovantes sur l’ensemble du cycle de développement des solutions Data, CRM / SAP, Dév & APPS, Cybersécurité, Cloud & infrastructures. Grâce à un réseau d’excellence à travers le Monde, basé entre Tunis (Tunisie) – Paris (France) – Port Louis (Maurice) , Streamlink favorise l'innovation digitale de ses clients. Streamlink, un environnement très agile et en forte croissance recherche pour un client dans le secteur BFA un Senior Data Engineer - Lead / Dev Lead Pyspark / Fin Ops Prestation attendues : • Analyser et cartographier, avec les experts métiers et l'équipe de développement, le pipeline de données actuel : les modèles de données des différentes base de données utilisées; les flux de données qui existent entre les différentes sources de données (lignage des données); les règles de validation, de filtrage de calcul actuellement en place lors des transferts de données • Assister les architectes dans la définition du nouveau pipeline de données en s'appuyant sur les service cloud • Appuyer l'équipe de développement dans la réalisation de la nouvelle solution : Mise en place en place de la solution et des bonnes pratiques associées ; Culture du data engineering ; Expertise sur l'outillage data mise en place (ETL, base de données, PySpark , Glue) • Être un métronome de l'agilité Compétences Techniques : • Catalogue des données consommées et produites et des règles de transformation associées • Solution pour alimenter Pluri en données provenant de plusieurs SI partenaires Compétences techniques requises : • Expertise dans l'outillage de stockage des données (base de données, fichiers) et le traitement des données (ETL, Spark) • Expertise Spark, quelque soit le langage de prédilection (Python, Scala , Python). • Maitrise des bonnes pratiques de développements et de la mise en oeuvre des outils liées à la data. • Maîtrise des technologies du Big Data, des problématiques liées à la volumétrie et aux performances • Maîtrise des outils de gestion de code (Git) et de déploiement projet (Terraform) • Connaissance de DataBricks • Connaissance du cloud Azure Savoir Faire: • Esprit analytique, rigueur et aisance relationnelle • Appétence et curiosité pour les nouvelles technologies, le Système d’Information et l’Agilité. Expériences professionnelles requises : • Plusieurs expertise significatives dans l'analyse de données et la mise en place de pipelines qu'ils soient de type batch/ETL ou événementiel/streaming • Mise en oeuvre des outils disponibles dans le cloud AWS pour stocker et traiter de la données: Glue, Spark, Airflow, RDS, OpenSearch, S3 Parquet Ce poste est ouvert aux personnes en situation de Handicap
Tech Lead Data AWS - Nantes
Nous sommes à la recherche d'un Tech Lead Data AWS pour notre client situé à Nantes. Compétences recherchées : Très bonne maitrise du Python/SQL Expertise en services AWS (EMR, Redshift, S3, RDS, Lambda, etc.). Connaissance des méthodes DevOps et de l'infrastructure as code (IaC). Compétences en sécurité des données et en gestion des identités (IAM). Capacité à travailler en équipe et à communiquer efficacement avec les différentes parties prenantes. Aptitude à diagnostiquer et résoudre les problèmes complexes. Esprit d'innovation et capacité à proposer des solutions adaptées aux besoins des clients. Expérience nécessaire : 5 ans minimum. Langues : Français / Anglais
Consultant BI (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Consultant BI (H/F) à Lyon, France. Contexte : Projet de pilotage et d’analyse du système et doit répondre aux enjeux suivants : - Assurer le pilotage du système et des processus métier associés - Garantir la qualité et la sécurité des informations - Contribuer à l’amélioration continue du système L’application permet trois principales fonctionnalités : - Le reporting - L’export des données - L’exploitation de données Elle est utilisée par environ 1500 utilisateurs (analystes, experts métiers, experts SI). L’équipe se compose de près de quarante compétences, réparties en six sous équipes, qui a comme périmètre un ensemble de thématiques métiers et une plateforme technique. Les missions attendues par le Consultant BI (H/F) : Activité principale : o Analyser les besoins fonctionnels et techniques o Localiser les données de production permettant de répondre au besoin o Documenter / spécifier les livrables o Développer les processus d’intégration de données o Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données) o Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin o Tester la qualité et la performance de ses livrables Activité secondaire : o Livrer et déployer ses livrables o Participer aux revues de code o Assurer le suivi et le maintien en conditions opérationnelles de ses livrables en production Stack technique de l'équipe : o Big Data : Spark, Hive. o Stockage : Oracle, CEPH S3 (parquet). o Langages : Java, Python, PL/SQL, Shell. o CI/CD : Ansible, Terraform, Jenkins, GIT. o ETL : Informatica. o Dataviz : Tableau Server, PowerBI. o Ordonnanceur : Control-M.
Scrum Master confirmé·e
Vous êtes un·e Scrum Master confirmé·e avec au moins 4 ans d’expérience ? Vous recherchez un environnement dynamique pour mettre à profit vos compétences et accompagner des équipes vers une collaboration plus efficace et performante ? Alors cette mission est faite pour vous ! Nous recherchons pour notre client du secteur de l’énergie, un·e Scrum Master confirmé·e. Vous rejoindrez une équipe Agile Scrum en charge du développement et de l’évolution de trois applications stratégiques. Vos principales missions : Appliquer et promouvoir la méthodologie Agile Scrum Animer les cérémonies Scrum (Sprint Planning, Daily Scrum, Sprint Review, Rétrospective) Identifier et lever les obstacles pour garantir l’efficacité de l’équipe Faciliter la collaboration entre les Product Owners et les développeurs Coacher et guider les équipes dans l’adoption des bonnes pratiques agiles Suivre et analyser les indicateurs de performance (capacité, vélocité, Time to Market) Collaborer avec d’autres Scrum Masters pour améliorer les pratiques agiles de l’organisation Environnement technique : Angular, Angular Material, Ionic, JSP, Kubernetes, Spark, Minio S3, ELK, ArgoCD, ArgoWorkFlow
Consultant Nifi 1 an Nantes (2 à 3 jours de télétravail)

Consultant Nifi 1 an Nantes (2 à 3 jours de télétravail) Nifi,Kafka,S3 (via WINSCP), SAP S4, commandes Unix,Jira, Squash le prestataire aura en charge de: 1) Déployer les livraisons NIFI sur les environnements amont jusqu'à la production : o Contrôler les paquets de livraison o Mettre à jour le fichier de suivi des livraisons o Installer les composants o Réaliser les contrôles post-installation o Contrôler les manuels d’installation 2) Contribuer à la réalisation des tests systèmes : o Analyser les jeux de données et le format des fichiers flags o Préparer et documenter les cas de tests dans Squash o Exécuter les jobs Nifi o Contrôler et analyser les fichiers résultats et logs o Consigner les anomalies détectées de manière détaillée dans Jira o Mettre à jour les cas de tests et les campagnes dans Jira o Suivre la prise en compte et la validation des anomalies, relancer les acteurs si nécessaire La mission est donc principalement orientée déploiement Nifi et tests techniques. Nous recherchons un consultant Nifi, qui sait utiliser des commandes Unix et qui a minimum 2 ans d'expérience.
Senior Developer Fullstack
Rôles et responsabilités En tant que membre de la squad Data and Analytics Platform, vous participerez aux activités suivantes : • Conception de la Data & Analytics Platform • Évolution des infrastructures cloud via l’Infrastructure as Code • Gestion d’un cluster kubernetes • Développement de micro-services en Python et C# • Conception et maintenance de chaînes de déploiement automatisé • Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform • Enrichissement de la documentation à l’attention des utilisateurs PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilisés aux concepts de gouvernance, de sécurité et de réglementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud Azure et/ou AWS, notamment sur les services de données (Gen2 et ou S3). • Développement d’application web. • Connaissance des pratiques du software craftsmanship. • Bonne connaissance de la méthodologie Agile. • Familiarité avec les mécanismes de traitement et de valorisation des données. • À l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu.
Ingénieur DevOps GenAI

Nous recherchons pour le compte de notre client grand compte un.e ingénieur.e DevOps GenAI. En tant que Consultant DevOps, vos missions seront de : • Mise en place des pipelines CI/CD : Automatiser l’intégration, le test et le déploiement des modèles de chatbots RAG et des systèmes Gen AI, en assurant des déploiements rapides et sécurisés. • Gestion de l'infrastructure cloud : Déployer et gérer les infrastructures sur AWS (S3, Lambda, SageMaker, ECS, etc.), en utilisant des outils d’Infrastructure as Code (IAC) tels que Terraform pour garantir des déploiements reproductibles et scalables. • Orchestration des microservices : Gérer et optimiser les microservices qui composent les solutions de chatbot, en utilisant des outils comme Docker et ECS Fargate pour garantir une gestion fluide des containers à grande échelle. • Surveillance et monitoring : Implémenter des solutions de monitoring et d’alerting pour surveiller la performance des chatbots et détecter les anomalies en temps réel. • Sécurité et conformité : Assurer la mise en place de bonnes pratiques en matière de sécurité (gestion des identités et des accès, gestion des secrets, etc.) et veiller à la conformité des infrastructures avec les standards en vigueur. • Collaboration inter-équipes : Travailler étroitement avec les équipes Data Science et ML Engineering pour optimiser les pipelines de déploiement des modèles, etc. • Optimisation continue : Identifier et mettre en œuvre des améliorations pour optimiser la performance, la scalabilité et la résilience des systèmes déployés.
Coordinateur / Chef de projet technique Infra Cloud H/F

AMAGO IT recherche dans le cadre d'une prestation de longue durée un : Coordinateur / Chef de projet technique H/F Au sein d'un service en charge de l'Infrastructure et Cloud : Coordonner et planifier les actions et les projets techniques d’une équipe d’experts systèmes. Relever les expressions de besoins remontés par les Product Owner et les retranscrire en activité pour les experts. Animer les réunions (kick off, présentations, passations) Avoir un regard critique sur les livrables produit par l’équipe. Environnement techniques : Virtualisation (RHV, OpenStack, ProxMox) Conteneurisation (Podman/Docker, OpenShift) Système (Linux, debian, rhel) Applicatifs systèmes (DNS, NTP, SMTP, LDAP, IMAP, LoadBalancing, gitlab, vault, registry d’image, base de donnée, Satellite, Idm, syslog) Automatisation (ansible, gitlab) Stockage objet (S3, Swift)
Lead Développeur / Lead Technique – AWS | API | Java | DevOps (H/F) – Proche Nantes (Saint-Herblain)
📍 Localisation : Saint-Herblain – 2 jours sur site par semaine 📅 Durée : Mission longue durée 💼 Expérience : 5 ans minimum 🎯 Démarrage : ASAP 💰 TJ : À définir selon profil Notre client, acteur majeur de son secteur, recherche un Lead Développeur / Lead Technique pour renforcer son équipe DATA/API/IOT sur des projets stratégiques autour des API REST, AWS et DevOps dans un environnement Agile. Vos missions : Concevoir, développer et documenter des API REST robustes et sécurisées . Participer à la migration de l’API Management et au maintien en condition opérationnelle (MCO) . Intervenir sur l’environnement AWS : Lambda, API Gateway, S3, DynamoDB, CloudWatch. Collaborer avec les équipes architecture, cybersécurité et DevOps . Déployer et optimiser les solutions cloud via Terraform et GitLab CI/CD . Garantir la qualité et la performance des applications et infrastructures.
Architecte AWS

Bonjour, je suis à la recherche d'un architecte aws dont vous trouverez la fiche de poste ci-dessous: Architecte AWS Description du Poste Nous recherchons un architecte AWS expérimenté pour concevoir et mettre en œuvre des solutions d'infrastructure sur AWS. Le candidat idéal aura une solide expérience en ingénierie et en architecture de solutions AWS, ainsi qu'une connaissance approfondie des principes et des pratiques de l'infrastructure en tant que code (IaC) avec Terraform. Responsabilités Concevoir et architecturer des solutions d'infrastructure AWS robustes et évolutives. Mettre en œuvre des concepts tels que AWS Landing Zone, les services de réseau et de sécurité AWS, et la stratégie multi-comptes AWS. Utiliser Terraform pour définir et gérer l'infrastructure en tant que code (IaC). Collaborer avec les équipes de développement en utilisant Gitlab et Gitlab-CI pour l'intégration et le déploiement continus. Écrire du code de haute qualité en Python pour automatiser les tâches et les processus. Gérer et optimiser les services AWS, y compris mais sans s'y limiter à Fargate, Lambda, S3, WAF, KMS, Transit Gateway, IAM, AWS Config, etc. Concevoir et mettre en œuvre des architectures conteneurisées et sans serveur. Intégrer et gérer des solutions SIEM, idéalement Splunk. Appliquer les concepts de Shift-left et DevSecOps, y compris SBOM, SAST, et les services de sécurité et de conformité AWS (AWS Config, Inspector, Network Firewall, etc.). Mettre en œuvre les meilleures pratiques de journalisation, de surveillance et d'alerte en utilisant des outils standards de l'industrie tels que Splunk, CloudWatch logs, Prometheus, Grafana, Alert Manager et PagerDuty.
Data Engineer Azure

Cherry Pick est à la recherche d'un Data Engineer Azure pour l'un de mes clients dans le secteur de l'énergie. Missions : Au sein de notre équipe Data Platform, vous interviendrez avec d'autres Data Engineers et DevOps dans les activités de création et d'nteraction avec des solutions de Data Lake (Gen 2), de maintien et d'évolution du processus de déploiement automatisé avec Terraform, de développement de microservices en Python, et de monitoring et d'exploitation de la Data Platform. Vous aurez une expérience significative sur l'environnement des données en Cloud (Azure), en particulier sur les services de données : ADLS Gen 2, Data Factory, WebApp, VNET, NSG. Une expérience sur AWS (S3, VPC) est un plus. Compétences requises : Expertise en Microsoft Azure et Azure Data Factory Avancé en Databricks et Data Engineering Expertise en Terraform et Docker Bonne connaissance de la méthodologie Agile Expérience significative sur le cloud Azure et/ou AWS, notamment sur les services de données (Gen2 et ou S3). Connaissance des pratiques du software craftsmanship. À l'aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d'apprendre en continu.
Data Engineer AWS

Cherry Pick est à la recherche d'un Data Engineer AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Vous participerez à la maintenance et à l'évolution de la Data & Analytics Platform, à l'évolution des infrastructures cloud via Terraform, au développement de micro-services en Python et C#, et à la conception et maintenance de chaînes de déploiement automatisé (CICD). Vous assurerez le bon fonctionnement opérationnel de la Data & Analytics Platform (MCO/Run) et enrichirez la documentation à l'attention des utilisateurs. Vous aurez une expérience significative sur AWS, en particulier sur les services de données : EKS, S3, ECS, VPC, NSG, Lambda. Compétences requises : Fondations cloud: AWS Python, Terraform, Dotnet GitHub, GitHub Action Expérience significative sur le cloud AWS, notamment sur les services de données (S3). Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Bonne connaissance des mécanismes de traitement et de valorisation des données. À l'aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d'apprendre en continu.
Consultant Systèmes et Réseaux

Nous recherchons un consultant Systèmes et Réseaux : Sur le projet d’infrastructure Cloud , la personne aura pour mission de : • Configuration automatisé du réseau de niveau 2 et de la configuration système sur l’ensemble des équipements physiques • Maintien en condition opérationnelle et de sécurité sur l’ensemble des équipements physiques • Support de niveau 3 sur l’ensemble des équipements physiques • Installation de nouveaux environnements • Participation au Dé-commissionnement d’une ancienne plateforme Cloud A noter que des déplacements en datacenter sont à prévoir. Les domaines d’expertises couvert par l’équipe sont les suivants : • OneView • Synergy (HPE) • Switch de chassis de la marque HPE • Switch de distribution • Système (Linux, debian, rhel) • Automatisation (ansible, gitlab) • Baie de Stockage objet et Bloc (S3, Swift, Dell ECS, IBM FlashSystem) • Load Balancer Kemp Poste à pourvoir sur PARIS 75012 pour une mission longue durée. Contrainte d'habilitation
Ingénieur Cloud

Notre client cherche à intégrer des ingénieurs Cloud dans notre Cloud Center of Enablement avec une passion pour la construction de solutions d'infrastructure Cloud robustes, évolutives et sécurisées, livrées en tant que produits et services en libre-service. - Définir et mettre en œuvre des versions sécurisées, conformes et évolutives des ressources cloud, en veillant à ce qu'elles soient exposées en tant que produits internes ou services basés sur le réseau - Rendre les produits cloud disponibles en libre-service via Infrastructure-as-Code en utilisant Terraform et CloudFormation - Collaborer avec d'autres équipes pour concevoir et déployer l'infrastructure et les pipelines de déploiement d'applications, ainsi que des outils DevOps - Normaliser et automatiser le processus d'intégration des équipes d'applications dans la zone d'atterrissage - Aider les équipes d'applications à créer une infrastructure sécurisée et évolutive en utilisant des produits cloud approuvés - Permettre aux équipes DevOps d'applications de s'intégrer et de les soutenir de l'intégration au lancement - Déployer et gérer des services centraux tels que le réseau en utilisant DevOps et Infrastructure-as-Code - Résoudre une série de problèmes dans divers services et domaines fonctionnels - Construire et maintenir des outils opérationnels pour le déploiement, la surveillance et l'analyse de l'infrastructure AWS et des services centraux - Mettre en œuvre l'automatisation pour la gestion, l'analyse et le reporting des coûts, - Un minimum de 5 ans d'expérience dans le déploiement et l'automatisation de l'infrastructure cloud - Des compétences démontrables dans la construction et la maintenance de l'infrastructure en utilisant des outils Infrastructure-as-Code comme Ansible - Une maîtrise de Git/BitBucket pour la gestion du code et de Jenkins ou d'autres plateformes CI/CD pour l'orchestration - Une forte connaissance de Linux, y compris son utilisation comme base pour l'automatisation et la coordination des systèmes Linux - Un travail collaboratif au sein d'une équipe ainsi qu'une initiative dédiée Qualifications préférées : - Expérience pratique du déploiement et de la gestion de l'infrastructure AWS à l'aide de Terraform ou CloudFormation par le biais de pipelines CI/CD - Expérience du déploiement de services AWS fondamentaux (par ex, VPC, Subnet, Routes, EC2, EKS, ELB, S3, EBS, RDS, Aurora, DynamoDB, Cloudwatch, Cloudtrail) - Expérience avec AWS IAM, Security Groups, NACLs, KMS, Secret Manager, et SSM - Bonne compréhension de la sécurisation des environnements AWS et du respect des exigences de conformité - Expérience de la réparation d'environnements AWS - Une expérience de la gestion de configurations d'infrastructures immuables avec EC2 est un plus - Familiarité avec AWS Landing Zone et la technologie sous-jacente - Une expérience des outils de sécurité AWS (Guard Duty, Security Hub, Inspector, Config, Access Analyzer, Macie) est un avantage majeur.
business analyst swift paiement

Les missions : - Cadrage des besoins métiers - Etude d'impact - Spécification fonctionnelle - Rédaction de stratégie de tests - Suivi de l’implémentation en interne et en OffShore (Singapour) - Validation des cas de tests et des résultats de tests. - Organisation et suivi des UAT - Préparation des Go-live avec l'équipe L'essentiel de la mission se déroulera en Anglais. Mission à Montrouge Compétences Requises pour la mission : - Minimum 3 ans d’expérience dans un contexte similaire - Contexte anglophone - Maitrise du langage SQL - Connaissances du domaine des paiements (SWIFT / SEPA / TARGET 2 / EBA / Paiements locaux..) Compétences Souhaitées : - Connaissance dans les technologies Java Spark / Python - Expérience dans les solutions utilisant l’IA, - Connaissance des principes de containérisation (Docker, Kubernates), des fournisseurs d'objets Big Data comme S3
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.