Trouvez votre prochaine offre d’emploi ou de mission freelance Architecte Cloud à Paris

Votre recherche renvoie 200 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Product Owner Big Data

INSYCO
Publiée le
Apache Spark
AWS Cloud
Big Data

15 mois
550-650 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique

Offre premium
CDI

Offre d'emploi
Développeur Java Finance (Dérivés actions, Pricing, Risk) 5 ans d'expérience F/H

OCSI
Publiée le
AWS Cloud
DevOps
Google Cloud Platform

52k-65k €
Paris, France

Vous rejoindrez l'équipe OCSI chez notre client, Groupe bancaire mondial, dans la branche IT en charge des développements de la plateforme de calcul des risques de contrepartie (RWA for CCR). Cette équipe a une responsabilité globale et internationale (nécessité d'avoir un anglais courant). En tant que développeur, vous avez une appétence également pour le DevOps. Votre quotidien sera de : o participer aux développements sur les différents composants de la chaine end to end du calcul de RWA (Risk Weighted Asset) pour la gestion du risque de contrepartie (Counterpart Credit Risk). Vous devrez répondre aux challenges de performance que ce projet impose en terme de performance et de stabilité. o Vous êtes ouverts à étudier d’autres langages et à ajouter ou compléter une composantes devops. Vous travaillerez sur la plateforme GCP (Google Cloud Platforme) et pourrez évoluer vers des services AWS (Amazon Web Services) o Vous serez responsable de la mise en place et de l’exécution des tests sur vos composants, de la mise en production et de la documentation de vos développements. Vous devrez proposer des solutions répondant aux besoins de scalabilité, de résilience et de sécurité. o Vous assurez le support des applications.

Freelance

Mission freelance
Ingénieur de données / Big Data

Axande
Publiée le
API
AWS Cloud
CI/CD

12 mois
450-650 €
Paris, France

Nous recherchons pour notre client grand compte ( secteur média ) un ingénieur de données pour la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform

3 ans
33k-83k €
400-900 €
Paris, France

Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Egalement, tu participeras à la migration du DWH Oracle vers Big Query GCP. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir et développer les Data Model Être garant de la qualité du code Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL et PL/SQL Python Méthodologie Agile

Freelance

Mission freelance
Ingénieur SysOps (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Administration système
AWS Cloud
DevOps

6 mois
400-600 €
Paris, France

Localisation : 92 TT : 2 jours Expérience ci-dessous requise (obligatoire): > Expérience confirmée d’ingénieur SysOps AWS > 3 ans > Expérience confirmée en IAC Terraform > Expérience forte de Build et de Run des services serverless AWS > Certifications AWS appréciées > Expérience confirmé on-premise > Environnement Linux / Redhat > Une expérience sur $Univers est un plus Core Skills - Maîtrise des technologies ci-dessous de l’écosystème AWS (obligatoire) : > Services Core AWS (IAM, cloudwatch, cloudtrail, route53, S3, VPC, …) > Maitrise de la majorité des Services AWS suivants: API gateway, CloudFront, Cognito, WAF, RDS, DynamoDB, Lambda, Step function, SQS ou MQ, ECS, EKS, ECR, OpenSearch, EMR ,... > Docker, Python, Gitlab CI, Terraform, Ansible, Graphana > Participation à l'amélioration du monitoring / alerting

Freelance
CDI

Offre d'emploi
Data Engineer AWS

KP2i
Publiée le
Apache Spark
API
API Platform

1 an
13k-63k €
200-700 €
Paris, France

Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants

Freelance

Mission freelance
Data Gouvernance Manager

Tenth Revolution Group
Publiée le
AWS Cloud

6 mois
500-1k €
Paris, France

Expérience : 10 années d’expérience minimum, dont 5 années au moins en tant que Data manager, avec une expérience déjà faites en déploiement de data platform. Environnement : AWS/Azure SQL/NoSQL languages, cloud AWS, Collibra ontexte : Depuis l’an dernier, ils ont déployé une data platform, cherchant à migrer des données vers cette plateforme. Il s’agit d’un projet transverse, donc il n’y a pas d’équipe faites pour l’instant de façon formel. Mission : Déploiement Data platform Déploiement des process et divers outils sur la plateforme

Freelance

Mission freelance
Développeur fullstack PHP/Symfony & angular

APYA
Publiée le
Angular
API REST
AWS Cloud

1 an
100-450 €
Paris, France

Un développeur back au sein du service Applications GP et Licenciés composé de 6 développeurs prestataires en régie. Profil recherché Responsabilités • Concevoir, développer et maintenir des API REST. • Assurer la performance, la sécurité et la scalabilité des applications backend. • Collaborer avec le DevOps pour assurer une livraison continue des fonctionnalités. • Implémenter et maintenir des tests unitaires, d’intégration et fonctionnels. • Participer aux revues de code et garantir la qualité du code selon les bonnes pratiques. • Documenter les processus techniques et les API développées.

Freelance

Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON

YGL consulting
Publiée le
API
AWS Cloud
Big Data

12 mois
600-750 €
Paris, France

Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME

Freelance
CDD

Offre d'emploi
Product Owner Big Data - SQL - RGPD - CNIL

YGL consulting
Publiée le
AWS Cloud
Google Cloud Platform
SQL

12 mois
40k-45k €
400-650 €
Paris, France

La Direction Data met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données pour en accélérer l’usage. Elle accompagne les différentes offres et la croissance des offres (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension des usages et l’amélioration de l’expérience utilisateurs. Pour maximiser la valeur ajoutée issue de nos données, nous avons mis en place une Data Platform structurée en trois zones : - Une zone Bronze qui collecte, nettoie, centralise, et expose la donnée brute - Une zone Silver qui transforme les données brutes en données raffinées pour servir tous les usages métiers dans leur ensemble - Une zone Gold qui transforme les données raffinées pour servir les cas d’usages métiers du pilotage, de la personnalisation et de la data Science L’équipe en charge de la zone Bronze est l’équipe big Data composée d’un Product Owner Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. Missions de l’équipe Big Data - Conception et maintenance de la zone Bronze : Gérer les données brutes, de leur collecte à leur centralisation, en assurant leur nettoyage, - Intégration en continue : Assurer l’intégration, le nettoyage et la validation continue des données, - Optimisation des flux de données : Améliorer les pipelines pour garantir des traitements efficaces et scalables, - Veille technologique : Intégrer les meilleures pratiques et innovations en Big Data pour optimiser la gestion de données brutes.

CDI
Freelance

Offre d'emploi
Expert/Architecte Kafka/MSK/ELK

KLETA
Publiée le
Apache Kafka
AWS Cloud
ELK

3 ans
70k-90k €
250-750 €
Paris, France

Nous recherchons un Expert/Architecte Kafka/MSK pour piloter la conception, la mise en œuvre et l’optimisation d’une infrastructure Kafka/ELK (ElasticSearch, Logstash, Kibana) multi-région. Ce projet stratégique vise à soutenir une organisation opérant à l’échelle internationale, avec des besoins exigeants en termes de réplication des données, de faible latence, de scalabilité et de résilience. Missions principales : Conception et architecture : Définir l’architecture globale du système Kafka/ELK multi-région, en étant attentif à la réplication cross-région, à la synchronisation des clusters Kafka et à la tolérance aux pannes. S’assurer de la compatibilité avec les standards internationaux en termes de sécurité, de réglementations des données et de performances. Implémentation : Installer et configurer Kafka sur AWS MSK ainsi que les solutions ELK associées. Gérer l’intégration avec des systèmes existants et assurer une migration sans interruption pour les clients internes. Configurer la réplication multi-région (MirrorMaker 2.0 ou autres outils adaptés). Optimisation et supervision : Mettre en place une stratégie de monitoring avancée pour Kafka et ELK (Kibana, Prometheus, Grafana, etc.). Optimiser les performances en équilibrant les charges entre régions et en minimisant les latences. Gérer les mises à jour et assurer la maintenance de l’infrastructure. Sécurité et conformité : Implémenter des mécanismes de sécurité avancés (chiffrement, authentification, autorisation) pour Kafka et ELK. Veiller à la conformité avec les réglementations locales et internationales (ex. : GDPR, CCPA). Support et formation : Fournir un support technique aux équipes internes. Documenter les procédures et former les équipes à l’utilisation et à la gestion de l’infrastructure.

Freelance

Mission freelance
Chef de projet technique SFCC

DEV AND CONNECT
Publiée le
Javascript
Salesforce Sales Cloud

1 an
400-600 €
Paris, France

Vous intégrez l’équipe « Digital » d’un grand acteur du luxe, basé à Paris et présent à l’international. L’équipe est en charge des applications e-commerce à rayonnement mondial (sites institutionnels et e-commerce). 📍Paris centre 🏠 2 à 3 jours de remote par semaine • Release management (y compris l’organisation de tous les meetings agile : grooming, daily meeting, rétrospectives, release go / no go...) • TMA • Co-animer les nouveaux projets, avec le PO, les équipes internes/prestataires délivrant la solution en mode agile

Freelance

Mission freelance
devsecops banque

Gentis Recruitment SAS
Publiée le
AWS Cloud
J2EE / Java EE

2 ans
200-650 €
Paris, France

ous recherchons un.e INGÉNIEUR DEVSECOPS F/H SENIOR pour accompagner une ou plusieurs équipes Agile. Les grands enjeux de la mission sont les suivants : Construire les primitives d’automatisation Intégrer les différentes technologies au catalogue de la DSI (y compris Cloud S’appuyer sur les experts et acteurs DSI Construire les pipelines d’automatisation Accompagner les équipes applicatives à utiliser l’usine logiciel Participer à améliorer sans cesse les processus pour les rendre plus fluides, plus rapides, plus sûrs Mettre en place les solutions d’observabilité/alerting Réaliser des développements sur nous outils informatiques métier Être garant de la sécurité en continue des applications de votre équipe Être force de proposition dans le déploiement d’éléments concourant à l’amélioration continue des pratiques de/des équipe(s) Participer, fluidifier et améliorer le support de production Langages / Frameworks : Angular 10, typescript et programmation réactive - Spring Boot 2.0 – PostgreSQL, Java JEE, Struts, OPENApi/Swagger, Java 11 Moteur : Blaze Advisor ; Experian Power Curve Architecture : Microservices, Composants partagés, API (REST), Évènementielle (Kafka) Cloud: DOCKER, REDHAT OPENSHIFT, TANZU, AWS DevOps : Gitlab - Gitlab CI - Docker – Kubernetes, Jenkins Maven , XLDeploy, Terraform, Ansible Testing : Cypress - Cucumber, JUnit, Postman

Freelance
CDI

Offre d'emploi
MLOPS Engineer

VISIAN
Publiée le
AWS Cloud
FastAPI
GPU

6 mois
40k-80k €
400-800 €
Paris, France

En tant qu’Ingénieur MLOps Senior, vous aurez pour mission de développer et d’optimiser les outils internes de MLOps afin de soutenir l’ensemble du cycle de vie des modèles d’IA. Vous serez spécialisé(e) dans l’utilisation des GPU pour améliorer l’entraînment, le déploiement et le serving des modèles. Construire et optimiser les pipelines de données pour la gestion des jeux de données, l’entraînment, l’évaluation et le déploiement des modèles. Garantir la traçabilité et la reproductibilité des expériences. Améliorer la maintenabilité et l’évolutivité des composants de la plateforme, en environnements cloud (AWS) ou on-premise. Configurer et gérer les infrastructures GPU pour l’entraînment des modèles. Implémenter des techniques avancées comme le mixed-precision training, la quantification et l’optimisation d’inférence via Triton Server ou TensorRT. Réduire les temps de calcul en exploitant les outils comme cuDNN ou NVIDIA Nsight. Développer des solutions robustes pour le serving des modèles d’IA dans des environnements contraints (on-premise et cloud). Améliorer la scalabilité des serveurs d’inference multi-GPU pour gérer un grand volume de requêtes. Mettre en place des outils de monitoring et de benchmarking des performances des modèles. Intégrer les workflows d’entraînment et de déploiement dans des pipelines CI/CD (GitHub Actions, Nomad). Automatiser le réentraîment des modèles en continu. Maintenir des tests de non-régression pour garantir la stabilité des modèles en production. Effectuer une veille technologique pour identifier les nouvelles solutions et techniques (AutoML, Kubeflow, TFX). Diffuser les bonnes pratiques et former les membres de l’équipe à travers du mentoring et des sessions techniques.

Freelance

Mission freelance
Chef de Projet Technique E-commerce (H/F)

Link Consulting
Publiée le
ecommerce
Salesforce Sales Cloud

12 mois
550-600 €
Paris, France

Notre client, une prestigieuse maison de luxe située à Paris, recherche son futur Chef de Projet Technique E-commerce (H/F). Ce projet s’inscrit dans le cadre d’une mission de renforcement des performances et de l’évolution stratégique de la plateforme e-commerce, avec une équipe en cours de structuration. Vos missions : Intégré(e) à une agence parisienne dynamique, et en collaboration avec des acteurs clés (PO, directeur technique, direction infrastructure, support), vous aurez pour responsabilités : •Piloter les projets techniques liés à l’environnement e-commerce (développement, infrastructure). •Gérer des projets transverses et effectuer des tests techniques, en tant qu’interlocuteur clé entre les équipes. •Contribuer à l’amélioration continue des performances du site e-commerce. •Garantir l’évolution de l’infrastructure en collaboration avec les équipes dev, infra et middleware. Les compétences techniques : Pour réussir dans ce rôle, vous maîtrisez : •Salesforce Commerce Cloud, JavaScript, et le middleware Mulesoft. •Les environnements Azure Cloud •L’interaction avec des environnements techniques variés et complexes.

Freelance

Mission freelance
Product Owner Data plateforme

Cherry Pick
Publiée le
Agile Scrum
AWS Cloud
Databricks

12 mois
600-650 €
Paris, France

Notre client recherche un Product Owner (PO) pour rejoindre une équipe Data Platform . L'équipe a pour objectif de maintenir et faire évoluer la plateforme data , en travaillant sur la définition de la roadmap , l' architecture et la construction des solutions techniques. Le PO collaborera avec une équipe pluridisciplinaire composée de 10 experts, incluant : Un Tech Lead Un Architecte Plusieurs DevOps et Data Engineers La plateforme repose sur une stack Databricks , des processus ETL (Talend) , et une infrastructure basée sur AWS . Vos missions : maintenir la roadmap produit en alignement avec les objectifs stratégiques. Rédiger et affiner le Product Backlog en collaboration avec les parties prenantes. Travailler en étroite collaboration avec le Tech Lead , l'Architecte et l'équipe DevOps/Data Engineers pour définir des solutions techniques efficaces. Faciliter les échanges avec les parties prenantes pour recueillir les besoins et s'assurer que les livrables répondent aux attentes. Organiser, et animer les rituels Agile (daily stand-up, sprint planning, reviews, retrospectives). Assurer un suivi des KPIs et de la performance des livrables pour une évolution continue de la plateforme. Processus : 1 entretien Go - No Go

200 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous