Trouvez votre prochaine offre d’emploi ou de mission freelance Architecte Cloud à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Product Owner Big Data
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique
Offre d'emploi
Développeur Java Finance (Dérivés actions, Pricing, Risk) 5 ans d'expérience F/H
Vous rejoindrez l'équipe OCSI chez notre client, Groupe bancaire mondial, dans la branche IT en charge des développements de la plateforme de calcul des risques de contrepartie (RWA for CCR). Cette équipe a une responsabilité globale et internationale (nécessité d'avoir un anglais courant). En tant que développeur, vous avez une appétence également pour le DevOps. Votre quotidien sera de : o participer aux développements sur les différents composants de la chaine end to end du calcul de RWA (Risk Weighted Asset) pour la gestion du risque de contrepartie (Counterpart Credit Risk). Vous devrez répondre aux challenges de performance que ce projet impose en terme de performance et de stabilité. o Vous êtes ouverts à étudier d’autres langages et à ajouter ou compléter une composantes devops. Vous travaillerez sur la plateforme GCP (Google Cloud Platforme) et pourrez évoluer vers des services AWS (Amazon Web Services) o Vous serez responsable de la mise en place et de l’exécution des tests sur vos composants, de la mise en production et de la documentation de vos développements. Vous devrez proposer des solutions répondant aux besoins de scalabilité, de résilience et de sécurité. o Vous assurez le support des applications.
Mission freelance
Ingénieur de données / Big Data
Nous recherchons pour notre client grand compte ( secteur média ) un ingénieur de données pour la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Offre d'emploi
DATA ENGINEER GCP
Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Egalement, tu participeras à la migration du DWH Oracle vers Big Query GCP. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir et développer les Data Model Être garant de la qualité du code Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL et PL/SQL Python Méthodologie Agile
Mission freelance
Ingénieur SysOps (H/F)
Localisation : 92 TT : 2 jours Expérience ci-dessous requise (obligatoire): > Expérience confirmée d’ingénieur SysOps AWS > 3 ans > Expérience confirmée en IAC Terraform > Expérience forte de Build et de Run des services serverless AWS > Certifications AWS appréciées > Expérience confirmé on-premise > Environnement Linux / Redhat > Une expérience sur $Univers est un plus Core Skills - Maîtrise des technologies ci-dessous de l’écosystème AWS (obligatoire) : > Services Core AWS (IAM, cloudwatch, cloudtrail, route53, S3, VPC, …) > Maitrise de la majorité des Services AWS suivants: API gateway, CloudFront, Cognito, WAF, RDS, DynamoDB, Lambda, Step function, SQS ou MQ, ECS, EKS, ECR, OpenSearch, EMR ,... > Docker, Python, Gitlab CI, Terraform, Ansible, Graphana > Participation à l'amélioration du monitoring / alerting
Offre d'emploi
Data Engineer AWS
Merci de bien lire la fiche de poste, surtout au niveau de la séniorité demandé sur les environnements technologiques Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : Un minimum de 4 ans d’expérience est attendu. Le département Data IA (DaIA) a la charge de mettre à disposition des métiers, un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA, en développant notamment, une plateforme d’enrichissement des métadonnées des contenus ( IA & GenAI). Dans ce cadre, le DaIA, a besoin d’une prestation en Data Ingénierie pour : la conception, la construction et la gestion de l’infrastructure AWS. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants
Mission freelance
Data Gouvernance Manager
Expérience : 10 années d’expérience minimum, dont 5 années au moins en tant que Data manager, avec une expérience déjà faites en déploiement de data platform. Environnement : AWS/Azure SQL/NoSQL languages, cloud AWS, Collibra ontexte : Depuis l’an dernier, ils ont déployé une data platform, cherchant à migrer des données vers cette plateforme. Il s’agit d’un projet transverse, donc il n’y a pas d’équipe faites pour l’instant de façon formel. Mission : Déploiement Data platform Déploiement des process et divers outils sur la plateforme
Mission freelance
Développeur fullstack PHP/Symfony & angular
Un développeur back au sein du service Applications GP et Licenciés composé de 6 développeurs prestataires en régie. Profil recherché Responsabilités • Concevoir, développer et maintenir des API REST. • Assurer la performance, la sécurité et la scalabilité des applications backend. • Collaborer avec le DevOps pour assurer une livraison continue des fonctionnalités. • Implémenter et maintenir des tests unitaires, d’intégration et fonctionnels. • Participer aux revues de code et garantir la qualité du code selon les bonnes pratiques. • Documenter les processus techniques et les API développées.
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Offre d'emploi
Product Owner Big Data - SQL - RGPD - CNIL
La Direction Data met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données pour en accélérer l’usage. Elle accompagne les différentes offres et la croissance des offres (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension des usages et l’amélioration de l’expérience utilisateurs. Pour maximiser la valeur ajoutée issue de nos données, nous avons mis en place une Data Platform structurée en trois zones : - Une zone Bronze qui collecte, nettoie, centralise, et expose la donnée brute - Une zone Silver qui transforme les données brutes en données raffinées pour servir tous les usages métiers dans leur ensemble - Une zone Gold qui transforme les données raffinées pour servir les cas d’usages métiers du pilotage, de la personnalisation et de la data Science L’équipe en charge de la zone Bronze est l’équipe big Data composée d’un Product Owner Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. Missions de l’équipe Big Data - Conception et maintenance de la zone Bronze : Gérer les données brutes, de leur collecte à leur centralisation, en assurant leur nettoyage, - Intégration en continue : Assurer l’intégration, le nettoyage et la validation continue des données, - Optimisation des flux de données : Améliorer les pipelines pour garantir des traitements efficaces et scalables, - Veille technologique : Intégrer les meilleures pratiques et innovations en Big Data pour optimiser la gestion de données brutes.
Offre d'emploi
Expert/Architecte Kafka/MSK/ELK
Nous recherchons un Expert/Architecte Kafka/MSK pour piloter la conception, la mise en œuvre et l’optimisation d’une infrastructure Kafka/ELK (ElasticSearch, Logstash, Kibana) multi-région. Ce projet stratégique vise à soutenir une organisation opérant à l’échelle internationale, avec des besoins exigeants en termes de réplication des données, de faible latence, de scalabilité et de résilience. Missions principales : Conception et architecture : Définir l’architecture globale du système Kafka/ELK multi-région, en étant attentif à la réplication cross-région, à la synchronisation des clusters Kafka et à la tolérance aux pannes. S’assurer de la compatibilité avec les standards internationaux en termes de sécurité, de réglementations des données et de performances. Implémentation : Installer et configurer Kafka sur AWS MSK ainsi que les solutions ELK associées. Gérer l’intégration avec des systèmes existants et assurer une migration sans interruption pour les clients internes. Configurer la réplication multi-région (MirrorMaker 2.0 ou autres outils adaptés). Optimisation et supervision : Mettre en place une stratégie de monitoring avancée pour Kafka et ELK (Kibana, Prometheus, Grafana, etc.). Optimiser les performances en équilibrant les charges entre régions et en minimisant les latences. Gérer les mises à jour et assurer la maintenance de l’infrastructure. Sécurité et conformité : Implémenter des mécanismes de sécurité avancés (chiffrement, authentification, autorisation) pour Kafka et ELK. Veiller à la conformité avec les réglementations locales et internationales (ex. : GDPR, CCPA). Support et formation : Fournir un support technique aux équipes internes. Documenter les procédures et former les équipes à l’utilisation et à la gestion de l’infrastructure.
Mission freelance
Chef de projet technique SFCC
Vous intégrez l’équipe « Digital » d’un grand acteur du luxe, basé à Paris et présent à l’international. L’équipe est en charge des applications e-commerce à rayonnement mondial (sites institutionnels et e-commerce). 📍Paris centre 🏠 2 à 3 jours de remote par semaine • Release management (y compris l’organisation de tous les meetings agile : grooming, daily meeting, rétrospectives, release go / no go...) • TMA • Co-animer les nouveaux projets, avec le PO, les équipes internes/prestataires délivrant la solution en mode agile
Mission freelance
devsecops banque
ous recherchons un.e INGÉNIEUR DEVSECOPS F/H SENIOR pour accompagner une ou plusieurs équipes Agile. Les grands enjeux de la mission sont les suivants : Construire les primitives d’automatisation Intégrer les différentes technologies au catalogue de la DSI (y compris Cloud S’appuyer sur les experts et acteurs DSI Construire les pipelines d’automatisation Accompagner les équipes applicatives à utiliser l’usine logiciel Participer à améliorer sans cesse les processus pour les rendre plus fluides, plus rapides, plus sûrs Mettre en place les solutions d’observabilité/alerting Réaliser des développements sur nous outils informatiques métier Être garant de la sécurité en continue des applications de votre équipe Être force de proposition dans le déploiement d’éléments concourant à l’amélioration continue des pratiques de/des équipe(s) Participer, fluidifier et améliorer le support de production Langages / Frameworks : Angular 10, typescript et programmation réactive - Spring Boot 2.0 – PostgreSQL, Java JEE, Struts, OPENApi/Swagger, Java 11 Moteur : Blaze Advisor ; Experian Power Curve Architecture : Microservices, Composants partagés, API (REST), Évènementielle (Kafka) Cloud: DOCKER, REDHAT OPENSHIFT, TANZU, AWS DevOps : Gitlab - Gitlab CI - Docker – Kubernetes, Jenkins Maven , XLDeploy, Terraform, Ansible Testing : Cypress - Cucumber, JUnit, Postman
Offre d'emploi
MLOPS Engineer
En tant qu’Ingénieur MLOps Senior, vous aurez pour mission de développer et d’optimiser les outils internes de MLOps afin de soutenir l’ensemble du cycle de vie des modèles d’IA. Vous serez spécialisé(e) dans l’utilisation des GPU pour améliorer l’entraînment, le déploiement et le serving des modèles. Construire et optimiser les pipelines de données pour la gestion des jeux de données, l’entraînment, l’évaluation et le déploiement des modèles. Garantir la traçabilité et la reproductibilité des expériences. Améliorer la maintenabilité et l’évolutivité des composants de la plateforme, en environnements cloud (AWS) ou on-premise. Configurer et gérer les infrastructures GPU pour l’entraînment des modèles. Implémenter des techniques avancées comme le mixed-precision training, la quantification et l’optimisation d’inférence via Triton Server ou TensorRT. Réduire les temps de calcul en exploitant les outils comme cuDNN ou NVIDIA Nsight. Développer des solutions robustes pour le serving des modèles d’IA dans des environnements contraints (on-premise et cloud). Améliorer la scalabilité des serveurs d’inference multi-GPU pour gérer un grand volume de requêtes. Mettre en place des outils de monitoring et de benchmarking des performances des modèles. Intégrer les workflows d’entraînment et de déploiement dans des pipelines CI/CD (GitHub Actions, Nomad). Automatiser le réentraîment des modèles en continu. Maintenir des tests de non-régression pour garantir la stabilité des modèles en production. Effectuer une veille technologique pour identifier les nouvelles solutions et techniques (AutoML, Kubeflow, TFX). Diffuser les bonnes pratiques et former les membres de l’équipe à travers du mentoring et des sessions techniques.
Mission freelance
Chef de Projet Technique E-commerce (H/F)
Notre client, une prestigieuse maison de luxe située à Paris, recherche son futur Chef de Projet Technique E-commerce (H/F). Ce projet s’inscrit dans le cadre d’une mission de renforcement des performances et de l’évolution stratégique de la plateforme e-commerce, avec une équipe en cours de structuration. Vos missions : Intégré(e) à une agence parisienne dynamique, et en collaboration avec des acteurs clés (PO, directeur technique, direction infrastructure, support), vous aurez pour responsabilités : •Piloter les projets techniques liés à l’environnement e-commerce (développement, infrastructure). •Gérer des projets transverses et effectuer des tests techniques, en tant qu’interlocuteur clé entre les équipes. •Contribuer à l’amélioration continue des performances du site e-commerce. •Garantir l’évolution de l’infrastructure en collaboration avec les équipes dev, infra et middleware. Les compétences techniques : Pour réussir dans ce rôle, vous maîtrisez : •Salesforce Commerce Cloud, JavaScript, et le middleware Mulesoft. •Les environnements Azure Cloud •L’interaction avec des environnements techniques variés et complexes.
Mission freelance
Product Owner Data plateforme
Notre client recherche un Product Owner (PO) pour rejoindre une équipe Data Platform . L'équipe a pour objectif de maintenir et faire évoluer la plateforme data , en travaillant sur la définition de la roadmap , l' architecture et la construction des solutions techniques. Le PO collaborera avec une équipe pluridisciplinaire composée de 10 experts, incluant : Un Tech Lead Un Architecte Plusieurs DevOps et Data Engineers La plateforme repose sur une stack Databricks , des processus ETL (Talend) , et une infrastructure basée sur AWS . Vos missions : maintenir la roadmap produit en alignement avec les objectifs stratégiques. Rédiger et affiner le Product Backlog en collaboration avec les parties prenantes. Travailler en étroite collaboration avec le Tech Lead , l'Architecte et l'équipe DevOps/Data Engineers pour définir des solutions techniques efficaces. Faciliter les échanges avec les parties prenantes pour recueillir les besoins et s'assurer que les livrables répondent aux attentes. Organiser, et animer les rituels Agile (daily stand-up, sprint planning, reviews, retrospectives). Assurer un suivi des KPIs et de la performance des livrables pour une évolution continue de la plateforme. Processus : 1 entretien Go - No Go
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.