Trouvez votre prochaine offre d’emploi ou de mission freelance Axure RP à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Architecte technique infrastructure On premise & Cloud Azure et GCP

o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Azure Data Architect

Data Cloud Architect , freelance, contrat de 24 mois, IDF Attractive opportunité pour un(e) Azure Data Architect chevronné(e) de rejoindre notre client final basé à La Défense sur un projet sensible à destination de millions de professionnels et de particuliers. Vous rejoindrez une équipe hautement performant pour participer à un ambitieux projet full Azure. Missions principales : · Concevoir et proposer des solutions sur les données en utilisant les technologies Azure Cloud. · Exécuter des restitutions documentaires dans les normes et l'architecture. · Concevoir et proposer des solutions sur Snowflake · Appliquer la stratégie " Data as a Service " dans le respect des bonnes pratiques architecturales · Concevoir et développer des APIs / Micro-services · Soutenir la stratégie Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub · Contribuer au catalogue de services pour l'enrichissement en libre-service · Contribuer à la modernisation et à la sensibilisation à la technologie au sein de l'équipe Data Capture et dans l'ensemble de l'organisation Data & Analytics. · Être le référent au sein de l'équipe pour tous les sujets liés au cloud. · Conduire des ateliers et faciliter la collecte des besoins · Soutenir les data engineer sur les sujets liés au cloud · Soutenir l'équipe de sécurité pour les sujets connexes · Contribuer à la feuille de route et à l'évolution du projet · Challenger et soutenir les fournisseurs externes · Collaborer étroitement avec les équipes IT, partenaires commerciaux, les partenaires externes et tous les membres de l'équipe d'intégration.
Data Engineer Azure

Cherry Pick est à la recherche d'un Data Engineer Azure pour l'un de mes clients dans le secteur de l'énergie. Missions : Au sein de notre équipe Data Platform, vous interviendrez avec d'autres Data Engineers et DevOps dans les activités de création et d'nteraction avec des solutions de Data Lake (Gen 2), de maintien et d'évolution du processus de déploiement automatisé avec Terraform, de développement de microservices en Python, et de monitoring et d'exploitation de la Data Platform. Vous aurez une expérience significative sur l'environnement des données en Cloud (Azure), en particulier sur les services de données : ADLS Gen 2, Data Factory, WebApp, VNET, NSG. Une expérience sur AWS (S3, VPC) est un plus. Compétences requises : Expertise en Microsoft Azure et Azure Data Factory Avancé en Databricks et Data Engineering Expertise en Terraform et Docker Bonne connaissance de la méthodologie Agile Expérience significative sur le cloud Azure et/ou AWS, notamment sur les services de données (Gen2 et ou S3). Connaissance des pratiques du software craftsmanship. À l'aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d'apprendre en continu.
Ingénieur Azure Databricks

Offre de Mission Freelance : Ingénieur MLOps Azure Databricks (Intermédiaire) 📍 Localisation : Paris (présence sur site souhaitée) 📅 Contrat : Freelance 💼 Expérience : 2 à 5 ans d'expérience en MLOps À propos de nous Le client est une entreprise innovante spécialisée dans le Cloud, avec une forte orientation sur l’intelligence artificielle et le big data. Afin de renforcer notre équipe technique, nous recherchons un Ingénieur MLOps Azure Databricks pour une mission freelance, afin de contribuer à la gestion et à l’optimisation de nos pipelines de machine learning sur Azure. Missions principales Développement, gestion et optimisation de pipelines MLOps utilisant Azure Databricks et les services associés (Azure Data Lake, Azure ML, etc.). Automatisation des processus de déploiement des modèles de machine learning en production. Intégration des pratiques CI/CD spécifiques aux environnements ML dans un contexte Azure. Mise en place de solutions d’observabilité et de monitoring des modèles (Azure Monitor, Log Analytics). Collaboration avec les équipes Data et DevOps pour assurer l’intégration continue et l’évolution des modèles. Optimisation de la performance des modèles et gestion des coûts sur la plateforme Azure.
Tech Lead python aws azure

Cherry Pick est à la recherche d'un Tech Lead python aws azure pour l'un de ses clients dans le secteur de l'énergie. Vous rejoindrez une équipe en tant que Tech Lead pour gérer la construction et le support de la plateforme Data & Analytics. Vous participerez à la maintenance et à l'évolution de la Data & Analytics Platform, à l'évolution des infrastructures cloud via Terraform, au développement de micro-services en Python et C#, et à la conception et maintenance de chaînes de déploiement automatisé (CICD). Vous assurerez le bon fonctionnement opérationnel de la Data & Analytics Platform (MCO/Run) et enrichirez la documentation à l'attention des utilisateurs. Vous serez responsable de la coordination technique de l'équipe, de la mise en place des bonnes pratiques DevSecOps, Data Engineering et Data Management, et de l'encadrement des développeurs. Compétences requises : Expertise technique dans les domaines du Data Engineering, DevOps, Cloud (AWS/Azure) Expérience significative en gestion de projet et d'équipe Connaissance approfondie des pratiques DevSecOps, Data Engineering et Data Management Bonne connaissance de la méthodologie Agile et Scrum Excellentes compétences en communication et en leadership Maîtrise de l'anglais et du français Disponibilité ASAP
Ingénieur Production Linux & DevOps
La mission s’inscrit au sein de la DSI dans les équipes de production. Notre client recherche un profil hybride qui pourrait intervenir en tant qu’Ingénieur production Linux et DevOps (Zabbix, Graphana Selenium). Détails des missions prises en charges au sein de l’équipe : Production et exploitation Linux : · Monitorer les applications, traitements. · Gestion des incidents N2, N3 avec les différents intervenants (métiers, fournisseurs) · Contrôler et piloter les traitements applicatifs et Flux · Mettre en production les applications · S’assurer du respect des engagements envers les clients · Mettre à disposition les environnements Dev/Uac/ DevOps : · Contrôler et piloter les cluster AKS et les déploiements · Livraison des applications via Azure Devops · Industrialisation et automatisation des déploiements Terraform · Amélioration du monitoring des sites et scenario de tests sous Zabbix, Graphana Selenium · Le candidat devra respecter les contraintes opérationnelles de l’équipe. Contexte : Le client a depuis plusieurs années réalisé une transformation de ses infrastructures vers des solutions Cloud principalement sur Azure et en SAS chez des éditeurs pour des applications spécifiques. Dans le cadre de ces projets d’évolution, ils ont déployé un cluster AKS afin de procéder au déploiement de containers d’après des images sécuriser et au format du client. Le candidat sera garant du déploiement d’après les bonnes pratiques des images containers et la sécurisation du cluster AKS. Les containers et le système de déploiement devra offrir un monitoring sous Zabbix, Graphana Selenium.
Cloud Data Engineer Azure + MS Fabric Engineer

En quelques mots Cherry Pick est à la recherche d'un "Data Azure + MS Fabric Engineer" pour un client dans le secteur de l'énergie. Description CONTEXTE Vous rejoindrez une équipe au sein des services informatiques pour gérer la construction et le support de la plateforme Data & Analytics. Vous participerez à la maintenance et à l'évolution de cette plateforme, à l'amélioration des infrastructures cloud via Terraform, au développement de micro-services en Python et C#, ainsi qu'à la conception et à la maintenance de chaînes de déploiement automatisé (CICD). Vous veillerez au bon fonctionnement opérationnel de la plateforme Data & Analytics (MCO/Run) et enrichirez la documentation destinée aux utilisateurs. Vous aurez une expérience significative sur Azure, notamment sur les services de données (Gen2 et/ou S3), ainsi qu'une connaissance de MS Fabric. MISSIONS Gestion de la plateforme Data & Analytics : Participer à la maintenance et à l’évolution de la plateforme en optimisant son efficacité et sa stabilité. Amélioration des infrastructures cloud : Utiliser Terraform pour gérer l'infrastructure cloud et travailler sur des projets d'optimisation sur Azure. Développement de micro-services : Développer et maintenir des micro-services en Python et C#, en mettant l’accent sur la modularité et la scalabilité. Automatisation du déploiement : Concevoir et maintenir des chaînes de déploiement automatisées (CI/CD) pour assurer une livraison continue et fluide des services. Assurer la continuité de service : Veiller au bon fonctionnement opérationnel de la plateforme, résoudre rapidement les problèmes et optimiser la gestion des incidents (MCO/Run). Documentation : Enrichir et maintenir une documentation claire et complète pour les utilisateurs finaux. Collaboration avec les parties prenantes : Communiquer et échanger avec les différents acteurs du projet, comprendre leurs besoins, et proposer des solutions adaptées.
Tech Lead Java Filenet Azure Devops

Contexte & Objectifs de la prestation En tant que référent technique, votre mission consiste a coordonner les équipes techniques en charge de la mise au point des briques logicielles dans le cadre du développement d’un applicatif spécifique (ou de l’implémentation d’un progiciel). Vous intervenez en position d’expert des cadres de développement (ou de l’architecture technique d’un progiciel) pour « designer » des solutions techniques aptes à garantir la performance de la solution livrée. Vous veillez à la fois au respect des standards de développement et à la cohérence des architectures techniques. l’équipe « GED RAD-LAD » composée de 25 personnes dont 5 dévellopeurs, dont le rôle est de proposer des cadres de développement, en assurer la pérennité, la maintenabilité, la formation et la transformation pour répondre aux enjeux de la DSI et des métiers. Nature et étendue de la prestation Il y a 2 objectifs à cette mission : 1/ mettre en place le process qualité des développements opérés : - Assurer un leadership technique : guider l'équipe technique dans la réalisation des objectifs des projets. - Garantir la qualité du code : s'assurer que les normes de codage sont respectées afin de maintenir la qualité et la cohérence du code ; faire des revues de code. - Garantir la conformité des choix techniques par rapport à l’architecture du SI MH - Garantir le bon usage des cadres de développement et la performance des solutions produites - S'assurer de l'encrage des bonnes pratiques de dévelloppements - Aider à l'intégration des pratiques Agiles 2/ participer à la construction de la feuille de route de la solution GED : - Construire le plan de travail technique tenant compte des contraintes du RUN et des projets en cours - Participer aux choix techniques concernant les nouvelles briques applicatives - Participer à la feuille de route de mise en place du socle CI Livrables attendus & planning - compte rendu de revue de code - process qualité de réalisation - aspects techniques de la feuille de route Editique - Animation et CR d'ateliers tehcniques - reporting
Cloud Data Engineer Azure

En quelques mots Cherry Pick est à la recherche d'un "Data Azure Engineer" pour un client dans le secteur de l'énergie. Description Contexte Au sein de notre équipe Data Platform, vous interviendrez avec d'autres Data Engineers et DevOps dans les activités de création et d'interaction avec des solutions de Data Lake (Gen 2), de maintien et d'évolution du processus de déploiement automatisé avec Terraform, de développement de microservices en Python, et de monitoring et d'exploitation de la Data Platform. Vous aurez une expérience significative sur l'environnement des données en Cloud (Azure), en particulier sur les services de données : ADLS Gen 2, Data Factory, WebApp, VNET, NSG. Une expérience sur AWS (S3, VPC) est un plus. Missions Développement et gestion de la data plateforme Concevoir, déployer et maintenir une architecture Data Lake (Gen 2) sur Azure . Développer des pipelines de données avec Azure Data Factory et Databricks . Assurer le monitoring et l’exploitation de la Data Platform. Automatisation et Infrastructure-As-Code Mettre en place et améliorer les déploiements automatisés avec Terraform . Gérer les environnements cloud (Azure et AWS en option) via Docker, Kubernetes, VNET, NSG . Développement de Microservices et intégrations Développer des microservices en Python pour interagir avec les données. Concevoir des APIs et services pour faciliter l’accès aux données Sécurité et optimisation Implémenter des meilleures pratiques DevOps et Software Craftsmanship . Optimiser la performance des traitements de données . Sécuriser l’infrastructure et les accès aux données. Collaboration et méthodologie agile Travailler en méthodologie Agile (Scrum, Kanban). Collaborer avec les équipes Data, DevOps et les parties prenantes pour répondre aux besoins métiers. Être force de proposition et assurer une veille technologique continue.
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
Ingénieur Système Cloud Azure – Commémoratif – Paris La Défense (H/F) :

Contexte du poste : Nous sommes un grand groupe reconnu dans notre secteur, avec une forte présence nationale et un effectif de plus de 6 000 collaborateurs. Notre équipe IT, composée de 70 personnes, joue un rôle stratégique dans la modernisation et la transformation digitale du groupe. Dans ce cadre, nous recherchons un Ingénieur Système Cloud Azure pour renforcer notre équipe infrastructure et télécoms. L’objectif ? Remplacer progressivement les prestataires externes et internaliser l’expertise cloud, afin d’assurer la continuité et l’optimisation de nos services IT. Basé à La Défense, vous rejoindrez une équipe technique de 15 personnes travaillant sur des projets à fort impact. Avantages : - Télétravail : 2 jours/semaine après la prise en main du poste. - RTT : 12 jours/an. - Équipe technique dynamique avec une bonne cohésion. Pourquoi nous rejoindre ? - Un poste stratégique, avec un impact direct sur l’évolution du SI. - Un environnement technique stimulant, avec une forte montée en compétences sur le Cloud. - Une entreprise solide, avec des moyens pour moderniser ses infrastructures IT. - Un cadre de travail agréable, dans une équipe où l’entraide et l’échange sont valorisés.
Ingénieur expert Azure AD / DevOps

Nous recherchons pour l'un de nos clients parisiens un Ingénieur expert Azure AD / Devops Environnement Full Cloud Missions : choix des solutions, déploiement, conseil, projet Azure et Power BI beaucoup de run = beaucoup de SSO, faire les configurations N2 N3, faire des VM , beaucoup de paramétrages, savoir développer une application mais aussi savoir faire et cadrer des mini projets de migration, DAT à poser et donc savoir intégrer des nouvelles infrastructures différentes. Sur les projets à mettre en place, faut une maitrise technique O 365 et full Cloud Azure = traiter en gros des uses cases. En plus du BUILD, il y a du RUN : configurations niveau 2/3 , paramétrages, installation de VM / Azure
Expert Microsoft AZURE
Expert Microsoft Azure DevOps Nous recherchons pour notre client un Expert Microsoft Azure DevOps afin de renforcer l'équipe en charge de la modernisation des infrastructures et des déploiements applicatifs. Le consultant interviendra principalement sur l'automatisation des processus, l'optimisation des performances, ainsi que la gestion des environnements Cloud et des pipelines CI/CD, avec une expertise particulière sur la plateforme Microsoft Azure. Missions Principales : Automatisation des processus de déploiement et d'intégration continue. Optimisation des infrastructures Cloud et des performances applicatives. Gestion et sécurisation des environnements Cloud Azure. Mise en place et maintenance des pipelines CI/CD. Collaboration avec les équipes techniques et les parties prenantes pour assurer la modernisation des infrastructures. Compétences Requises : Infrastructure & Cloud : Expertise approfondie de Microsoft Azure (services cloud, gestion des ressources, sécurité). Connaissance de Kubernetes (AKS) , Docker , Terraform . Expérience avec les outils CI/CD tels que Jenkins et GitLab CI . Langages : Maîtrise de Python et Bash pour l'automatisation et le scripting. Supervision & Sécurité : Connaissance des outils de monitoring comme Splunk . Bonnes pratiques en matière de sécurité Cloud (Azure Security Center, gestion des identités et accès). Environnements : Expérience avérée sur les environnements Linux et Cloud (Azure en priorité) .
Consultant DevOps Azure / GCP

Nous recherchons pour notre client un Consultant DevOps confirmé. L’objectif est de renforcer l’équipe DevOps en charge de la modernisation des infrastructures et des déploiements applicatifs. Le consultant interviendra sur l’automatisation des processus, l’optimisation des performances et la gestion des environnements Cloud et CI/CD. Compétences Recherchées : Infrastructure & Cloud : Kubernetes, Docker, Terraform, Ansible, CI/CD (Jenkins, GitLab CI) Langages : Python, Bash Supervision & Sécurité : Prometheus, ELK, Dynatrace Environnements : Linux, Cloud (GCP, Azure)
Développeur fullstack .Net Angular Azure
En tant que développeur Full Stack, vous travaillerez sur des projets à fort impact qui visent à automatiser les processus, à réduire les risques opérationnels et à améliorer l'efficacité de nos systèmes. Vous serez impliqué(e) à la fois dans le développement de projets et dans les activités de support de 2ème/3ème niveau, en mettant à profit votre expertise technique pour défier et collaborer avec une équipe de professionnels hautement qualifiés. Principales responsabilités : Développer et maintenir des applications, en traduisant les cas d'utilisation en solutions fonctionnelles. Concevoir, construire et fournir un code de haute qualité et évolutif en adhérant aux meilleures pratiques en matière de codage, de sécurité et de test. Collaborer étroitement avec les parties prenantes, les analystes et les autres équipes informatiques pour s'assurer que les solutions correspondent aux besoins des utilisateurs et aux objectifs du projet. Fournir des estimations de la charge de travail, identifier les goulets d'étranglement et proposer des solutions pour une amélioration continue. Maintenir la documentation technique en anglais et assurer la formation des membres de l'équipe. Principales responsabilités : Développer et maintenir des applications, en traduisant les cas d'utilisation en solutions fonctionnelles. Concevoir, construire et fournir un code de haute qualité et évolutif en adhérant aux meilleures pratiques en matière de codage, de sécurité et de test. Collaborer étroitement avec les parties prenantes, les analystes et les autres équipes informatiques pour s'assurer que les solutions correspondent aux besoins des utilisateurs et aux objectifs du projet. Fournir des estimations de la charge de travail, identifier les goulets d'étranglement et proposer des solutions pour une amélioration continue. Maintenir la documentation technique en anglais et assurer la formation des membres de l'équipe. Travailler avec une pile technologique moderne comprenant C#, .NET Core, Angular, SQL, MongoDB, Azure et les API REST. Contribuer activement à l'évolution de l'architecture du système, car on joue un rôle central dans la migration en cours de notre système de réservation. Compétences techniques requises : Maîtrise de C#, .NET Core, Angular et SQL. Expérience des bases de données NoSQL (MongoDB de préférence). Connaissance des plateformes cloud (Azure) et du développement d'API RESTful. Familiarité avec les pratiques TDD (Test-Driven Development). Une expérience avec des technologies frontales modernes comme AG Grid est un plus.
Azure DataBricks Engineer

Intégration et packaging d'algorithmes d'IA de reconnaissance d'image et de détection d'obstacles Création d'un système de calcul automatisé pour générer des cartes résumant des informations stratégiques (surface exploitable, PPA, rentabilité des installations). Conception d'un algorithme de scoring pour un système de recommandation des leads commerciaux, améliorant la pertinence des recommandations aux équipes de prospection. Analyse des données afin d'identifier les critères pertinents pour le système de recommandation. Développement de pipelines ETL sur Databricks avec PySpark , garantissant un traitement efficace et scalable des données. Déploiement des algorithmes sur Databricks , optimisant la performance et minimisant les coûts opérationnels. Gestion des données issues de sources multiples (AWS Data Lake S3, PostGIS) pour assurer une interopérabilité fluide entre bases de données. Livrables : Code validant les User Stories définies dans le board projet. Tests unitaires et d'intégration pour assurer la validation continue des fonctionnalités. Documentation technique et utilisateur. Système de génération automatique d'autolayout pour panneaux solaires. Algorithme de scoring pour le système de recommandation client. Solutions packagées et prêtes à déployer. Mise en production avec gestion de la transition vers l'exploitation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Problème avec l’URSSAF : sortie de la micro-entreprise à cause d’une erreur de déclarationil y a 3 heures
- SASU IR : Hiway et versement résultatsil y a 3 heures
- Questionnement Client final /Apporteur d'affaires / Salarié portéil y a 4 heures
- Proposition de CDI en tant que freelanceil y a 12 heures
- Achat Téléphone (2)il y a 13 heures
- baisse demande de prestas et freelance ?il y a 13 heures