Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Offre d'emploi
Développeur FullStack Confirmé Java / Spring Boot / AWS
Nous recherchons un développeur FullStack Confirmé Java / Spring Boot / AWS avec une forte appétence et une expertise sur la partie BackEnd (Java 21 & Spring 3 minimum). 4 ans d'expérience effective à minima Compétences requises : • Expertise Java (minimum version 21) avec back-end sur Framework Spring Boot (minimum 3.x) • Expérience avec AWS : Connaissance des services AWS tels que EC2, S3, RDS, Lambda, et IAM. • Déploiement et gestion d’applications : Compétences en CI/CD avec GitLab CI. • Outils de conteneurisation : Familiarité avec Docker et Kubernetes pour le déploiement et la gestion des conteneurs. • Expériences de conception et développement d’API REST (JSON) • Maitrise des principes d’architectures distribuées avec architectures MVC et expériences de mise en œuvre d’ORM (Hibernate, Spring Data) • Maîtrise des frameworks de tests unitaires et fonctionnels (Junit, Cucumber) • Maitrise de base de données : Redis • Connaissances développement Front (React) • Connaissances poussées sur Git • Compétences en optimisation / refactorisation de code et maitrise des principaux design patterns • Maitrise des tests (unitaires, d’intégration, de robustesse, de fiabilité, de performance (avec notions temps-réelles de multithreading) • Expériences d’OS Linux (RHEL8), programmation shell Les compétences fonctionnelles attendues sont les suivantes : • Expériences en méthodologie Agile et capacités à suivre les processus d’équipe • Expériences et capacité à prendre en compte le Métier Les livrables du projet (projet Java & hébergé sur AWS) Prise de connaissance de l’architecture technico-fonctionnelle des briques composant VIATRAM Maintien en condition opérationnelle de la solution et du produit, notamment l’intervention sur incident Participation aux Daily Meeting, à l’estimation (Planning Poker) et la priorisation du Backlog Prise en charge des études, conception, et réalisation de l’architecture avec prise en compte des exigences et contraintes Chiffrage des User Stories et participation à la roadmap produit Prise en charge des User Stories Développement des fonctionnalités priorisées Développement des tests technico-fonctionnels et de performance Démonstration des fonctionnalités développées lors des réunions d'itérations Rédaction de la documentation technique Revue de code, refactoring, optimisation Garant des performances et de la haute disponibilité de la solution Accompagnement et communication, partage des concepts, et formation Livraison finale, Mise en Service (MeS), et REX

Mission freelance
Lead Développeur Python
Contexte Dans un environnement en pleine transformation digitale, la plateforme applicative joue un rôle clé dans la gestion et l’optimisation des infrastructures énergétiques. L’objectif est de garantir une application performante, évolutive et sécurisée, en intégrant des enjeux tels que la réduction des émissions de gaz à effet de serre et le développement des énergies renouvelables. Missions En tant que Lead Developer Python , vous interviendrez sur le maintien en condition opérationnelle et l’ évolution de la plateforme applicative. Vos responsabilités incluent : Assurer la maintenance et l’optimisation de l’application. Développer de nouvelles fonctionnalités, notamment : Interfaces utilisateurs en React . APIs Back For Front . Refonte du back-end pour améliorer la scalabilité et la performance. Rédiger des tests unitaires et des tests end-to-end (Playwright). Participer au support applicatif pour les autres équipes.

Offre d'emploi
Développeur React JS senior - Lille
Bonjour, Dans le cadre de ses projets clients Visian est à la recherche d'un developpeur React JS senior : Tâches: Vous êtes Sénior/Expert en développement Front avec au minimum 7/8 ans d'expérience sur des postes de développeurs en ReactJS, idéalement avec une expérience sur Drupal dans un contexte Agile très fort mais également DevOps afin de pouvoir participer aux livraisons en Hors Prod et en Prod. Nous travaillons sur une infra AWS donc ce serait un vrai plus que le candidat connaisse AWS et ait déjà travailler dans un contexte Agile (Scrum) et DevOps (travail en binôme avec un Ops). L'activité principale reste le développement Front ReactJS et de l'intégration HTML sur des sites en ReactJS/Java et en ReactJS/Drupal que vous aurez à votre charge et réaliser des US techniques et/ou fonctionnelles. Cependant les développements Front étant connectés à un back Java et Drupal, il faut idéalement avoir une certaine maîtrise des interconnexion Front/Back tant en Java qu'en Drupal ou en tout cas avoir le souhait de monter en compétence sur le CMS. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia

Mission freelance
Consultant Sécurité Cloud Azure - AWS H/F
Nous recherchons un(e) Consultant Sécurité Cloud Azure - AWS H/F pour l'un de nos clients grand compte. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : * Assistance sur la mise en place et les évolutions des offres pour l'ensemble du groupe sur les aspects sécurité Cloud Azure et AWS en garantissant le respect des normes et standards de sécurité et d’architecture * Analyse des risques et vulnérabilités associés aux initiatives Cloud * Identification des contrôles de sécurité a implémenter sur nos environnements Cloud Azure/AWS, gestion de leur bonne implémentation ainsi que du maintien en condition opérationnel de ces contrôles * Traitement des anomalies de sécurité sur nos environnements Cloud Azure/ AWS * Pilotage de la sécurité opérationnelle des infrastructures Public Cloud Azure/AWS utilisées par les applications du périmètre. * Contribution aux actions de conseil sécurité en étant force de proposition sur des moyens qui pourraient correspondre à des besoins métiers identifiés * Représentation ISR/DDR sur les aspects Cloud auprès des autres entités SSI du Groupe.

Offre d'emploi
Ingénieur FinOps Sénior
DÉBUT 03/03/2025 DURÉE 24 mois LIEU Île-de-France, Bordeaux Hybride CATÉGORIE TECHNIQUE Systèmes (Infras, Cloud, DevOps, ...), réseaux, sécurité Compétences exigées Move to Cloud (Confirmé) FinOps (Expert) Cloud (Confirmé) Anglais bilingue (Expert) Descriptif de la mission Nous recherchons un Ingénieur / Consultant FinOps (H/F) pour accompagner nos clients dans l’optimisation de leurs coûts cloud et l’amélioration de la gouvernance financière des infrastructures IT . Vous interviendrez dans le cadre de projets de migration vers le cloud (Move2Cloud) et assurerez la mise en place de bonnes pratiques FinOps afin d’optimiser l’usage des ressources cloud. Missions principales Définir, mettre en œuvre et piloter les stratégies FinOps pour optimiser les coûts des environnements cloud. Accompagner les équipes IT et Finance dans l’adoption et la mise en place des bonnes pratiques FinOps . Analyser les dépenses cloud (AWS, Azure, GCP) et proposer des stratégies d’ optimisation . Mettre en place des outils et des tableaux de bord de suivi des coûts et de la performance. Conduire des audits de consommation cloud et évaluer les opportunités d’économies. Accompagner les projets de migration vers le cloud (Move2Cloud) en assurant un suivi budgétaire précis. Assurer une veille technologique et partager les bonnes pratiques FinOps et Cloud avec les équipes internes. Profil recherché Diplômé(e) d’une école d’ingénieur ou d’un master en informatique, cloud computing ou équivalent . Expérience confirmée en FinOps et en gestion de la consommation Cloud . Expérience sur des projets de migration vers le Cloud (Move2Cloud) . Maîtrise des principaux fournisseurs cloud AWS, Azure, GCP . Connaissance des outils FinOps et de monitoring des coûts (CloudHealth, Apptio, Cost Explorer, etc.). Compétences en scripting (Python, Terraform, etc.) appréciées. Anglais bilingue indispensable. Excellentes compétences analytiques et capacité à travailler en mode projet dans des environnements complexes.
Mission freelance
Développeur Backend Python FastAPI
Je recherche un Développeur Backend Python (5 ans d’expérience minimum) pour une mission chez une scale-up innovante qui révolutionne la gestion des avantages salariés. 🎯 👉 Le projet : L’entreprise développe une plateforme SaaS tout-en-un qui simplifie l’accès aux titres-restaurant, à la mobilité, aux chèques cadeaux et autres avantages sociaux. Son objectif : offrir une expérience fluide et optimisée aux employés et aux entreprises. 🔎 Stack & compétences requises : ✅ Python (5 ans d’expérience minimum) ✅ FastAPI (2 ans min) ou Flask (expertise requise si moins d’expérience sur FastAPI) ✅ Architecture microservices ✅ AWS & expérience avec des environnements de production ✅ Bonne maîtrise des tests d’intégration ✅ Connaissance en gestion des tâches asynchrones (un plus) ✅ Autonomie et force de proposition 📍 Infos pratiques : 📌 Localisation : Paris 11e (bientôt Paris 8e) 💻 Télétravail : 2 à 3 jours/semaine 💰 TJM : 580€ 📆 Durée : 3 mois renouvelables Si vous êtes dispo et intéressé(e), postulez !

Mission freelance
Finops
Nous recherchons un profil FinOps pour un client dans le domaine de l'assurance, pour une mission de 6 mois renouvelables. Vos missions seront multiples : Analyser les dépenses relatives au services Cloud; Maintenir à jour un tableau de bord PowerBI en temps réel des dépenses et des optimisations économiques; Suivre quotidiennement les dépenses et alerter en cas de dérive ; Convenir de plan d'action avec les équipes opérationnelle, suivre ces plans d'action lorsqu'il le faut; Rechercher des voix alternatives de réduction de coûts et les faire valider par les différentes parties prenantes; Piloter la mise en œuvre des solutions de réduction de coûts retenues; Estimer les ROI et TCO des éventuelles migrations de ressources dans le Cloud.

Offre d'emploi
Data Engineer - AI - Confirmé H/F
🚀 Vos Missions : 1. Collecte et Exposition des Flow Metrics : • Collaborer avec le Lean Agile Center pour définir les besoins. • Configurer la collecte de données, les datasets et les dashboards QuickSight. • Suivi des indicateurs : Cycle Time, Throughput, Backlog Age, etc. 2. Exposition des DORA Metrics : • Intégration des données issues de ServiceNow et Splunk O11Y . • Déploiement des dashboards pour piloter la performance des équipes. 3. Amélioration de l’Expérience Utilisateur de R2D2 : • Proposer des Topics pour créer des visualisations QuickSight en langage naturel. • Intégrer des modèles prédictifs via AWS SageMaker . • Développer une expérience conversationnelle avec AWS Bedrock .

Mission freelance
Développeur Python (Kubernetes - Databricks - Terraform - Cloud)
Missions Développer et optimiser les flux de données et pipelines sur Databricks . Implémenter et gérer des solutions basées sur Kubernetes , en particulier autour de Colibra . Participer à la migration des outils SaaS en s’assurant de leur intégration dans l’écosystème du client. Automatiser les déploiements et la gestion de l’infrastructure avec Terraform . Travailler en collaboration avec les équipes Cloud et Data pour garantir la scalabilité et la performance du Data Lake sur Azure et AWS . Assurer la sécurité et la gouvernance des données dans l’environnement Cloud. Compétences Techniques Requises Python ( maîtrise exigée ) Cloud : AWS & Azure (expérience confirmée) Kubernetes (expérience avancée) Databricks (maîtrise exigée) Terraform (maîtrise exigée)

Mission freelance
Platform Engineer AWS/Kubernetes/Terraform (H/F)
👉Rôle de Platform Engineer au sein d'une équipe infrastructure. Gestion de la couche basse de l'infrastructure (landing zone, network, sécurité IAM, SSO, access management etc), accélérer le delivery, réduire le TTM, mise en place du tooling. Cloud AWS et Gestion du Réseau Intégration et Déploiement Continu (CI/CD) Infrastructure as Code (IaC) et Automatisation 👉Environnement technique : AWS, Kubernetes, Loki, Grafana, Terraform, ArgoCD, Jenkins, Gitlab 👉Mission freelance longue, jusqu'à 3 ans possible

Offre d'emploi
Data Engineer Spark/aws
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Spark/AWS Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables Définir et analyser des structures de données, Contribuer aux assets des différentes équipes produits pour interconnecter et collecter les données, Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire), Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés), Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, Présenter et expliquer les réalisations à des publics métiers et techniques.

Mission freelance
Expert Azure - AWS H/F
Nous recherchons un(e) Expert Azure - AWS H/F pour l'un de nos clients grand compte. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Intégration des applications dans le Cloud Public (création des environnements, configuration des VPC/VNET, réalisation de la connectivité...) - Conception et mise en place des solutions automatisées de construction packagées pour nos projets utilisateurs (Jenkins, Github Action, Terraform) - MCO, le support, la sécurisation de nos Landing Zones Cloud Public Azure et AWS (Connectivity, Network) - Suivi avec les contributeurs (Architectes, SecOps, Feature Teams, Production Teams) pour définir collectivement les solutions techniques d'implémentation des infrastructures sur le Cloud Public

Offre d'emploi
Data Engineer -AI
Nous sommes à la recherche d'un(e) : Data Engineer - AI • Collecte et Exposition des Flow Metrics : - Collaborer avec le Lean Agile Center pour définir les besoins. - Configurer la collecte de données, les datasets et les dashboards QuickSight. - Suivi des indicateurs : Cycle Time, Throughput, Backlog Age, etc. • Exposition des DORA Metrics : - Intégration des données issues de ServiceNow et Splunk O11Y. - Déploiement des dashboards pour piloter la performance des équipes. • Amélioration de l’Expérience Utilisateur de R2D2 : - Proposer des Topics pour créer des visualisations QuickSight en langage naturel. - Intégrer des modèles prédictifs via AWS SageMaker. - Développer une expérience conversationnelle avec AWS Bedrock.

Offre d'emploi
Expert Azure et AWS
Je recherche pour un de mes clients dans le secteur bancaire , un expert Azure et AWS afin de : Mettre en oeuvre plusieurs évolutions de son socle technique (InfraOps) principalement sur AWS, mais également sur Azure. - Intégration des applications dans le Cloud Public (création des environnements, configuration des VPC/VNET, réalisation de la connectivité…) - Conception et mise en place des solutions automatisées de construction packagées pour nos projets utilisateurs (Jenkins, Github Action, Terraform) - MCO, le support, la sécurisation de nos Landing Zones Cloud Public Azure et AWS (Connectivity, Network) - Suivi avec les contributeurs (Architectes, SecOps, Feature Teams, Production Teams) pour définir collectivement les solutions techniques d'implémentation des infrastructures sur le Cloud Public

Offre d'emploi
Product Owner Salesforce
Le Product Owner intègrera une équipe en cours de construction, visant à aider le business à : - s’approprier les sujets IT - à piloter leurs besoins métiers par la valeur - à suivre et prioriser des backlogs produits Les activités clés de cette mission sont notamment : - recueillir et prioriser les besoins métier en accord avec les Product Managers (PM) - participer aux cérémonies agiles Scrum et SAFe ( Sprint planning, Program Increment Planning, PO sync, rétrospectives…) - se coordonner avec les Business Owners, Product owners (des applicatifs en lien) ou tout autre parties prenantes - gérer les phases de conception, rédiger des users stories et les cas de tests associés, - réaliser des tests et valider des développements, accompagner le changement auprès des utilisateurs (démo de déploiement, mise en place des processus métier, transfert de connaissance…). - préparer des communications, des feedbacks (pour le comité de pilotage, le manager…), alimenter le canaux de communication du projet ou autres - Être clairement identifié comme le relai des Business Owners dans le suivi du delivery - Animer une communauté de Business Owners de l’application concernée - enrichir la documentation (Confluence…) - partager les bonnes pratiques sur la gestion du backlog ( process de recette, gestion des charges …) Livrables attendus a minima : - User stories / fonctionnalités sous DevOps - Cas de test liés aux User stories sous DevOps - Fichiers de suivi des recettes sur DevOps (Ou Excel si très transverse) - Fichiers de suivi des gestes pré et post Mise en production - Documents de communication, déploiement - Mesure de l’usage des produits livrés En cas de projets : - Réalisation de cadrage projet : rédaction de la scoping note, définition du MVP, définition des acteurs, des datas sources, ..…) - Comptes-rendus des ateliers fonctionnels, et techniques si nécessaire (pour construire la documentation) - Schéma d’architecture fonctionnelle à travailler avec l’architecte fonctionnelle et les équipes de delivery - Diagrammes de séquence à formaliser avec le lead tech - KPI de suivi de projet

Offre d'emploi
MOE, RMOE, coordinateur technique intégration système
Au sein du département des Systèmes d’Information et des Télécommunications, une unité dédiée au développement digital a pour principales missions la conception, le développement, l’exploitation et la maintenance des systèmes d’information. Dans cette structure, une équipe spécialisée en systèmes d’information est composée d’ingénieurs en charge du bon fonctionnement opérationnel d’applications dédiées aux métiers de la maintenance, des travaux et de l’ingénierie. C’est dans ce cadre que cette équipe assure la maîtrise d’œuvre d’un projet de renouvellement du système de gestion de la maintenance assistée par ordinateur (GMAO) pour un département dédié à la maintenance et aux infrastructures. Compétences techniques attendues Maîtrise des principes et fondamentaux de la GMAO Connaissance du progiciel Maximo Connaissance des architectures et du déploiement dans le cloud AWS Maîtrise des outils de sécurité et de monitoring ( Datadog, APM ) Maîtrise des outils de ticketing ( Mantis, Jira ) Connaissance des outils de gestion de versions décentralisés ( Git ) Connaissance de Qlik, Talend, Amazon MSK Connaissance en architecture applicative Expérience avec une équipe progiciel en mode cycle en V
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.