Trouvez votre prochaine offre d’emploi ou de mission freelance Directeur·rice / Responsable de département (de division, service) à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur Azure Infrastructure / DevOps▸ Pharmaceutique (3j TT/sem)
🔥 VOTRE MISSION : Concevoir, industrialiser et maintenir l’infrastructure Azure pour garantir une disponibilité, une sécurité et une scalabilité optimales. Développer et optimiser des recettes d'infrastructure , en appliquant les meilleures pratiques et en garantissant une documentation rigoureuse. Collaborer avec les équipes pluridisciplinaires (développeurs, architectes, experts sécurité, etc.) pour assurer l'intégration des services applicatifs. Créer et maintenir des pipelines CI/CD , en utilisant des outils tels que GitHub Actions et Azure DevOps . Superviser l’automatisation de l'infrastructure avec des outils comme Terraform , Terragrunt et Checkov , tout en veillant au respect des politiques de sécurité. Intégrer des solutions de conteneurisation (Docker, Kubernetes) pour optimiser le déploiement et l’orchestration des applications. Assurer une veille continue et proposer des améliorations en termes de sécurité, performance et résilience.
Mission freelance
Consultant Transaction Services (H/F) - 75
Mon client recherche un Consultant Transaction Services Senior pour une mission freelance de 3 mois minimum. Poste à Paris (75) - Accompagner le client dans la gestion de financements - Gestion des projets de manière autonome - Gestion du modèle financier - Travail avec l'équipe finance et les équipes internes - Etre le lien dans la relation avec les banques - Gérer l'interface avec une éventuelle équipe externe - Préparer les documents financiers - Problématiques financières plutôt "gros" mid ou large cap
Mission freelance
Développeur Node Angular AWS (Mission longue)
Vos tâches toucheront en un premier temps au développement. L’équipe est composée de 2 développeurs. Vous aurez pour mission : - Le développement de nouvelles fonctionnalités - Maintenir la CI/CD sur GitLabCI - Maintenance de la plateforme sur le cloud (OVH, Kubernetes) - Gestion des machines et serveurs - Maintenance opérationnelle (gestion des montées de versions, maintenance technique, etc..) Vous devrez également : - Rédiger la doc de conception technique - Développer des Users Stories - Corriger des anomalies - Rédiger des tests unitaires - Déployer ses développements - Maintenir la CI/CD - Maintenir la plateforme de production - Mettre à jour ses tickets dans JIRA
Mission freelance
Développeur Python AWS
En tant que Développeur Back-End, vous serez responsable de la conception et du développement des services back-end, en particulier autour des API, de l'intégration avec des services AWS, et du scripting pour automatiser les tâches courantes. Vous travaillerez principalement avec Python , en utilisant les services d' Amazon Web Services (AWS) pour déployer et maintenir des applications scalables, performantes et sécurisées. Responsabilités : Développement de services API : Concevoir et développer des API RESTful robustes et sécurisées en utilisant Python et des frameworks tels que Flask ou Django . Intégration AWS : Développer et intégrer des services avec les solutions cloud d'Amazon Web Services (Lambda, S3, EC2, RDS, API Gateway) pour assurer une scalabilité et une haute disponibilité des applications. Scripting et automatisation : Créer des scripts d'automatisation pour des processus liés à l'infrastructure, au déploiement (CI/CD) ou à la maintenance de services (Bash, Python). Optimisation des performances : Identifier et résoudre les goulots d'étranglement dans les applications, en optimisant les temps de réponse et la gestion des ressources cloud. Sécurité et conformité : Implémenter des mesures de sécurité pour protéger les données sensibles, en gérant les permissions et les authentifications via AWS IAM et OAuth2/OpenID pour les API. Intégration continue et déploiement : Participer à la mise en place de pipelines de CI/CD en collaboration avec l'équipe DevOps pour automatiser les tests et déploiements (AWS CodePipeline, Jenkins, GitLab CI). Maintenance et support : Assurer la maintenance des services back-end et apporter un support aux équipes de développement pour résoudre des problèmes techniques ou optimiser les processus.
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Mission freelance
C# Developer – Pricing Services
Notre client, Banque de Finance et d'Investissement, recherche un C# Developer – Pricing Services (H/F) dans le cadre d'une longue mission. Contribuer au développement, à l'extension et au support des composants orientés grid et cloud pour le service Pricing et Risques au sein de la banque. - Développement de services en C#/.Net Core et C++. - Participation à la gouvernance architecturale et à la roadmap du projet. - Implémentation de solutions d'intégration hybride (cloud et on-premise). - Conception d’algorithmes parallèles et distribués. - Optimisation de la performance et gestion des outils de mesure. - Collaboration avec les équipes Front Office, Risk Management et Quantitative Analysts. - Gestion et orchestration des conteneurs (Docker, Kubernetes). - Intégration avec des outils de CI/CD (GitLab, Jenkins, Artifactory, Ansible). Livrables - Services sécurisés et optimisés répondant aux besoins des utilisateurs Front Office et risques. - Solutions hybrides intégrant le cloud et on-prem. - Documentation technique des algorithmes et des composants développés.
Mission freelance
Ingénieur Cloud Platform GCP & AWS
Dans le cadre d’un remplacement, notre client recherche un Platform Engineer au sein de l’équipe Cloud Development. Cette équipe est en charge: Du développement d’une API permettant d'orchestrer les interconnexions des nouveaux projets Du développement d’un provider Terraform permettant de consommer l’API De l’accompagnement des équipes sur leur utilisation Du développement d’outils liés : Fronts web, CMDB, … De la mise en place de l’écosystème associé: CI/CD, Monitoring, ... L’équipe est actuellement composée de 4 ingénieurs et d’1 manager. Vos missions : - Vous participez à la conception et au développement de l’orchestrateur - Vous aidez à l’application des bonnes pratiques de développement d’engineering (pratiques de tests, Architecture Decision Record, …) - Vous travaillez en collaboration avec les équipes de la CPE sur le développement des features de notre plateforme - Vous assistez les clients internes à l’utilisation des solutions gérées par l’équipe - Vous participez aux mentoring des collaborateurs (Peer Programming, Peer Review) - Vous assurez le Run et l’astreinte (une semaine toutes les 4 semaines) sur les composants de l’équipe - Vous êtes amené à vous déplacer sur Lille (vie du collectif, évènements d'équipe ou de BU) L'environnement technique : Cloud Service Providers : GCP & AWS Python (FastAPI) Go (Terraform Plugin Framework) Github, Github actions Datadog GCP Cloud Run & GCP Workflows Terraform Processus : 2 entretiens Go - No Go
Offre d'emploi
Finops AWS AZURE
💼 Poste : Finops AWS AZURE 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Après une première phase d’acculturation aux bonnes pratiques Finops des équipes *CR réalisée sur Q1 2024, il s’agit maintenant de réaliser en mode proactif l’analyse Finops du parc applicatif afin d’identifier les gains possibles, en particulier sur le cloud privé. Dans ce cadre la prestation consiste à contribuer à/au(x) : Mettre en pratique la démarche Finops au sein de l’équipe RCR et prouver la valeur apportée Documenter les étapes de cette première analyse afin d’être en mesure de la reproduire sur d’autres périmètres, auprès d’autres clients. Présenter les constats et recommandations issus de cette première analyse à notre client, au niveau managérial et opérationnel. Livrables attendus Les livrables attendus sont : Documentation de la démarche suivie à fin de reproduction sur d'autres périmètres applicatifs Compte-rendu de l'analyse Finops réalisée pour présentation des constats et assistance au client (aux niveaux managérial et opérationnel) 🤝 Expertises spécifiques : Amazon Web Services ( AWS ) Compétences en développement (Shell unix, Perl, PHP, Python, git, github) MS Azure
Offre d'emploi
Expert réseau et sécurité cloud AWS F/H/X
Rejoignez notre équipe en tant qu'Expert.e Réseau et Sécurité sénior ! Nous recherchons un exert réseau et sécurité ayant travaillé dans un environnement cloud AWS. Avec une expérience solide dans la conception et la gestion des infrastructures réseau, vous serez au cœur de notre transformation digitale. Vous aurez l'opportunité de travailler sur des projets innovants, d'optimiser les performances et de garantir la sécurité de nos systèmes. Si vous êtes passionné.e par les technologies réseau et prêt à relever de nouveaux défis, ce poste est fait pour vous !
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Offre d'emploi
CC / ARCHITECTE SOLUTION AWS MDM
Missions principales : Conception de l'architecture MDM sur AWS : Élaborer et mettre en place des solutions MDM robustes sur AWS. Définir l'architecture globale pour la gestion des données de référence en assurant la scalabilité et la sécurité. Gouvernance des données : Mettre en oeuvre les processus et les règles de gouvernance des données de référence. Garantir la qualité, l'intégrité et la disponibilité des données MDM. Intégration et Interopérabilité : Intégrer les solutions MDM avec les systèmes existants (ERP, CRM, applications métiers, etc.). Assurer la communication fluide des données entre les différents systèmes via des API et des pipelines de données. Support et optimisation : Assurer le support technique et les optimisations continues des solutions MDM sur AWS. Identifier les opportunités d'amélioration et proposer des solutions innovantes. Sécurité et conformité : Appliquer les bonnes pratiques de sécurité et assurer la conformité avec les standards en vigueur (RGPD, etc.).
Offre d'emploi
Chef de projet infrastructure / AWS
Nous recherchons un Chef de Projet IT Senior pour accompagner un projet stratégique de migration vers le cloud au sein d’un grand groupe industriel. Une expérience avérée en projets de migration AWS est essentielle pour ce poste. Pilotage du projet : Élaboration du planning, gestion des équipes, et coordination des contributeurs techniques. Migration vers le Cloud (AWS) : Supervision des étapes clés (inventaire, stratégie de migration, lotissement par vagues) en s'appuyant sur votre expérience préalable. Suivi et reporting : Préparation des réunions hebdomadaires et mensuelles, création de livrables (notes de cadrage, rapports d’avancement). Support technique : Collaboration avec les équipes internes et les partenaires externes pour garantir le succès des migrations. Expérience : Minimum 5 ans en gestion de projets IT avec une expertise en infrastructures et cloud, dont des projets de migration vers AWS. Compétences techniques : Bonne connaissance des environnements Windows, Linux, VMware, AWS , et des outils de sauvegarde ( Veeam, Netbackup , etc.). Langues : Français courant et anglais professionnel requis. Soft skills : Leadership, communication, et capacité à gérer des équipes transverses.
Mission freelance
AWS Data Engineer
Les ingénieurs data de l’équipe ont deux missions principales : a. Maintien en condition opérationnelle de la plateforme : Assurer la disponibilité des données et des services de la plateforme Communiquer avec les utilisateurs de la plateforme Répondre aux demandes de données ad hoc ou à l'analyse des anomalies Développer des correctifs et des évolutions de la plateforme Contribuer à la qualité des données et à l’industrialisation de la plateforme b. Conception et développement de services et de pipelines de données performants et fiables : Mettre en place des flux d’acquisition et d’exportation de données Effectuer des modélisations de données Développer des pipelines de transformation Réaliser les tests unitaires et d'intégration Veiller à la qualité des développements et au respect des standards via les revues de code Gérer les dépendances entre les traitements et les ordonnancer Réaliser les déploiements dans tous les environnements Maintenir et enrichir la documentation de la plateforme
Offre d'emploi
Finops AWS AZURE
💼 Poste : Finops AWS AZURE 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Après une première phase d’acculturation aux bonnes pratiques Finops des équipes *CR réalisée sur Q1 2024, il s’agit maintenant de réaliser en mode proactif l’analyse Finops du parc applicatif afin d’identifier les gains possibles, en particulier sur le cloud privé. Dans ce cadre la prestation consiste à contribuer à/au(x) : Mettre en pratique la démarche Finops au sein de l’équipe RCR et prouver la valeur apportée Documenter les étapes de cette première analyse afin d’être en mesure de la reproduire sur d’autres périmètres, auprès d’autres clients. Présenter les constats et recommandations issus de cette première analyse à notre client, au niveau managérial et opérationnel.
Mission freelance
dev node.js / react AWS
stack technique: React / NodeJS / ShadCN / AWS / MySQL Nos outils: Slack, ClickUp, Notion, Chargebee, Pipedrive etc.. Vos Missions Vous serez le bras droit du lead developper sur notre logiciel CRM et vous intégrerez une équipe technique composée de 5 personnes (CTO, 2x full stack, 1 lead dev mobile, 1 product designer) Concevoir et développer de nouvelles features pour notre logiciel CRM Faire le lien avec les équipes support et résoudre les bugs remontés Développer et maintenir les APIs existantes Coder, tester et mettre en prod son travail pour être autonome rapidement Votre Profil De formation supérieure en informatique, vous disposez d’une expérience de 1 à 3 ans dans le développement Fullstack. De préférence, vous bénéficiez de la double compétence Node.js et React.js. Vous justifiez idéalement d’une première expérience en tant que developer au sein d’une petite équipe. Vous êtes déjà capable de faire des choix techniques. Vous êtes curieux, autonome, vous avez un regard critique et vous disposez d’une grande capacité à évoluer. Vous n’avez pas peur de mettre les mains dans le cambouis, vous êtes un doer ! Si vous aimez le sport, c’est également un grand plus :-)
Offre d'emploi
Ingénieur de production Open/MVS (expert prod)
Dans le cadre de notre croissance, nous recherchons un(e) Ingénieur(e) de Production pour rejoindre nos équipes et contribuer à garantir la disponibilité, la performance et la sécurité des systèmes en environnement de production. En tant qu’Ingénieur(e) de Production, vous jouerez un rôle clé dans la gestion des environnements critiques de nos clients. Vos principales responsabilités seront : Gestion des environnements de production : Superviser et maintenir les systèmes, applications, et infrastructures en production. Diagnostiquer et résoudre les incidents en garantissant un niveau de service optimal. Industrialiser les processus de production pour améliorer la stabilité et l’efficacité. Automatisation et amélioration continue : Développer des scripts d’automatisation pour optimiser les tâches répétitives (Shell, Python, etc.). Participer à la mise en place de solutions CI/CD pour fluidifier les déploiements applicatifs. Collaborer avec les équipes DevOps pour garantir une intégration fluide entre le développement et la production. Sécurité et conformité : Garantir la conformité des environnements de production avec les normes de sécurité et les politiques internes. Réaliser des analyses de risques et proposer des solutions correctives. Support et collaboration : Assurer un support de niveau 2/3 pour résoudre les incidents complexes. Travailler en étroite collaboration avec les équipes techniques (développement, réseau, cloud) et métier. Mainframe OBLIGATOIRE, tâches de développement ponctuels à réaliser
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- EURL ou Micro-Entreprise ? Besoin de conseils !
- Radiation Micro entreprise - Declaration dernier chiffre d'affaire
- Mini activité - faire bilan seule ?
- Création application avec Fluterflow
- Prélèvement à la source pour EURL IS
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?