Trouvez votre prochaine offre d’emploi ou de mission freelance Directeur·rice / Responsable de département (de division, service)
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Expert Azure DevOps
F2k Computing est à la recherche d'un Expert Azure & DevOps : Mission : CI/CD : Infrastructure as Code (IaC): Niveau Expert Azure Compute: Expérience sur Azure Virtual Machines, App Services, Azure Kubernetes Service (AKS), and Azure Functions. Azure Networking: Maîtrise du Virtual Networks, Subnets, VPNs, Azure Load Balancer, and Application Gateway. Azure Storage Services : Maîtrise du stockage de type Azure Blob Storage, Azure Files, Azure SQL Database, et Cosmos DB. Git & GitHub/GitLab/Bitbucket: Forte expérience sur les outils Git workflows, branching strategies, et pull requests. Azure Repos : Bonne expérience sur Azure DevOps for version control et collaboration. Automation Tools : Bonne connaissance du TeamCity, ou Travis CI, alongside Azure DevOps, pour gérer les pipelines d’automatisation. Kubernetes: Bonne expérience sur Azure Kubernetes Service (AKS) to manage containerized applications, Terraform: Maîtrise de Terraform pour implémenter les infrastructures Azure. Ansible / Chef / Puppet: Expérience dans l'utilisation d'outils de gestion de configuration Azure Monitor & Log Analytics: Possibilité de surveiller les applications, de configurer des alertes et de gérer les données de journaux à l'aide d'Azure Monitor, Log Analytics et Application Insights. Anglais Obligatoire
Offre d'emploi
Data Engineer AWS
Nous recherchons un Data Engineer AWS expérimenté pour intervenir sur un projet d’envergure dans le secteur bancaire. Le rôle inclut : L’ingestion, la transformation et l’exposition des données à l’aide de services AWS . L’optimisation des flux de données et l’intégration dans un environnement Cloud AWS . La mise en œuvre de solutions robustes pour le traitement et l’analyse des données. Vous serez amené(e) à collaborer avec les équipes techniques et métiers pour garantir des livrables de qualité dans un environnement dynamique et innovant.
Mission freelance
Chef de projet Migration/Accompagnement au changement - Offre de services Data
Rejoignez un projet stratégique en Freelance et faites la différence ! Nous recherchons un professionnel Freelance hautement qualifié pour intégrer une mission d’envergure qui s’inscrit au cœur d’une démarche stratégique de transformation au sein de notre groupe. Ce projet vise à révolutionner l’utilisation des données dans nos filiales et à promouvoir une plus grande autonomie dans leur gestion. Dans un monde où les données sont devenues un actif clé pour les entreprises, Le groupe de notre client a décidé de franchir une étape majeure en structurant et en rationalisant son offre de services Data. L’objectif est clair : répondre aux besoins spécifiques des différentes filiales du groupe tout en garantissant une efficacité accrue, une meilleure autonomie et une flexibilité dans l’accès et l’utilisation des données. Ce projet représente donc une opportunité unique de contribuer à une transformation organisationnelle à grande échelle, qui impactera directement notre performance et celle de nos filiales. En tant que Freelance, vous serez un acteur central dans cette mission. Votre expertise sera mise à profit pour proposer et mettre en œuvre des solutions adaptées aux besoins des filiales. Vous serez amené à travailler en étroite collaboration avec des équipes multidisciplinaires pour : Analyser les besoins spécifiques des filiales : comprendre leurs attentes et leurs contraintes pour leur fournir des solutions sur mesure. Développer des outils et services Data innovants : alignés avec les meilleures pratiques du marché, tout en répondant aux objectifs stratégiques du groupe. Promouvoir l’autonomie dans l’utilisation des données : accompagner les filiales dans l’adoption de ces nouveaux outils et les former pour maximiser leur impact. Optimiser et rationaliser l’offre actuelle : identifier les synergies et simplifier les processus pour gagner en efficacité et en pertinence. Veuillez postuler uniquement si vous êtes Freelance et que vous cochez toutes les cases suivantes : Vous disposez d’une solide expérience en gestion et en optimisation de solutions Data, idéalement dans un contexte multi-entités ou groupes. Vous êtes à l’aise avec les méthodologies agiles et savez travailler dans des environnements complexes et collaboratifs. Vous avez une excellente capacité d’analyse et savez proposer des solutions innovantes et pragmatiques, adaptées à des besoins diversifiés. Vous êtes orienté(e) résultats, autonome et doté(e) d’un excellent relationnel, ce qui vous permet de collaborer efficacement avec des équipes variées. Vous maîtrisez les technologies et outils Data les plus récents (Big Data, BI, ETL, Cloud, etc.) et êtes à jour sur les tendances du secteur.
Offre d'emploi
PMO / Service Delivery Manager (SDM) – Pilotage Projet et Maintenance
Nous recherchons un PMO / Service Delivery Manager (SDM). Vous serez responsable de la gestion de projets de maintenance au sein d’une équipe composée de SDM et d’ingénieurs L3. Ce rôle implique une coordination étroite avec des clients situés en Espagne, en Amérique Latine, et en Europe. Vos principales missions : Gestion de projet : planification, suivi des budgets, gestion des risques/opportunités, et reporting qualité (ITIL). Rédaction et révision des procédures fonctionnelles de maintenance. Gestion des contrats de maintenance : rédaction des spécifications, revue des contrats avec sous-traitants/partenaires, définition des RACI, SLA, etc. Organisation et participation à des ateliers, revues annuelles, réunions hebdomadaires/mensuelles avec les parties prenantes. Gestion opérationnelle des tickets : création, mise à jour, escalade, et clôture via des outils de ticketing. Analyse et résolution des incidents, interventions sur site, et rédaction des rapports associés. Gestion des licences, renouvellements de contrats, et activités d'obsolescence. Analyse de sécurité, gestion des vulnérabilités (HSM, Log4j, etc.), et supervision des déploiements de mise à jour. Gestion des actifs logiciels et matériels (spare stock, licences). Participation à la gestion de crises et incidents critiques. Compétences attendues : Obligatoires : Expérience significative en gestion de projets dans des environnements Support/Run/TMA. Connaissance des méthodologies ITIL. Capacité à rédiger des procédures fonctionnelles de maintenance. Expertise en gestion des tickets via des outils de ticketing (Salesforce ou équivalent). Solides aptitudes en communication écrite et orale. Maîtrise professionnelle de l’anglais et de l’espagnol (impératif). Optionnelles : Capacité à coordonner des activités de prévente ou d’extension de programme. Connaissance des processus liés à la sécurité et à la gestion des vulnérabilités. Expérience attendue : Minimum 3 ans d’expérience dans un rôle similaire, incluant la gestion de projets IT/SI et/ou de maintenance. Savoir-être : Rigueur, organisation et capacité à travailler sous pression. Esprit d’analyse et proactivité dans la gestion des crises et incidents critiques. Excellentes compétences relationnelles et adaptabilité culturelle pour travailler avec des clients internationaux. avec déplacements à prévoir en Amérique Latine.
Mission freelance
Testeur & automatisation - Azure devops
Pour l'un de nos clients grand compte situé à la Defense nous recherchons en urgence un profil technique et fonctionnel sur la partie test / recette / automatisation des plans de tests et ayant un niveau confirmé - expérimenté sur la fonction. La maîtrise des principaux services d'Azure Devops et de Sonar sont impératifs pour ce poste long terme. Expérience minimale de 5 ans Confirmé - Impératif : Azure Devops (Pipelines, Test plans, boards, etc) confirmé - Impératif : Expérience en testing fonctionnel et développement de tests automatisés
Mission freelance
Consultant Transaction Services (H/F) - 75
Mon client recherche un Consultant Transaction Services Senior pour une mission freelance de 3 mois minimum. Poste à Paris (75) - Accompagner le client dans la gestion de financements - Gestion des projets de manière autonome - Gestion du modèle financier - Travail avec l'équipe finance et les équipes internes - Etre le lien dans la relation avec les banques - Gérer l'interface avec une éventuelle équipe externe - Préparer les documents financiers - Problématiques financières plutôt "gros" mid ou large cap
Mission freelance
Développeur Node Angular AWS (Mission longue)
Vos tâches toucheront en un premier temps au développement. L’équipe est composée de 2 développeurs. Vous aurez pour mission : - Le développement de nouvelles fonctionnalités - Maintenir la CI/CD sur GitLabCI - Maintenance de la plateforme sur le cloud (OVH, Kubernetes) - Gestion des machines et serveurs - Maintenance opérationnelle (gestion des montées de versions, maintenance technique, etc..) Vous devrez également : - Rédiger la doc de conception technique - Développer des Users Stories - Corriger des anomalies - Rédiger des tests unitaires - Déployer ses développements - Maintenir la CI/CD - Maintenir la plateforme de production - Mettre à jour ses tickets dans JIRA
Mission freelance
Développeur Python AWS
En tant que Développeur Back-End, vous serez responsable de la conception et du développement des services back-end, en particulier autour des API, de l'intégration avec des services AWS, et du scripting pour automatiser les tâches courantes. Vous travaillerez principalement avec Python , en utilisant les services d' Amazon Web Services (AWS) pour déployer et maintenir des applications scalables, performantes et sécurisées. Responsabilités : Développement de services API : Concevoir et développer des API RESTful robustes et sécurisées en utilisant Python et des frameworks tels que Flask ou Django . Intégration AWS : Développer et intégrer des services avec les solutions cloud d'Amazon Web Services (Lambda, S3, EC2, RDS, API Gateway) pour assurer une scalabilité et une haute disponibilité des applications. Scripting et automatisation : Créer des scripts d'automatisation pour des processus liés à l'infrastructure, au déploiement (CI/CD) ou à la maintenance de services (Bash, Python). Optimisation des performances : Identifier et résoudre les goulots d'étranglement dans les applications, en optimisant les temps de réponse et la gestion des ressources cloud. Sécurité et conformité : Implémenter des mesures de sécurité pour protéger les données sensibles, en gérant les permissions et les authentifications via AWS IAM et OAuth2/OpenID pour les API. Intégration continue et déploiement : Participer à la mise en place de pipelines de CI/CD en collaboration avec l'équipe DevOps pour automatiser les tests et déploiements (AWS CodePipeline, Jenkins, GitLab CI). Maintenance et support : Assurer la maintenance des services back-end et apporter un support aux équipes de développement pour résoudre des problèmes techniques ou optimiser les processus.
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Offre d'emploi
Développeur Talend ETL/ESB
Nous recherchons un Développeur Talend pour rejoindre une équipe dynamique dans le cadre d'un projet stratégique. Le candidat retenu collaborera avec des équipes techniques et des Business Analysts afin de développer et maintenir des flux de données Talend tout en respectant les normes et bonnes pratiques de développement. Concevoir, développer et optimiser les flux ETL/ESB avec Talend. Collaborer avec les Business Analysts pour comprendre les besoins métiers et traduire ces besoins en solutions techniques. Proposer des solutions optimisées et être force de proposition pour améliorer les performances et la qualité des flux de données. Assurer le respect des normes de développement et des bonnes pratiques d’ingénierie. Maintenir et améliorer les processus existants dans Talend Cloud. Documenter les flux de données et les solutions développées. Participer à la résolution des problèmes techniques et au support en cas d’incidents.
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Mission freelance
C# Developer – Pricing Services
Notre client, Banque de Finance et d'Investissement, recherche un C# Developer – Pricing Services (H/F) dans le cadre d'une longue mission. Contribuer au développement, à l'extension et au support des composants orientés grid et cloud pour le service Pricing et Risques au sein de la banque. - Développement de services en C#/.Net Core et C++. - Participation à la gouvernance architecturale et à la roadmap du projet. - Implémentation de solutions d'intégration hybride (cloud et on-premise). - Conception d’algorithmes parallèles et distribués. - Optimisation de la performance et gestion des outils de mesure. - Collaboration avec les équipes Front Office, Risk Management et Quantitative Analysts. - Gestion et orchestration des conteneurs (Docker, Kubernetes). - Intégration avec des outils de CI/CD (GitLab, Jenkins, Artifactory, Ansible). Livrables - Services sécurisés et optimisés répondant aux besoins des utilisateurs Front Office et risques. - Solutions hybrides intégrant le cloud et on-prem. - Documentation technique des algorithmes et des composants développés.
Offre d'emploi
CC / ARCHITECTE SOLUTION AWS MDM
Missions principales : Conception de l'architecture MDM sur AWS : Élaborer et mettre en place des solutions MDM robustes sur AWS. Définir l'architecture globale pour la gestion des données de référence en assurant la scalabilité et la sécurité. Gouvernance des données : Mettre en oeuvre les processus et les règles de gouvernance des données de référence. Garantir la qualité, l'intégrité et la disponibilité des données MDM. Intégration et Interopérabilité : Intégrer les solutions MDM avec les systèmes existants (ERP, CRM, applications métiers, etc.). Assurer la communication fluide des données entre les différents systèmes via des API et des pipelines de données. Support et optimisation : Assurer le support technique et les optimisations continues des solutions MDM sur AWS. Identifier les opportunités d'amélioration et proposer des solutions innovantes. Sécurité et conformité : Appliquer les bonnes pratiques de sécurité et assurer la conformité avec les standards en vigueur (RGPD, etc.).
Mission freelance
Ingénieur Cloud Platform GCP & AWS
Dans le cadre d’un remplacement, notre client recherche un Platform Engineer au sein de l’équipe Cloud Development. Cette équipe est en charge: Du développement d’une API permettant d'orchestrer les interconnexions des nouveaux projets Du développement d’un provider Terraform permettant de consommer l’API De l’accompagnement des équipes sur leur utilisation Du développement d’outils liés : Fronts web, CMDB, … De la mise en place de l’écosystème associé: CI/CD, Monitoring, ... L’équipe est actuellement composée de 4 ingénieurs et d’1 manager. Vos missions : - Vous participez à la conception et au développement de l’orchestrateur - Vous aidez à l’application des bonnes pratiques de développement d’engineering (pratiques de tests, Architecture Decision Record, …) - Vous travaillez en collaboration avec les équipes de la CPE sur le développement des features de notre plateforme - Vous assistez les clients internes à l’utilisation des solutions gérées par l’équipe - Vous participez aux mentoring des collaborateurs (Peer Programming, Peer Review) - Vous assurez le Run et l’astreinte (une semaine toutes les 4 semaines) sur les composants de l’équipe - Vous êtes amené à vous déplacer sur Lille (vie du collectif, évènements d'équipe ou de BU) L'environnement technique : Cloud Service Providers : GCP & AWS Python (FastAPI) Go (Terraform Plugin Framework) Github, Github actions Datadog GCP Cloud Run & GCP Workflows Terraform Processus : 2 entretiens Go - No Go
Offre d'emploi
Expert Intégration Réseaux PON/GPON & WDM
Nous recherchons un Expert en Intégration Réseaux PON/GPON & WDM. Le poste à pourvoir est principalement orienté sur des missions d'expertise pour des projets de production Réseaux, au sein de l'entité Build Connectivité, en charge de la réalisation des prestations d'intégration de solutions PON/GPON et WDM. Vous serez le garant de l'ingénierie et de la mise en œuvre des solutions techniques, ainsi que de la satisfaction client. Vos missions principales seront les suivantes : Réaliser des missions de conseil (études de faisabilité, scénarios de solutions, audits, etc.). Encadrer et coordonner, si nécessaire, une équipe de réalisation technique interne ou externe. Réaliser des prestations d'ingénierie (définition des spécifications, rédaction des cahiers de recettes, procédures de mise en œuvre, rédaction des livrables projets, etc.). Intégrer des solutions dans les environnements clients (maquettage, paramétrage des équipements, réalisation des migrations, recettes techniques, etc.). Assurer la formation des clients sur les solutions déployées. Apporter un soutien au chef de projet en phase de réalisation, en prenant en charge le leadership technique et les validations techniques. Effectuer le transfert des dossiers réalisés vers nos équipes en charge du RUN. Être en soutien des équipes lors des phases de troubleshooting, en prenant en charge directement certains problèmes. Assister ponctuellement les équipes Avant-Vente pour traduire les besoins clients en solutions techniques et évaluer les charges. Assurer une veille technologique sur votre périmètre d'expertise.
Offre d'emploi
Offre - Ingénieur Azure Devops - Pré embauche ( Mission de 6 mois puis CDI chez un client final )
Le client recherche un Ingénieur DevOps Azure expérimenté, ayant un solide bagage en développement et une expertise dans les technologies Microsoft Cloud, pour renforcer son équipe dynamique. Vous contribuerez à la mise en œuvre, au suivi et à l’optimisation des solutions DevOps , tout en collaborant étroitement avec des équipes multidisciplinaires et en assurant un haut niveau de qualité pour nos produits et projets applicatifs. Développement et automatisation : Implémentation de pipelines CI/CD. Utilisation d'outils comme Terraform, PowerShell, ARM, et Bicep. Collaboration et intégration : Travailler avec des leads développeurs pour la livraison des socles applicatifs. Intégration d’applications Front-end et Back-end (bases de données comme Synapse, MongoDB). Architecture Azure : Gestion des Landing Zones, cycles de vie des applications, privacy endpoints. Déploiement d’applications Azure Web App, Logic App, et configuration de proxys inverses avec App Gateway et Nginx. Observabilité et Monitoring : Mise en place et suivi des solutions de monitoring (Dynatrace). Documentation technique : Rédaction de documents techniques clairs et précis en français.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.