Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 504 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur/euse NodeJS - Microservices

K2 Partnering Solutions
Publiée le
API
AWS Cloud
Node.js

24 mois
350-400 €
Haute-Savoie, France

🚀 Opportunité Long Terme en Haute-Savoie ! Nous recherchons un développeur talentueux pour rejoindre l’équipe OnePLM dans l’environnement PDP (Product Digital Platform). Cette mission de longue durée vous permettra de jouer un rôle clé dans la création de connecteurs pour intégrer divers systèmes, en collaboration avec un autre développeur. Votre mission : ✔ Développer et documenter des solutions à partir de spécifications détaillées ✔ Travailler sur l’ingénierie de chargement/transformation des données ✔ Garantir la fiabilité des systèmes, le monitoring et le logging ✔ Intégrer les pratiques de sécurité dans le cycle de développement logiciel ✔ Appliquer les meilleures pratiques : tests unitaires, fonctionnels et de couverture Profil recherché : 🎯 5+ ans d’expérience en microservices 🎯 Stack technique : Node.js, Typescript, AWS (Lambda, SQS, Dynamo), Serverless, MongoDB, Angular 🎯 Solide compréhension de l’architecture microservices, systèmes événementiels, API, Agile, DevOps, CI/CD et Secure by Design 🎯 Anglais courant (écrit et parlé) Qualités clés : ✅ Esprit d’équipe ✅ Fiable, rigoureux et communicatif ✅ Esprit analytique avec une attitude proactive et positive Présence sur site requise : Plein temps au début, puis 3 jours par semaine sur site. 📅 Début de mission : Janvier 2025 ⏳ Durée : 12+ mois

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
Google Cloud Platform
Python

6 mois
43k-93k €
1 050-1 550 €
Paris, France

Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie et rigueur • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel • Proactivité et prise d’initiative

CDI
Freelance

Offre d'emploi
Expert/Architecte Kafka/MSK/ELK

KLETA
Publiée le
Apache Kafka
AWS Cloud
ELK

3 ans
70k-90k €
250-750 €
Paris, France

Nous recherchons un Expert/Architecte Kafka/MSK pour piloter la conception, la mise en œuvre et l’optimisation d’une infrastructure Kafka/ELK (ElasticSearch, Logstash, Kibana) multi-région. Ce projet stratégique vise à soutenir une organisation opérant à l’échelle internationale, avec des besoins exigeants en termes de réplication des données, de faible latence, de scalabilité et de résilience. Missions principales : Conception et architecture : Définir l’architecture globale du système Kafka/ELK multi-région, en étant attentif à la réplication cross-région, à la synchronisation des clusters Kafka et à la tolérance aux pannes. S’assurer de la compatibilité avec les standards internationaux en termes de sécurité, de réglementations des données et de performances. Implémentation : Installer et configurer Kafka sur AWS MSK ainsi que les solutions ELK associées. Gérer l’intégration avec des systèmes existants et assurer une migration sans interruption pour les clients internes. Configurer la réplication multi-région (MirrorMaker 2.0 ou autres outils adaptés). Optimisation et supervision : Mettre en place une stratégie de monitoring avancée pour Kafka et ELK (Kibana, Prometheus, Grafana, etc.). Optimiser les performances en équilibrant les charges entre régions et en minimisant les latences. Gérer les mises à jour et assurer la maintenance de l’infrastructure. Sécurité et conformité : Implémenter des mécanismes de sécurité avancés (chiffrement, authentification, autorisation) pour Kafka et ELK. Veiller à la conformité avec les réglementations locales et internationales (ex. : GDPR, CCPA). Support et formation : Fournir un support technique aux équipes internes. Documenter les procédures et former les équipes à l’utilisation et à la gestion de l’infrastructure.

CDI

Offre d'emploi
Architecte Google Cloud

DEV AND CONNECT
Publiée le
Architecture
Google Cloud Platform

60k-90k €
Paris, France

👉 Contexte : Pour le compte d'un de nos clients, nous recherchons un Architecte Google Cloud qui jouera un rôle central dans l’adoption de Google Cloud en fournissant des conseils techniques experts, en élaborant des solutions sur mesure et en renforçant des partenariats solides. Ce rôle est à pourvoir en agence. Vos responsabilités couvriront les activités de pré-vente, la conception d’architectures, le développement de solutions et le support continu, en veillant à ce que les clients tirent pleinement parti des technologies Google Cloud. Il s'agit donc d'un rôle transverse. Apporter un leadership et une expertise aux équipes internes et aux clients, en les aidant à concevoir et à mettre en œuvre des solutions robustes sur Google Cloud. Fournir une expertise technique en pré-vente pour de nouvelles opportunités, en participant à la collecte des besoins, à la rédaction de propositions et de SOW (Statement of Work). Conseiller les clients sur leurs pratiques architecturales et d’ingénierie Google Cloud, en animant des ateliers si nécessaire. Travailler sur divers projets tels que : Projets de données modernes, d’IA et de GenAI (Intelligence Artificielle Générative), en utilisant les dernières technologies sur la plateforme Google. Développement de solutions et applications Greenfield sur Google Cloud. Programmes de migration de charges de travail et de modernisation des applications et infrastructures. Accompagner les équipes de développement dans les processus de développement et de déploiement de logiciels sur Google Cloud, en promouvant son utilisation et en aidant à concevoir et architecturer des POC. Produire une documentation de haute qualité dans le cadre du développement de vos solutions. Être un point de contact avec Google, en travaillant avec les ingénieurs partenaires et clients de Google pour s’assurer que nos équipes commerciales et projet reçoivent le soutien nécessaire de la part du fournisseur. Assister le Directeur des Solutions dans le développement de nos capacités et de notre portefeuille de services. Participer à des événements techniques et briefings Google Cloud, en utilisant les connaissances acquises pour aider à renforcer les compétences de l’équipe.

Freelance

Mission freelance
Frontend Développeur / Développeuse Confirmé.e (Front-end / Headless) - H/F

KS Consulting
Publiée le
Front-end
Google Cloud Platform
JIRA

3 mois
400-550 €
Île-de-France, France

Dans le cadre de l’évolution de notre SI vers une architecture Headless, nous recherchons un Frontend Développeur/Développeurse qui aura le rôle de développeur/développeuse confirmé.e dans l’équipe de migration de notre legacy, vers un front headless en React JS / Next JS. Vous serez en charge de l’ensemble des tâches inhérentes à un développeur React confirmé (réaliser un code fiable de qualité, participer aux revues de code, élaborer une UI de qualité, débugger, simuler différents contextes de rendu de l’UI). Taches principales Effectuer la maintenance du socle existant (optimisation du code, corrections des bugs, interventions sur les incidents de Prod). Effectuer de veille technologique, proposition de sujets techniques visant à améliorer les performances du front web, le SEO et l’accessibilité. Travailler à l’élaboration des contrats d’interfaces avec notre équipe Back-For-Front (API/Middleware). Appliquer – avec l’aide de nos Tech Leads et Lead Devs – les bonnes pratiques de développement ainsi que la mise en place des tests (TU, TDD…) Monter rapidement en compétence sur l’utilisation de la stack technique . Familier aux concepts d’optimisations liés aux clients front-end comme l’optimisation de chargements de pages (bundles splitting, Server-side rendering), les problématiques de rétrocompatibilités navigateurs et le debugging de code. Collaborer avec une équipe design intégrant un design system.

Freelance

Mission freelance
Architecte AWS

STHREE SAS pour COMPUTER FUTURES
Publiée le
Architecture
AWS Cloud

6 mois
400-650 €
Yvelines, France

Bonjour, Je suis à la recherche d’un Architecte AWS: Tâches : Concevoir et mettre en œuvre des solutions cloud sur AWS pour répondre aux besoins des clients. Développer des architectures scalables, sécurisées et robustes. Gérer et optimiser les environnements AWS pour des performances maximales. Intégrer et orchestrer des conteneurs à l'aide de Kubernetes. Implémenter et gérer des systèmes de messagerie et de streaming de données avec Kafka. Collaborer étroitement avec les équipes de développement et d'opérations pour assurer une livraison fluide des projets. Assurer une veille technologique et proposer des améliorations continues.

Freelance
CDI

Offre d'emploi
MLOPS Engineer

VISIAN
Publiée le
AWS Cloud
FastAPI
GPU

6 mois
40k-80k €
400-800 €
Paris, France

En tant qu’Ingénieur MLOps Senior, vous aurez pour mission de développer et d’optimiser les outils internes de MLOps afin de soutenir l’ensemble du cycle de vie des modèles d’IA. Vous serez spécialisé(e) dans l’utilisation des GPU pour améliorer l’entraînment, le déploiement et le serving des modèles. Construire et optimiser les pipelines de données pour la gestion des jeux de données, l’entraînment, l’évaluation et le déploiement des modèles. Garantir la traçabilité et la reproductibilité des expériences. Améliorer la maintenabilité et l’évolutivité des composants de la plateforme, en environnements cloud (AWS) ou on-premise. Configurer et gérer les infrastructures GPU pour l’entraînment des modèles. Implémenter des techniques avancées comme le mixed-precision training, la quantification et l’optimisation d’inférence via Triton Server ou TensorRT. Réduire les temps de calcul en exploitant les outils comme cuDNN ou NVIDIA Nsight. Développer des solutions robustes pour le serving des modèles d’IA dans des environnements contraints (on-premise et cloud). Améliorer la scalabilité des serveurs d’inference multi-GPU pour gérer un grand volume de requêtes. Mettre en place des outils de monitoring et de benchmarking des performances des modèles. Intégrer les workflows d’entraînment et de déploiement dans des pipelines CI/CD (GitHub Actions, Nomad). Automatiser le réentraîment des modèles en continu. Maintenir des tests de non-régression pour garantir la stabilité des modèles en production. Effectuer une veille technologique pour identifier les nouvelles solutions et techniques (AutoML, Kubeflow, TFX). Diffuser les bonnes pratiques et former les membres de l’équipe à travers du mentoring et des sessions techniques.

Freelance
CDI

Offre d'emploi
Developpeur senior Java/Node/Kotlin AWS

VISIAN
Publiée le
AWS Cloud
Docker
GitLab CI

2 ans
40k-85k €
400-650 €
Île-de-France, France

Bonjour, Dans le cadre de ses besoins clients, Visian est à la recherche d'un développeur Java/Node/Kotlin AWS. Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Backend conçoit, développe, déploie et maintient les fonctionnalités afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications Livrables • Développer des solutions backend de qualité : Conception, développement et maintenance des fonctionnalités backend. Contribution à la vie de l’équipe travaillant dans un cadre Agile. • Participation, dans le cadre des principes DEVOPS, au déploiement et au suivi de votre application. • Au sein d'un écosystème de projets variés, être force de proposition et au cœur de l'amélioration continue. Si vous êtes à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Freelance

Mission freelance
SRE / SITE RELIABILITY ENGINEER

ESENCA
Publiée le
Google Cloud Platform
Kubernetes

1 an
400-450 €
Lille, Hauts-de-France

Synthèse des principaux attendus de la mission : - Déployer et maintenir les infrastructures cloud (GCP, Cloud data bases...) - Supporter l’équipe dans le déploiement de leurs applications (Kubernetes sur GKE) - Mettre en place et suivre le monitoring des différentes applications (Datadog) - Continuer le déploiement de la stratégie d'infrastructure as code (Terraform) - Animer la stratégie SRE/SLO du groupe - Accompagner les product leaders et tech leaders sur toutes les problématiques techniques liées à l'architecture cloud des futures solutions - Mettre en place et animer le DRP des produits - En constante communication avec le Lead Ops et les Head of Ops de la plateforme, s'assurer du respect des bonnes pratiques en termes de Cloud, d'infrastructure et de sécurité. - Effectuer les remédiations de sécurité lorsqu'elles touchent l'infrastructure - Être force de proposition sur les sujets de monitoring, finops, amélioration continue

Freelance

Mission freelance
Business Analyst Data /GCP / Banque

CAT-AMANIA
Publiée le
Google Cloud Platform

1 an
350-500 €
Île-de-France, France

Dans le cadre des évolutions de son application et du support aux métiers, une entreprise de renom recherche un(e) Business Analyst Data pour renforcer son équipe projet dédiée aux Risques Climatiques Physiques . Ce poste s'inscrit dans un projet stratégique visant à développer des datasets réglementaires et opérationnels sur les risques climatiques dans un environnement cloud. Vos missions principales : Documenter l’existant et rédiger les spécifications des évolutions à venir. Organiser et animer des ateliers collaboratifs. Préparer et réaliser les travaux de recette fonctionnelle. Traiter les demandes d’analyse et de requêtage de données en base (support aux équipes métier). Contribuer à la mise en place de reportings via Power BI. Environnement technique et fonctionnel : Environnement DATA , avec une préférence pour une expérience sur plateforme cloud (GCP idéalement). Connaissances en risques financiers ou risques climatiques physiques (un plus). Familiarité avec le requêtage de données et les outils de visualisation comme Power BI.

Freelance

Mission freelance
Développeur Full Stack - Angular / Python (H/F)

LeHibou
Publiée le
Angular
AWS Cloud
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes

Notre client dans le secteur des énergies recherche un/une Développeur Full Stack (Angular / Python) H/F Description de la mission: Contexte STORIA est un produit destiné au secteur nucléaire, construit dans le cloud AWS et structuré autour de trois axes : Stockage de médias : gérer le volume croissant de photos et vidéos. Recherche et visualisation : faciliter l’accès aux médias via une indexation performante. Efficacité opérationnelle : intégrer ou développer des algorithmes d’IA pour analyser et annoter les médias. Inscrit dans le programme Vision 2035 , STORIA adopte une organisation Agile en mode produit , favorisant des cycles courts, itératifs et collaboratifs pour délivrer rapidement des solutions à forte valeur ajoutée. L'équipe Composée de 9 personnes (6 développeurs, 1 DevSecOps, 2 MLOps), l’équipe souhaite renforcer ses effectifs avec 3 développeurs Full Stack Python / Angular pour accompagner la montée en charge et l’industrialisation des processus. Au sein de l’équipe, vous participerez à : Développement logiciel : conception, développement, tests, déploiement, relecture de code, mentorat des développeurs juniors. Conception et mise en œuvre : développement d’applications (du POC à l’industrialisation), bonnes pratiques d’ingénierie (tests, CI/CD), déploiement et suivi en production. Chantiers techniques : réalisation de projets transverses, automatisation (scripts) et partage des bonnes pratiques avec les autres équipes. Travailler sur un produit innovant et stratégique. Intégrer une équipe dynamique avec une approche Agile orientée valeur utilisateur. Contribuer à des projets à fort impact dans un environnement technologique stimulant. Postulez dès maintenant !

Freelance

Mission freelance
Expert sécurité GCP / IAM GCP / SECURITE RESEAUX / TERRAFORM / ANGLAIS (H/F)

OctopusGroup
Publiée le
Google Cloud Platform
IAM
Python

1 an
350-600 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire une expert Sécurité cloud GCP Objectif global : Accompagner la mise en œuvre de la sécurité du cloud GCP Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique

Freelance
CDI

Offre d'emploi
Data Manager – Driver Monitoring System (F/H)

CELAD
Publiée le
AWS Cloud

6 mois
60k-70k €
550-600 €
Créteil, Île-de-France

📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous recherchons un.e Data Manager pour renforcer notre équipe dédiée à la validation du Driver Monitoring System (DMS), un système avancé de surveillance basé sur des caméras embarquées. Ce dispositif enregistre des données précieuses sur l’état de fatigue, de vigilance et de stress des conducteurs, afin d’améliorer la sécurité sur la route. Vos responsabilités : Assurer la gestion des données de validation (collecte, traitement, stockage, archivage) pour le système DMS. Tâches principales : - Collecter et stocker des données issues de disques durs provenant des véhicules (volumes massifs, incluant des vidéos en streaming). - Assurer l'archivage et estimer les coûts liés au stockage long terme des données. - Superviser le transfert des données vers les différents sites clients. - Garantir la conformité RGPD dans toutes les opérations de gestion des données. - Intégrer les données dans des bancs de test pour la validation du système. - Évaluer et mettre en œuvre des solutions Cloud (GCP, AWS, Azure).

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform

3 ans
33k-83k €
400-900 €
Paris, France

Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Egalement, tu participeras à la migration du DWH Oracle vers Big Query GCP. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir, développer et optimiser les flux Être garant de la qualité du code Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL et PL/SQL Python Méthodologie Agile

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Data Scientist

ESENCA
Publiée le
Google Cloud Platform
Python

3 mois
400-500 €
Lille, Hauts-de-France

Votre mission consistera à : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA. - Mettre en œuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business - Collaborer avec les autres Data scientist de l'équipe - Industrialiser les solutions R&D - Assurer le RUN des services IA en production. - En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable Compétences techniques : Python - Expert - Impératif GCP - Confirmé - Impératif VertexAI - Expert - Impératif GenAI - Confirmé - Impératif

504 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous