Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Analyst
Reprise des données dans le référentiel Industrialisation et optimisation du process de reprise Animation et coordination des parties prenantes clés Compétences techniques SQL - Expert - Impératif scripting - Expert - Impératif looker - Confirmé - Important powerBI - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Mission : Dans le cadre d'un projet de déploiement, le data analyst est responsable du pilotage de la reprises des données de l’ensemble des systèmes de référencement, de l’industrialisation des process, de l’optimisation des outils d’analyse et du process de migration pendant les phases projet jusqu’au démarrage (bascule en production). A ce titre, il pilote opérationnellement l’ensemble des acteurs contributeurs (équipe solution, équipe legacy, métier, éditeur de l’outil d’aide à la reprise) depuis la mise au point des outils et processus jusqu’à l’exécution des migrations. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion des données de référentiel tiers.
Offre d'emploi
GO/Python - ML Engineer
le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data chez BNP Paribas Personal Finance, AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : - Participer à la conception architecturale cloud et data ; - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des services web et opérateurs kubernetes existants (Golang) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution du code d’IaC (Terraform, Bash) ; - Participer à la maintenance/l’évolution de l’outillage DevOps (Gitlab runners, BuildKit, ArgoCD, ArgoWorkflows, ArgoEvents, etc.) ; - Participer à la maintenance/l’évolution de l’outillage DevSecOps (Vault, Keycloak, Sparrow IAM, etc.) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs.
Mission freelance
ARCHITECTURE, EXPERTISE ET EXPLOITATION INFRASTRUCTURE DE STOCKAGE SAN, NAS ET S3
Nous recherchons pour un de nos clients basés en IDF, un ingénieur de stockage pour une mission freelance (longue visibilité) Contexte, enjeux et objectifs : Au sein du domaine Exploitation de la DSI , le pôle Stockage et Sauvegarde est en charge des activités RUN/MCO, BUILD, Projet, Architecture et Expertise des socles d’infrastructure de Stockage (SAN, NAS, Objet) et de sauvegarde. Les principaux enjeux et objectifs sont : - L’amélioration continue de la qualité de service au quotidien afin de renforcer la performance globale de la DSI. - Le renforcement de la sécurité et du pilotage proactif des infrastructures afin d‘anticiper, de prévenir et de mitiger les incidents et menaces Cyber. - La réalisation de projets afin de soutenir les nouveaux besoins SI / services d’infrastructure.
Mission freelance
Assistant Support Technique IT
: Opportunité dans le secteur Assurance à Paris La Défense – 2/3 jours sur site par semaine 🗓 Démarrage : ASAP 💼 TJM : 300€ Nous recherchons un Assistant Technique IT spécialisé dans l'amélioration des processus , dont la mission principale sera de soutenir l'optimisation des processus IT, fournir une assistance technique aux équipes IT, et implémenter des outils technologiques pour le suivi des indicateurs de performance (KPI) et le suivi des activités. Responsabilités principales : 🔧 Amélioration des processus IT : Analyser les processus IT existants (onboarding/offboarding, demandes IT, suivi des actifs, consommation des licences). Collaborer avec les équipes IT pour identifier les inefficacités et proposer des solutions innovantes. Optimiser et automatiser les processus pour améliorer la performance et réduire les risques opérationnels. 🔧 Support technique : Fournir un support technique quotidien aux assistants de département sur les outils et systèmes IT. Assister dans le dépannage des applications, systèmes et infrastructures IT. Rédiger la documentation nécessaire pour former les assistants sur les outils et systèmes IT.
Offre d'emploi
Product Owner DATA
Expériences requises dans des projets DATA Rattaché(e) à la Direction des projets métiers, sous la responsabilité du manager du Pôle Data auquel il appartient, le Product Owner est responsable de porter la vision du produit Data Platform par la déclinaison opérationnelle . Il est piloté par la stratégie du Produit définie par le Product Manager. Missions : Owner du product backlog : Alimentation de product backlog de façon itérative et continue Partage des US en fonction de la DOR établie par la DEV team Déclinaison des objectifs des sprints tout au long du PI, Validation avec l’équipe du périmètre des sprints et réajuste si besoin Affinage également le backlog avec l’équipe au fil des sprints Responsable de l’incrément produit : Porte la vision du produit par une déclinaison opérationnelle pour maximiser la valeur métier Anticipation des besoins clients et construit un plan de delivery sur plusieurs sprints Supervision du développement technique, challenge les peer review et technical maturation Maitrise de toute la stack du Produit Data (pipeline, modeling, sécurité, etc) pour être en capacité de vendre et d’accompagner l’usage du produit aux clients Responsable unique de la livraison en production Au service de l'organisation : Alimenter une équipe de Dev constituée de 8 collaborateurs Challenger l'équipe en toute bienveillance Evangéliser les bests practices de la DATA
Offre d'emploi
Developpeur POWER BI / MICROSTRATEGY
Vous avez un bon relationnel, une bonne communication, un esprit d'analyse et de synthèse ? Vous êtes impliqué, motivé, autonome, organisé ? Vous êtes force de proposition et êtes aguerri à l'environnement MS BI – Power BI Vous souhaitez vous inscrire sur la durée avec la société afin de créer ENSEMBLE une relation de confiance ? Ce poste est fait pour VOUS ! avec nous. Conseils aux candidats Nous souhaiterions des candidats à la recherche d'une mission mais également d'une ESN pour nous inscrire ensemble sur la durée ! Dotés de fortes valeurs humaines, nous souhaitons compter parmi nos collègues des personnes souhaitant évoluer professionnellement et que nous pourrons accompagner dans ce sens. Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Banque, Assurance, Retail, du média ou de l'Energie, tu participeras à des projets d’envergure, de refonte, de migration, et / ou à des évolutions majeures du SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras Qui tu es : Consultant Power BI – MICROSTRATEGY avec minimum 3 ans d'expériences dans CHACUNE DES COMPETENCES Au-delà des compétences techniques, tu es / as : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Offre d'emploi
Développeur Fullstack C# Angular Azure
L’équipe est axée sur le développement d'outils innovants pour les opérations de Back Office et de Finance. En tant que développeur Full Stack, vous travaillerez sur des projets à fort impact qui visent à automatiser les processus, à réduire les risques opérationnels et à améliorer l'efficacité de nos systèmes middle et back office. Vous serez impliqué(e) à la fois dans le développement de projets et dans les activités de support de 2ème/3ème niveau, en mettant à profit votre expertise technique pour défier et collaborer avec une équipe de professionnels hautement qualifiés. Principales responsabilités : Développer et maintenir des applications, en traduisant les cas d'utilisation en solutions fonctionnelles. Concevoir, construire et fournir un code de haute qualité et évolutif en adhérant aux meilleures pratiques en matière de codage, de sécurité et de test. Collaborer étroitement avec les parties prenantes, les Business Analyst et les autres équipes informatiques pour s'assurer que les solutions correspondent aux besoins des utilisateurs et aux objectifs du projet. Fournir des estimations de la charge de travail, identifier les goulets d'étranglement et proposer des solutions pour une amélioration continue. Maintenir la documentation technique en anglais et assurer la formation des membres de l'équipe. Travailler avec stack technique moderne comprenant C#, .NET Core, Angular, SQL, MongoDB, Azure et les API REST. Contribuer activement à l'évolution de l'architecture du système Compétences techniques requises : Maîtrise de C#, .NET Core, Angular et SQL. Expérience avec les bases de données NoSQL (MongoDB de préférence). Connaissance des plateformes cloud (Azure) et du développement d'API RESTful. Familiarité avec les pratiques TDD (Test-Driven Development). Une expérience avec des technologies frontales modernes comme AG Grid est un plus. Compétences non techniques : Ouverture d'esprit et capacité à s'adapter à une architecture en constante évolution. Solides compétences en matière de résolution de problèmes et capacité à travailler de manière indépendante et au sein d'une équipe.
Mission freelance
Développeur Golang
Contexte de la mission Rattaché au département CIO (Chief Information Officer), au sein de la Corporate Business Applications Unit et de sa squad Finance - Legal, vous êtes en charge du développement Backend de nos applications. La squad Finance – Legal ***** gère les projets et le RUN du SI légal d’****. Cela correspond aux applications utilisées par le département juridique d'****. Elle souhaite renforcer ses effectifs de développeurs Go pour intervenir sur les applicatifs qui assurent la conformité RGPD. En collaboration avec les développeurs de la squad, vous disposez d'une sensibilité Client, et êtes force d'idées à produire une expérience utilisateur innovante, performante et scalable. Vous êtes curieux et passionné par l'émergence de tous les nouveaux Frameworks et technologies Back. Vous souhaitez participer à des projets d'envergure et améliorer l’existant. Vous maitrisez le langage Go avec une expérience d'au moins 3 ans, les infrastructures docker et micro-services. Vous apportez un soin particulier à la qualité de votre code, au respect des bonnes pratiques de développement, à l'esprit communautaire.
Mission freelance
Data analyst (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyst (H/F) à Lille, Hauts-de-France, France. Contexte : Le data analyst est responsable du pilotage de la reprises des données de l’ensemble des systèmes de référencement, de l’industrialisation des process, de l’optimisation des outils d’analyse et du process de migration pendant les phases projet jusqu’au démarrage (bascule en production). A ce titre, il pilote opérationnellement l’ensemble des acteurs contributeurs (équipe solution, équipe legacy, métier, éditeur de l’outil d’aide à la reprise) depuis la mise au point des outils et processus jusqu’à l’exécution des migrations. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion des données de référentiel tiers. Les missions attendues par le Data analyst (H/F) : Compétences : - Structurer et organiser un chantier « données » (extractions, suppression des doublons, remise en qualité, enrichissement, chargement, traitement des rejets, contrôles) - Assurer la coordination des parties prenantes clés, incluant les outils de gestion de données tierces, les différentes Business Units et tout autre acteur impliqué. L’objectif est de piloter efficacement les équipes, déployer progressivement la solution, tout en garantissant la conformité et la qualité des données. Cela inclut l’optimisation des flux de données, la mise en place de contrôles qualité et l’intégration “sans couture” des données existantes dans le système cible. - Organiser et animer les instances utiles - Remonter les charges et les risques - Mettre en place les indicateurs de pilotage - Compétences techniques des outillages BI (SQL, scripting, looker, powerBI, connaissances en pipelines, …) Profil : - Capacité d’organisation et autonomie - Force de proposition - Rigoureux, dynamique mais aussi pragmatique et diplomate - Expérience réussie dans la conduite de projets jusqu’au golive - Capacité d’animation et de communication - Sens client, sens du service et réactivité - Savoir challenger la qualité de la data
Offre d'emploi
SOFTWARE ENGINEERING RABBITMQ
💡 Contexte /Objectifs : Le service met en place le développement de l'ensemble des services XAAS (PostgreSQL Cloud Platform, RabbitMQ-aas...), garantit l’exploitabilité des présentations mises en oeuvre, expertise des ensembles applicatifs et le planning global de production et assure le support au pilotage. Le client souhaite améliorer la qualité de la gestion de ses systèmes informatiques en termes de Conception et développement Dans ce cadre, la Prestation consiste à contribuer à/au(x) : la compréhension des besoins utilisateurs. codage / paramétrage et documentation l’impulsion dans l’innovation (réalisation de Proof Of Concept), veille technologique, proposition de nouvelles techniques. l'optimisation des moyens techniques si nécessaire (monitoring et amélioration de la performance : latence, mémoire, etc.) la définition des tests automatiques. développement des scripts de Release et gestion des outils utilisés lors des releases. support auprès des bénéficiaires / utilisations / bénéficiaires du projet permettant sa bonne mise en œuvre. Les livrables attendus sont : Dossiers de spécifications Dossiers de mise en place Démonstration : avec ses critères d’acceptation
Mission freelance
Team Lead/ Chef d'équipe
Leadership technique : assumer la responsabilité technique de la plateforme, en se concentrant sur l'ingestion, la transformation, le stockage, l'exposition et l'analyse. Gestion de la plateforme : superviser l'infrastructure en tant que code à l'aide d'outils tels que Terraform et les pipelines CI/CD pour un déploiement et une configuration automatisés. Développement centré sur l'utilisateur : recueillir et documenter les commentaires des utilisateurs pour améliorer l'autonomie dans l'utilisation de la plateforme. Développement front-end : la maîtrise de React est essentielle, ou la volonté de le maîtriser dans les 6 mois. Méthodologie Agile : travailler en mode Agile, en intégrant les meilleures pratiques en matière de mise à l'échelle de la plateforme, de sécurité et d'autonomie du client.
Mission freelance
data lake engineer - anglais
Ce département ou interviendra le Prestataire est de la gestion des données & de la business intelligence des systèmes d’informations : maintenance & alimentation du datawarehouse, conception de rapports, calculs et visualisation de KPI. La Prestation s’effectuera au sein de l’équipe d’une vingtaine de personnes composée de : ü Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise ü Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Mission freelance
Architect Azure (expérience en .Net demandée)
Être l’interlocuteur privilégié de l’équipe « Standards and Solutions » dans le cadre du programme « Move To Cloud » Accompagner les « Adoptions Teams » dans la bonne compréhension de l’ensemble des processus de « l’Industrial Cloud Platform » Être en capacité d’assurer toute demande et opération liée à la migration vers la Landing Zone cible Assister les « Adoption Teams » dans la construction de leurs schémas d’architecture cible Former les « Adoptions Teams » aux standards produits dans le cadre du programme « Move To Cloud » Garantir le respect de ces standards tant dans la construction de l’architecture cible que dans les pratiques de code Assurer la montée en compétences des « Adoption Teams » sur l’exploitation de Terraform Permettre une bonne compréhension de l’exploitation des modules Terraform produits Accompagner les « Adoption Teams » dans l’adaptation des applications vers un modèle « Cloud Ready »
Offre d'emploi
Data Analyst
Le Consultant en Réconciliation de Données sera amené à effectuer un large éventail de tâches. Celles-ci peuvent inclure : Collecte des Données d'Entrée : Obtenir les données d'entrée/documentation nécessaires auprès des différentes équipes pour compléter les étapes de préparation à la réconciliation des données. Préparation et Organisation de la Documentation : Préparer et organiser la documentation et les dossiers requis pour l'exécution des tâches de réconciliation des données à chaque phase. Réconciliation des Données : Effectuer un "premier passage" de réconciliation des données en amont des parties prenantes métier dans le cadre d'un contrôle préliminaire de la qualité des données. Gestion de la Liste de Contrôle : Améliorer la liste de contrôle si nécessaire avant chaque phase de réconciliation, en garantissant l'exhaustivité de cet outil sur la base du transfert de connaissances (KT) et des informations pertinentes obtenues de l'équipe de réconciliation des données. Pendant les phases de réconciliation, suivre et rendre compte de la liste de contrôle de réconciliation des données jusqu'à son achèvement. Coordination des Réunions : Planifier et activer des réunions de réconciliation des données avec les parties prenantes définies. Coordonner avec les parties prenantes métier et les former sur les activités de réconciliation des données. Produire des procès-verbaux de réunions complets. Revue de la Documentation : Examiner la qualité de la documentation de réconciliation des données en fonction des directives spécifiques fournies. Préparation des Rapports : Préparer le rapport final de réconciliation des données en fonction des directives spécifiques fournies. Suivi et Rapport sur le Statut : Conserver la documentation requise pour l'organisation et le suivi du statut des périmètres ci-dessus. Rendre compte du statut des activités de manière organisée. Gestion de la Communication : Établir des canaux de communication clairs avec toutes les parties prenantes pour faciliter l'échange d'informations en temps utile et de manière précise.
Mission freelance
Ingénieur DataVisualisation
Contexte du poste : Dans le cadre de l'optimisation de nos processus de reporting et de la gestion des coûts, nous recherchons un architecte spécialisé dans les outils de développement et de visualisation de données. Vous jouerez un rôle clé dans l'optimisation de nos systèmes de reporting tout en appliquant des pratiques FinOps pour réduire les coûts. Responsabilités : Mise à disposition d'outillage pour le développement et le monitoring, afin de faciliter le travail des équipes de développement et d'exploitation. Contribuer à la réduction des coûts dans une démarche FinOps, en veillant à l'efficacité et à l'optimisation des ressources. Encadrer l'industrialisation du déploiement des applications de reporting, en appliquant les bonnes pratiques de CI/CD pour garantir la fluidité des processus. Proposer des architectures techniques en mettant en œuvre les principes d'Agilité et de déploiement continu, tout en anticipant les besoins en termes de scalabilité. Former et accompagner les utilisateurs sur les bonnes pratiques de développement des rapports et tableaux de bord Power BI, en assurant une adoption efficace des outils. Participer à l'animation de la communauté Power BI , en organisant des ateliers et des échanges autour des meilleures pratiques d'utilisation. Optimiser les datasets et dashboards , afin d'améliorer les performances et l'expérience utilisateur. Assurer une veille technologique autour des architectures de reporting, pour rester à la pointe des dernières innovations et proposer des solutions adaptées aux nouveaux défis.
Mission freelance
Data Analyste Power BI /SQL
Au sein de la Direction de la Relation Client à Distance l’équipe Data a pour mission de développer, maintenir et diffuser des indicateurs de pilotage à destination des 3 Directions métiers : • Relation client à distance • Ventes à distance . L’équipe Data RCD recherche un(e) Data Analyste, rattaché(e) au Responsable Data RCD. Description Le(a) Data Analyste RCD aura une expérience significative dans l’analyse de données, le profiling, le développement d’indicateurs de performance et la création de tableaux de bord, avec une expertise particulière en SQL et Power BI. Une expérience dans le domaine de la relation client à distance est un plus. Responsabilités : • En collaboration avec les équipes métiers RCD e, identifier toutes les données nécessaires pour supporter la mise en place d’indicateurs clés de performance clés (KPI) et contribuer à la définition du modèle de ce socle de données RCD. Ce socle sera mis en place par la Data Factory. • Recetter le socle data RCD et le documenter. • Mettre en place des solutions pour vérifier quotidiennement la qualité et l’intégrité du socle data RCD. • Collaborer avec les équipes métiers RCD pour comprendre leurs problématiques et formaliser leurs besoins en matière de KPI. Collecter tous les éléments permettant de prioriser les besoins. Documenter les KPI. • Développer et maintenir des tableaux de bord de restitution des KPI, ils devront être interactifs et visuels, développés dans Power BI, et la mise à jour devra être automatique. Documenter les tableaux de bord. • Former les utilisateurs à l’utilisation des tableaux de bord. • Participer à des projets transversaux pour améliorer les processus et les outils de la relation client à distance. • La mise en place du socle data RCD et les tableaux de bord Power BI remplaceront progressivement les reporting développés dans QlikView et MicroStrategy. Le(a) Data Analyste RCD participera également, si besoin, à la maintenance de ces outils, jusqu’à leur décommissionnement. Le(a) Data Analyste est garant du respect des engagements suivants : • Rigueur et qualité des reporting et des datas : fiabilité des reporting et des données communiquées, cohérence des résultats, etc… • Relation partenariale avec les métiers et avec la Data & IA Factory : être en co-construction des reporting avec le métier et avec la data & IA Factory pour le socle. Ce poste nécessite de comprendre les besoins métiers, les enjeux, les processus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.