Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
TEAM LEADER WORKPLACE EXPERT SCCM
TEAM LEADER WORKPLACE EXPERT SCCM ATTENDUS TECHNIQUES PRINCIPAUX - Expertise SCCM - INTUNE - SCCM – Expert - Créations de masters et migrations d'OS - Créations et déploiements de packages/applications - Création de Reporting (SCCM ou PowerBI) - Intune – Expert ou bonne connaissance à minima - Gestion et suivi de déploiements via AutoPilot - Gestion et déploiement des logiciels via Intune - Une expérience dans le domaine la téléphonie Mobile managée par Intune serait un plus. MCO de la partie Workplace - Management des ressources nécessaires ou participation à la résolution des incidents et demandes liés aux Postes de Travail de Niveau 3. - Participation à la MCO des outils d'administration des solutions SCCM et Intune relatives aux postes de travail Management opérationnel - Reporting et suivi du parc gérés par SCCM et du parc géré par Intune - Manage une équipe de 2 personnes. - Participe et représente son équipe aux réunions de Service Digital Opérations - Anime les réunions de communication / coordination avec les IT régionaux présents dans le monde entier. Gestion des projets - Coordonne la gestion des projets de l'équipe : - Planification - Gestion de la ressource - des investissements nécessaires - Gestion du cycle de vie du projet
Mission freelance
Expert Linux
PROPULSE IT recherche un expert Linux qui aura la charge de participer aux projets en cours sur les périmètres de l'activité, mais également de fournir aux équipes de Production du conseil, de l'expertise et du support de dernier niveau. L'un des premiers projets techniques attendu dans la prestation est la mise en œuvre d'une offre de haute disponibilité pour les SI via la mise au catalogue des solutions technique des clusters de basculement RedHat. Dans ce contexte il sera attendu du prestataire de concevoir l'ensemble de la solution de son delivery par les équipes d'intégration jusqu'à son exploitabilité par nos équipes d'exploitation en s'appuyant sur nos outils. Cette prestation sera menée en collaboration avec les équipes de production. - Réaliser des projets techniques sur des environnements Linux (mise en œuvre de nouveaux paliers OS, middlewares et des évolutions d'infrastructures existantes) - Préconiser de nouvelles offres et des évolutions des infrastructures en relation avec les équipes d'ingénierie, de production et de sécurité, tout en évaluant leurs impacts sur les processus d'exploitation et de maintenance - Assurer le support N3 des infrastructures, des paliers OS et des middlewares actuellement utilisés.
Mission freelance
Expert Kubernetes / OPENSHIFT - mission long terme Projets IAC et conteneurs
PROPULSE IT recherche pour un de ses clients grands comptes un Expert Kubernetes et mise en place de chaines CI/CD, dans le cadre de projets de conteneurisation OnPremise et IAC. La mission sur le périmètre KUBERNETES comporte deux volets principaux : • Accompagnement à l'installation et configuration des clusters • Aide à l'administration et maintenance des clusters La chaîne CI/CD sera composée des éléments ci-dessous : • Gitlab (repository + pipelines + runners) • Hashicorp Vault • Artifactory • Kaniko • Trivy • Grype • Syft • Checkov • Kubernetes • ArgoCd Description de la mission : - Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) - Administration/ Maintien en condition opérationnel des clusters Openshift - Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Participer à l'alimentation de la roadmap technique et à l'élaboration des normes d'exploitation.
Mission freelance
Expert Qualité des Données CRM
PROPULSE IT recherche un Expert Qualité des Données CRM, avec une expérience significative en projet CRM en mode agile (salesforce) et en projet de migration. L'Expert CRM Data Quality sera intégré à l'équipe qui déploie des produits destinés aux Collaborateurs du client (y compris Salesforce, mais aussi des outils satellites, comme DocuGen / Docusign pour la signature électronique, Hubspot pour l'automatisation du marketing, Medallia pour les enquêtes, MayDay pour les connaissances, Genesys pour distribution de flux omnicanal). Objectifs de la mission : 1. Gestion de la qualité des données : Superviser et maintenir la qualité des données dans Salesforce CRM, en étroite collaboration avec les architectes pour définir et appliquer les normes, les procédures et les processus de contrôle qualité. 2. Expertise Salesforce CRM : Posséder une connaissance approfondie de l'architecture de données Salesforce, des objets standards et personnalisés, des objets relations et les meilleures pratiques en matière de modélisation des données. 3. Gestion de l'intégration : Collaborer avec les équipes techniques pour assurer des intégrations transparentes entre Salesforce CRM et des outils satellites tels que le marketing automation (Hubspot), la signature électronique (DocuGen/DocuSign), enquêtes de satisfaction (Medallia), etc. 4. Migrations de données : - Concevoir et exécuter des projets complexes de migration de données, en travaillant en étroite collaboration avec diverses unités commerciales pour garantir l'intégrité et la cohérence des données. - Assister et diriger les filiales de distribution lors de l'extraction des données. - Identifier les données à nettoyer (individuellement et en masse) et animer les filiales de distribution en nettoyage efforts. - Mettre en place des indicateurs de progression du nettoyage des données. - Expliquer le format pivot utilisé pour la migration des données. - Identifier les améliorations nécessaires aux différentes étapes de la validation des données. - Mettre en place des indicateurs pour suivre les progrès de la migration des données. -Fournir une description détaillée des livrables attendus. 5. Partenariat avec les Business Units : Travailler en partenariat avec différentes équipes métiers pour comprendre leurs besoins, proposer des données solutions et prendre en charge les déploiements de solutions CRM. 6. Documentation et formation : Développer et maintenir une documentation détaillée des processus, des normes de qualité et des meilleures les pratiques. Organiser des formations pour garantir l'adoption et la conformité.
Mission freelance
Expert en réseau et sécurité Sénior
PROPULSE IT recherche un Expert Réseau et Sécurité Datacenter afin d'assister le client dans la conception, mise en œuvre et industrialisation Infra réseau et sécurité au sein des datacenters. - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Les principales compétences attendues : - Expérience technique avancée en Proxy Web de ZScaler - Expérience technique avancée en Firewalling (Checkpoint, Fortinet et Palo Alto) - Expérience technique avancée en F5 (Loadbalancing, APM) Golbalement l'équipe a pour mission l'élaboration de la stratégie, la conception, la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise), en l'occurrence les infras de Virtualisation, Stockage et le socle Réseau datacenter
Mission freelance
Architecte / Analyste Métier / Expert E3SERIE
Mission d'Analyste Métier / Expert E3SERIE : Solution principale : Basée sur E3SERIE 2021, avec des processus/systèmes hérités d'Ex-BT et Ex-AT basés sur E3SERIE 2016 et 2017. Consolidation et validation des besoins métiers : Assurer la cohérence avec les processus de bout en bout et justifier la valeur ajoutée. Rédaction des spécifications fonctionnelles détaillées : Basées sur les besoins métiers. Préparation du projet avec le chef de projet de livraison. Accélérateur de migration RSC d'E3SERIE 2016/2017 à E3SERIE 2021 : Deuxième étape de la roadmap de convergence électrique RSC. EXIGENCES FONCTIONNELLES 01 Connaissance approfondie du processus de conception électrique Expertise des processus de conception électrique de bout en bout : Ingénierie (schémas, appareils), conception 3D, fabrication = Obligatoire 02 Capacité à créer des documents de synthèse PowerPoint Décrire une problématique et le plan d'action associé = Obligatoire 03 Anglais courant = Obligatoire EXIGENCES TECHNIQUES 01 Expérience avec E3SERIE Administrateur E3SERIE avec expertise en configuration des fonctions, gestion des données, méthodes en ligne avec le modèle de données, fonctionnalités E3 =Obligatoire 02 Connaissances techniques en infrastructure Expérience souhaitée = Optionnel Localisation = SAINT OUEN Client Alstom
Mission freelance
Architecte middleware & Expert Solution - Proof of Value - API MANAGEMENT
Contexte Un APIM est une plateforme qui facilite la gestion, la publication et la supervision des API, essentielles pour intégrer des services tiers internes ou externes. Les principales problématiques du groupe résident dans l'efficacité opérationnelle, la sécurité des données (les apis exposés sur le web), la facilitation des intégrations avec les partenaires internes et externes et la résorption de l'obsolescence dont l'APIM est un accélérateur (Biztalk) ainsi que la gouvernance liée à la mise en place de ce type d'outils transverses. La réalisation d'un Proof Of Value nous semble essentielle pour évaluer la pertinence des solutions envisagées dans notre environnement spécifique. Cela permettra de tester l'intégration, la sécurité, et l'évolutivité avant une adoption à l'échelle du groupe. Ce POV API Management devra répondre à plusieurs enjeux : Sécurité du SI : mieux maitriser l'exposition de nos API vers l'extérieur (par exemple pour les fuites de données), anticiper le déploiement de la directive NIS 2 pour les places de marché - Productivité de nos équipes dev et ops : améliorer le déploiement et la mise en œuvre de nos APIs, exposer plus facilement des API depuis nos infrastructures mainframe - Gouvernance : meilleure connaissance et maitrise de notre patrimoine d'API - Pour ce faire nous allons tester deux solutions APIM sur deux cas d'usages différents : Software AG My WebMethod & Google APIGEE Description L'expert solution APIM devra principalement nous aider à déployer les deux solutions Software AG & APIGEE, notamment en : • D'accompagner les équipes de production pour le paramétrage et déploiement (CI/CD, réseau, IAM/IDP…) • D'accompagner les équipes de développement pour déployer les API dans les solutions • D'accompagner les équipes de sécurité pour paramétrer dans la solution les règles SSI • D'accompagner les équipes architecture pour la gouvernance des API Livrables - Software AG My WebMethod & APIGEE fonctionnels pour le POV (on prem pour MyWebMethod & Hybride pour APIGEE) - Connecteurs APIsation (Software AG) du Mainframe déployés - API Mainframe et commerce déployées sur les portails et solutions APIM - Intégration de la solution APIM APIGEE dans la CI/CD groupe - Paramétrage de la sécurisation des APIs - Documentation des différents travaux Compétences - Expertise APIGEE - plateforming & développement - Connaissance Software AG - platforming & développement - Connaissance en outillage DEVOPS - Confirmé en environnements Cloud - Expertise en Architecture Middleware
Offre d'emploi
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Offre d'emploi
Machine Learning Engineer senior
TJM A RESPECTER PROFIL 5-10 ans : 450€ +10 ANS : 500€ Contrainte forte du projet Data Driven , powwerBI/Loocker, contexte projet Compétences techniques Python,Shell, CI/CD, Airflow, Dataflow - Expert - Expert - Impératif AppEngine, FastAPI - Expert - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Offre d'emploi
Expert Datahub H/F
Dans le cadre de l'équipe OPS Data / IA au niveau du socle Datahub. • Garantir le fonctionnement optimal des outils ou systèmes dont il a la charge. • Garantir la résolution des incidents de niveau 2 ou 3 et contribuer à l'élaboration d'actions préventives sur les éléments dont il a la charge. • Apporter l'expertise, conseil et assistance dans l'usage et la mise en œuvre d'applications auprès des projets, support aux projets. • Contribuer à l'évolution des cibles et des trajectoires du SI, • TechLead sur les produits Data / IA,
Offre d'emploi
Expert Efront H/F
Vous intégrerez l'équipe informatique. Vous contribuerez à soutenir la croissance de l'entreprise à travers la gestion de leur système eFront, essentiel à leur activité. Vos Principales missions Seront : - Gérer et optimiser la plateforme eFront pour répondre aux besoins de l'entreprise, en assurant sa performance et sa fiabilité, - Intégrer Salesforce avec eFront pour permettre une vue à 360 degrés des interactions avec les clients et partenaires, facilitant ainsi le reporting, le marketing, et le service clients, - Collaborer étroitement avec les équipes Métier pour comprendre leurs besoins spécifiques et adapter l'utilisation de la plateforme en conséquence, - Gérer les mises à jour de la plateforme, collaborer étroitement avec les équipes d'eFront en direct, - Former les utilisateurs à l'utilisation d'eFront et fournir un support technique, - Développer et maintenir la documentation technique relative à l'administration de eFront et aux procédures utilisateurs.
Mission freelance
Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci)
PROPULSE IT recherche un Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci). Dans le cadre du projet « IAC » et de la maintenance évolutive de la chaine de déploiement continue, le client souhaite se renforcer avec une prestation d'expert technique sur l'infra As Code et le CI/CD. La chaîne d'outillage est composée des éléments suivants : Gitlab (repository + pipelines + runners), Hashicorp Vault, Artifactory , Kaniko, Trivy, Grype, Syft, Checkov, Kubernetes, ArgoCd Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». mission : Réaliser et modifier différents rôles et playbooks Ansible - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Mise à jour des documents des normes d'utilisation de la brique technique - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées Réaliser et modifier différents modules Terraform - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Réaliser et modifier différents jobs et pipelines Jenkins - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution Réaliser et modifier différents jobs et pipelines Gitlab-CI - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Assurer le support N3 de la chaîne CI/CD • Suivi, mise à jour et résolution des incidents en respectant les processus définis • Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) • Mode opératoire des actions réalisées
Offre d'emploi
Data Ops SQL Server / SSIS / SSAS Power Bi
Dans le cadre de son développement, SquareOne renforce ses effectifs et intègre un responsable de plateforme date / Data Ops ayant une forte sensibilité sur les problématiques. En mode run / MCO / Maintien en condition de sécurité d'une plateforme data : Activités : Support utilisateurs : · Assurer l’assistance fonctionnelle et technique aux utilisateurs de la plateforme BI au travers de la gestion des tickets ITSM · Analyse des demandes et incidents · Proposition de solutions d’amélioration continue · Maintien en condition opérationnelle: · Suivi des performances des BDD SQL Server et des outils BI pour garantir disponibilité et performance. · Gestion des installations, mises à jour et les patchs des différents composants de la plateforme (SQL Server, SSIS, SSAS, Power BI Report Server). · Diagnostic et Résolution d'incidents · Sécurité des données: · Mettre en œuvre et maintenir les contrôles de sécurité pour protéger les données sensibles · Gérer les accès des utilisateurs à la plateforme en conformité avec les politiques de sécurité plateforme et réglementation. · Réaliser des audits réguliers de sécurité et de conformité des systèmes à l’aide des rapports de sécurité plateforme · Documentation et reporting : Maintenir la documentation relative au support technique. Production des rapports de performance et d’utilisation de la plateforme pour la direction.
Mission freelance
Data analyst BI (H/F)
Data Analyste Expert - Maintenance évolutive d'une application de reporting Contexte : Le client recherche un(e) consultant(e) Data Analyste BI confirmé(e) pour assurer la maintenance évolutive et contribuer à l'amélioration continue d'une application de reporting interne dédiée au suivi commercial. Cette application joue un rôle clé en collectant des données stratégiques et en les mettant à disposition des utilisateurs internes afin de suivre et analyser la performance commerciale. Missions : En tant que Data Analyste Expert, vous serez chargé(e) de la gestion opérationnelle de l’application de reporting et participerez activement à un projet stratégique visant à optimiser le processus de collecte et de mise à jour des données. Ce projet a pour objectif de simplifier les flux de données, réduire au minimum les traitements manuels, et accélérer le cycle de mise à jour des informations tout en garantissant une qualité de données irréprochable. Plus spécifiquement, vous serez amené(e) à : Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions nécessaires pour répondre aux besoins internes. Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise.
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.