Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Business Analyst Senior (RestAPI/Talend/Jira/Agile)

Livrables du service : - Service avec accompagnement des chefs de projet, et des parties prenantes métiers, dans la mise en place informatique des interfaces Service de collecte des exigences globales d'intégration et de fourniture de spécifications fonctionnelles et techniques écrites, y compris les exigences non fonctionnelles NFR. - Service de coordination des acteurs IT impliqués dans la définition de l'interface : architectes, développeurs, experts, intégrateurs, ... - Service de contribution à la Conception des interfaces (transfert de fichiers, API, ...), avec l'aide d'architectes, d'experts data, d'experts applicatifs. - Service de définition du modèle de fonctionnement cible des interfaces. - Service avec coordination et supervision des équipes de livraison pour assurer la mise en place des solutions d'intégration. - Service pour assurer la qualité de bout en bout de l'intégration, définir les cas de test, réaliser et valider les tests – y compris les tests d'exigences non fonctionnelles - Service de gestion proactive des risques (temps, budget, périmètre, qualité), et service avec reporting régulier sur l'état des activités - Une fois les intégrations déployées, le service assurera une migration en douceur vers le BAU - Service d'utilisation de JIRA pour la gestion du backlog, les estimations de projets et le suivi agile des projets. - Service de remontée d'alertes/incidents et de partage de rapports réguliers et de support de 1er niveau sur les intégrations. -Service de fourniture de documents de spécifications fonctionnelles et techniques des interfaces -Service de conception détaillée de l'interface -Service avec modèles d'exploitation BAU -Service de fourniture de cas de test et de résultats -Service avec rapports
Développeur Python
Missions : En tant que Développeur Python spécialisé en Data, vous aurez pour missions principales de : • Développer, maintenir et optimiser des pipelines de données pour l'ingestion, la transformation et l'analyse des données. • Collaborer avec les équipes Data Science pour déployer des modèles d'analyse et d'IA en production. • Assurer la qualité, la performance et la scalabilité des solutions de données. • Participer à la mise en place et à l’évolution des systèmes de gestion de bases de données (SQL, NoSQL, etc.). • Intégrer des sources de données externes (API, fichiers, bases de données, etc.). • Rédiger et maintenir une documentation technique des solutions développées. • Assurer la gestion et la manipulation de grandes quantités de données tout en respectant les standards de sécurité et de confidentialité. • Aider à l’analyse des besoins métiers et à la conception de solutions adaptées.
Développeur API Sitetracker & Salesforce
Dans le cadre d'une mission chez un client prestigieux, nous recherchons un Développeur API expérimenté pour intervenir sur des projets stratégiques autour de Sitetracker , Salesforce , et des outils ETL. Vous serez en charge de concevoir, développer et optimiser les intégrations API pour répondre aux besoins spécifiques du client, tout en assurant la transformation et la gestion des données. Votre expertise en Java , Talend , et les outils d’intégration ETL sera essentielle pour garantir des solutions fiables et performantes. Missions principales : Concevoir, développer et maintenir des APIs permettant l’intégration de Sitetracker , Salesforce , et d'autres systèmes tiers. Travailler avec les outils ETL, notamment Talend , pour gérer la transformation, le nettoyage et l’intégration des données. Optimiser les processus de flux de données et assurer leur bonne synchronisation entre différentes plateformes. Personnaliser et configurer les modules Sitetracker et Salesforce selon les besoins spécifiques du client. Garantir la sécurité des APIs en mettant en œuvre des standards tels qu' OAuth 2.0 et JWT . Participer aux tests de performance, de charge et d’intégration pour valider les livrables. Maintenir une documentation claire et complète des processus et des développements réalisés. Travailler en étroite collaboration avec les équipes du client, incluant les équipes fonctionnelles et techniques, pour assurer l’adéquation des solutions aux besoins métiers.
DevOps/Architecte AWS H/F

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevOps/Architecte AWS H/F à Paris, France. Contexte : Notre client est une société spécialisée dans les solutions technologiques pour les investisseurs. Nous recherchons un profil ayant une expertise AWS, une maîtrise de la gestion de pipelines ETL complexes et de traitements intensifs de la données, une capacité à améliorer leur API et à refondre leur architecture. Les missions attendues par le DevOps/Architecte AWS H/F : Professionalisation de l'Infrastructure : -Besoin de professionnaliser l'infrastructure et la sécurité de leur application. -Recherche d'un freelance expérimenté en architecture AWS Complexité des Pipelines ETL : -Gestion de pipelines ETL complexes avec des traitements intensifs. -Utilisation de Python, Django, AWS, et Jenkins pour l'orchestration. Absence de Certaines Technologies : -Absence d'Airflow et de LangChain dans leur stack technologique. -Intégration potentielle de ces technologies pour améliorer les processus. Transition vers une Application Statique : -Besoin de passer l'application en statique. -Refonte de l'architecture pour supporter une application statique. Amélioration de l'API : -L'API actuelle n'est pas suffisamment professionnelle. -Amélioration et professionnalisation de l'API.
Analyse Developpement SRS DATA 001 - DATASTAGE PX

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs La mission, sous le pilotage du responsable d'équipe, devra analyser les évolutions qui lui seront confiées, en effectuer les développements sur l'ETL DATASTAGE PX 11.3 ainsi que les tests liés. Une participation au run de niveau 3 est prévue également (prévoir astreintes) Les fondamentaux bancaires sont nécessaires (connaissances des types de produits, prêts, taux, échéanciers,..) Un test technique éliminatoire sera effectué en prérequis des entrevues. Environnement francophone et Anglophone
Architecte Data - Datalake
Nous recherchons un Architecte Data confirmé pour accompagner notre client, banque d'investissement dans la mise en place de son datalake. Vous aurez à votre charge la conception, la mise en œuvre et l'optimisation du datalake, tout en portant la définition de la stratégie auprès de la DSI. Vos missions : Concevoir et architecturer le datalake en fonction des besoins spécifiques du client. Mettre en place les infrastructures nécessaires pour le datalake, en assurant performance, sécurité et scalabilité. Collaborer étroitement avec les équipes techniques et les parties prenantes pour garantir l'intégration et l'alignement des solutions data Gérer et optimiser le stockage des données, en veillant à la conformité réglementaire et à la gouvernance des données. Assurer une veille technologique pour intégrer les meilleures pratiques et les innovations pertinente dans la solution proposée. Pré-requis : Bac + 5 école d'ingénieur ou équivalent Expérience avérée (plus de 10 ans) en tant qu'Architecte Data avec une spécialisation en datalake idéalement dans le secteur bancaire. Maitrise des technologies de datalake (Hadoop, Spark, Kafka, etc....), compétences en architecte cloud (AWS, Azure, GCP), connaissance des outils d'intégration de données (ETL). Capacité à élaborer et à défendre des stratégies data auprès de la direction Anglais courant (environnement internationale)
Data Engineer Snowflake
Contexte : Nous recherchons un Data Engineer expérimenté et autonome, avec une forte appétence pour la qualité de ses livrables. Intégré au Data Office d'une société du secteur de l'édition de logiciel sur le périmètre Data Plateforme, vous participerez à l'extension de notre plateforme de données à l'ensemble du groupe, y compris les filiales, dans le cadre de notre démarche Data At Scale. Responsabilités : Sous la responsabilité de l'Engineering Manager Data Platform, vous contribuerez au développement et à l'optimisation de notre Data Platform. Vos principales missions incluront : Conception et implémentation des pipelines de données. Optimisation des traitements et flux de données (batch et streaming). Mise en place des bonnes pratiques de développement et d'exploitation. Assurer la fiabilité et la performance de la Data Platform. Missions : En collaboration avec l'Engineering Manager et l'équipe Data, vous serez en charge de : Architecture & Développement : Développer et maintenir des architectures Data évolutives et scalables. Mettre en place et optimiser les flux de données (ETL, ELT) en batch et streaming. Participer à l'industrialisation des traitements de données. Implémenter les bonnes pratiques DevOps & CI/CD (automatisation, tests, monitoring). Assurer la performance et la résilience de la plateforme. Collaboration & Support : Travailler en étroite collaboration avec les équipes Data Management, Tech, Product et Business. Participer aux échanges techniques et contribuer à l'amélioration continue des solutions. Documenter et partager les bonnes pratiques avec les autres membres de l’équipe. Optimisation & Innovation : Suivre et optimiser les KPIs de la Data Platform (performance, coût, monitoring). Contribuer à la veille technologique et à l’amélioration des architectures. Être force de proposition pour optimiser les traitements et infrastructures.
Architecte Solution Intégration applicative

Bonjour, Pour le compte de notre client nous recherchons un architecte solution afin de mettre en place des solution d'intégration applicative opérationnelle au sein du SI. Missions : - Il participe à la définition de l'architecture de référence ; - Il propose des architectures techniques en réponse à des besoins exprimés par le métier, dont il vise la satisfaction avant tout. Il participe aux chiffrages détaillés des solutions proposées ; - Il analyse et documente les solutions existantes et à venir et définit des plans d'amélioration continue en termes de modélisation, de capacité, de performance, de coût et de sécurité ; - Il suit les avancées technologiques et propose si besoin des évolutions visant à améliorer l'efficacité du SI. Contexte technologique : - Informatica IDMC (MDM / API / ETL) / PowerCenter ; - Technologies Microsoft Azure (Fabric / DBaaS / Event Hubs...). Exemple de potentiels sujets à adresser : - Projets renouvellement CRM / Refonte de la facturation clients ;
Développeur .NET 9 Senior/ NCache

Le client est une société de gestion d'actifs de premier plan, à la recherche d'un consultant externe expérimenté et hautement qualifié pour améliorer notre expertise technique en matière de mise en cache distribuée et de la stack technologique Microsoft. Notre objectif est de recruter une personne non seulement techniquement supérieure, mais également capable de former et de perfectionner notre équipe. Aperçu du rôle En tant que Consultant Externe Senior, vous travaillerez en étroite collaboration avec notre responsable technique et l'équipe de développement pour améliorer nos stratégies de mise en cache distribuée, optimiser les performances et assurer l'évolutivité. Vous jouerez un rôle clé dans l'orientation des décisions architecturales et des meilleures pratiques, avec un accent particulier sur les technologies Microsoft, notamment C#, ASP.NET et .NET 9. Responsabilités clés : * Fournir des conseils d'expert sur les stratégies de mise en cache distribuée (par exemple, Redis, NCache ou solutions similaires). * Évaluer et optimiser notre architecture de mise en cache actuelle pour améliorer les performances et la fiabilité. * Collaborer avec le responsable technique pour identifier les domaines clés d'amélioration et d'innovation. * Former et perfectionner l'équipe de développement par le biais de sessions de partage de connaissances et de meilleures pratiques. * Contribuer à l'architecture globale du système, en assurant l'évolutivité et la résilience. * Réaliser des audits techniques et fournir des recommandations pour l'optimisation. Qualifications et expérience requises * Expertise prouvée dans les solutions de mise en cache distribuée telles que Redis, NCache ou équivalents. * Expérience approfondie des technologies Microsoft : C#, ASP.NET, .NET 9 et frameworks associés. * Connaissance approfondie des architectures de systèmes haute performance et évolutives. * Expérience avec les plateformes cloud (de préférence Azure) et leurs mécanismes de mise en cache. * Excellentes compétences en résolution de problèmes et capacité à diagnostiquer des complex performance bottlenecks. * Fortes capacités de mentorat pour aider à élever les compétences techniques de l'équipe. * Une expérience préalable en tant que consultant ou conseiller est un atout majeur. Compétences techniques requises : C# .Net 6/7/8 Cache InMemory / multithreading Azure DevOps Développements full stack Azure (Azure functions, Logic App, ...) Sonar Framework d'automatisation des tests (Playwright, ..) SSIS, ADF, Azure ETL serait un plus Connaissance des API en architecture ouverte, microservices, containerisation...
Lead Data PO Finance

Au sein de la DSI du groupe, la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner déployer la stratégie de croissance du groupe et les équipes opérationnelles au quotidien en leur mettant à disposition outils, insights et KPI Elle intervient sur différents domaines Produits, Marketing, CRM, Digital, Sales, Merchandising, demand planning, stock, logistic performance, operations et Finance dans une logique de collaboration et d’amélioration de la performance. Pour accompagner la croissance organique du groupe, Lacoste est en train de se transformer, notamment au niveau des systèmes d’information. Un projet stratégique Data a été lancé pour développer les usages de la Data. Description de la mission En tant que Data Lead Product Owner Finance SAP, vos responsabilités seront les suivantes : Lancer coté Data la démarche d’amélioration de la performance financière de Lacoste Organiser la collecte des données nécessaires à la démarche sur la plateforme Data Animer les les développeurs des Datavisualisation, internes et externes Proposer et mettre en œuvre les produits Data Organiser la démarche d’élaboration de la roadmap, la priorisation et le delivery dans le respect du cadre budgétaire et des plannings Faire progresser l’organisation agile Concevoir et organiser la contribution des plateformes régionales, animer la démarche de recueil des attentes locales et le déploiement des features Avec l’équipe MasterData et Data Quality, garantir la fiabilité et la pertinence des données mises à disposition Assistance à la préparation d’un futur projet de transformation SAP Environnement Technique : Cloud Data Platform : Snowflake sur Microsoft Azure Langages : SQL , Python ETL : Matillion (Cloud) Dataiku Dataviz : QlikSense Profil Compétences techniques Diplôme d’ingénieur ou équivalent, avec au minimum 5 ans d’expérience en tant que PO dans des environnement Data. Maîtrise opérationnelle de l’anglais Maîtrise du SQL et des démarches d’analyse de données La connaissance des environnements SAP et de l’exploitation des données issues de SAP. Soft Skills Doté(e) d’une culture de la performance, et d’une solide connaissance des écosystèmes digital, vous avez le souci constant d’apporter la juste réponse aux équipes opérationnelles afin de les aider dans leurs processus d’amélioration continue. Vous êtes autonome, rigoureux et aimez synthétiser et échanger sur vos bonnes pratiques et prises de décision Le travail en équipe vous définit
Data engineer
📢 Offre d’Emploi – Data Engineer (Freelance) 🔎 Nous recherchons un Data Engineer expérimenté pour une mission passionnante au sein d’une équipe technique innovante dans un environnement Google Cloud Platform (GCP) . 🎯 Missions principales : ✔️ Développement et optimisation de pipelines de données (ETL/ELT) ✔️ Modélisation et industrialisation des données ✔️ Mise en place et évolution des indicateurs de performance ✔️ Optimisation des coûts et des performances sur BigQuery ✔️ Collaboration avec les équipes Data et Ops pour améliorer la plateforme 🛠 Stack technique : 🔹 Cloud : Google Cloud Platform (GCP) 🔹 Orchestration : Airflow 🔹 Modélisation : DBT (gestion de tables incrémentales) 🔹 CI/CD & Infra : GitLab CI/CD, Terraform, Terragrunt, Docker 🔹 Langages : SQL, Python 💡 Profil recherché : ✅ +5 ans d’expérience en Data Engineering ✅ Maîtrise des environnements GCP, BigQuery, Airflow et DBT ✅ Solides compétences en SQL et Python ✅ Expérience avec l’ industrialisation de pipelines et l’optimisation des performances ✅ Bonne connaissance des méthodes Agile (Scrum, Kanban) ✅ Esprit d’analyse, capacité à vulgariser et à collaborer avec les équipes métier 📍 Localisation : Paris (Présence sur site 50%) 📅 Démarrage : mi-avril
DEV LEAD DATA ENGINEER PYSPARK / DATABRICKS / AZURE

Bonjour, Pour le compte de notre client, nous recherchons un Tech lead data engineer Pyspark / Azure / Databricks. La mission est constituée à 50% de Scrum / agilité et à 50% d'expertise technique. Il faut à la fois maitriser absolument la méthodologie agile et une première expérience en tant que Dev Lead. Ci-après les tâches à maitriser et à réaliser : Gestion de l’équipe de développement et suivi opérationnel Le Dev Lead Data Engineer est plus orienté gestion d’équipe et suivi du delivery . Il assure que les projets avancent et que les objectifs sont atteints. 🎯 Principales responsabilités : ✅ Superviser le travail des Data Engineers et assurer leur productivité ✅ Organiser les cérémonies Agile (Daily, Sprint Planning, Retro, Review) ✅ Prioriser les tâches en lien avec le Product Owner ou les Business Units ✅ Assurer le suivi des deadlines et de la vélocité de l’équipe ✅ Identifier les risques et blocages techniques ✅ Collaborer avec le Tech Lead pour aligner les objectifs techniques et business Ci-après les tâches à maitriser côté technique : 1️⃣ Analyse et Conception Étudier les besoins métiers et concevoir l’architecture des pipelines de données en intégrant des modèles adaptés aux cas d’usage. (Tech Lead) Définir la stratégie technique, valider les choix d’architecture et assurer leur cohérence avec les exigences métier et techniques. 2️⃣ Développement des Pipelines Développer et optimiser des pipelines ETL/ELT avec PySpark , intégrer diverses sources de données (SQL, NoSQL, APIs, fichiers) et garantir leur performance. (Tech Lead) Assurer les bonnes pratiques de développement, réaliser des revues de code et encadrer les développeurs juniors. 3️⃣ Gestion des Environnements Cloud Configurer et gérer les clusters Databricks , orchestrer les flux de données avec Azure Data Factory / Databricks Workflows et stocker les données dans Azure Data Lake . (Tech Lead) Optimiser la gestion des ressources cloud, mettre en place des standards pour le provisioning des environnements et superviser les décisions liées aux coûts et performances. 4️⃣ Optimisation et Performance Améliorer l’exécution des jobs avec Delta Lake , optimiser le code PySpark (partitioning, caching, joins...) et mettre en place du monitoring. (Tech Lead) Définir et promouvoir les meilleures pratiques d’optimisation et de monitoring, analyser les bottlenecks et proposer des solutions adaptées à grande échelle.
DEVELOPPEUR MULESOFT SENIOR

Lieu : Paris, 3 à 4 jours de TT par semaine | Durée : Longue | Disponibilité : ASAP Contexte et mission Nous recherchons un Développeur Mulesoft Senior pour intervenir sur des projets d’intégration et d’optimisation de flux de données chez un client du secteur du luxe basé à Paris. Vous serez responsable de la conception, du développement et du déploiement des solutions d’intégration basées sur Mulesoft, en assurant la performance et la sécurité des flux. Responsabilités • Concevoir et développer des solutions d’intégration avec Mulesoft • Optimiser et maintenir les flux d’intégration existants • Assurer la conformité des développements aux standards Mulesoft • Réaliser des tests unitaires et d’intégration • Collaborer avec les équipes IT pour assurer une intégration fluide avec les systèmes existants • Participer aux revues de code et apporter des recommandations techniques Compétences requises • Expérience confirmée sur la plateforme Mulesoft (Anypoint Platform) • Maîtrise des patterns d’intégration (ETL, ESB, API-led connectivity) • Bonne connaissance des protocoles d’échange (REST, SOAP, JMS, FTP, etc.) • Expérience avec les bases de données SQL et NoSQL • Connaissance des environnements cloud et DevOps (Docker, Kubernetes, CI/CD) • Sensibilité aux enjeux de performance et de sécurité Profil recherché • Expérience de 5 ans minimum sur Mulesoft • Capacité à travailler en mode agile (Scrum, Kanban) • Autonomie, réactivité et esprit d’équipe • Forte capacité à résoudre des problèmes complexes et à proposer des solutions innovantes
Consultant data

Je suis à la recherche d'un consultant Data qui pourrait renforcer notre équipe afin d'assurer un role de tech leader Ateliers de cadrage avec le client/métier pour orienter la solution technique, donc facilité de communication Expertise Talend Cloud V8 & TMC pour concevoir des flux en ETL/Job, chiffrer, justifier le chiffrage .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... ... .... .... ..... .......... ... .... .... ..... .......... ... .... .... ..... .......... ... .... .... ..... .......... ... .... .... ..... .......... ... .... .... ..... .......... ... .... .... .....
Consultant Informatica IDQ MDM (H/F)

IDQ : Intervenir dans toutes les phases du cycle de vie des projets décisionnels. Analyse de la demande et étude des SPEC Développement de nouveau traitements et application via l'outils IDQ Extraire les données d’un entrepôt de données, mise en qualité et chargement des données avec IDQ Gestion du Versionning sur le référentiel GUIT(ETL/Script) Déploiement sur les différents environnements Réaliser les tests unitaires, de qualité des données et testes de non-régression Rédaction de la documentation technique pour les applications développées Création de nouvelles chaînes ControlM Participation à des ateliers dans la cadre du projet Maintenance de l'existant et leurs évolutions Evolution des traitements existants Gestion des incidents et mise en œuvre des correctifs pour les applications MDM : Créer de nouveaux mappings Apporter des évolutions sur les applications existantes Appliquer des règles de rapprochement Exécuter les tâches de chargement et de propagation Effectuer les Tests Gestion du packaging Assurer la livraison sur les différents environnements jusqu'à la PROD
69483 : Urbanisme IT - 505
Contexte : La mission consiste à participer à la conception des composants et modèles supportant les services d’infrastructures, réseau, cloud et services d’OINIS dans un objectif de digitalisation, d’automatisation des processus métier en transformant l’écosystème IT OSS et BSS et en introduisant de nouveaux concepts technologiques tel que l’usage de la Data et de l’IA, la modélisation de nouvelles interfaces API et en contribuant à la définition de processus d’orchestration couvrant l’ensemble des parcours métiers, vente, production, exploitation. La personne aura la charge de contribuer à définir et promouvoir l'urbanisme IT, aligner les architectures sur la stratégie d'entreprise, et faciliter la transformation des systèmes d'information Sous le pilotage du responsable des architectures du département Urbanism, le prestataire aura notamment pour missions de : Participer à la définition, la promotion et l’évolution des règles d’urbanisme et des d’architectures IT sur les plans fonctionnels, logiciels et techniques Aligner l’Urbanisme IT sur la stratégie d’Entreprise Animer et participer aux chantiers de conception d’architecture Identifier les impacts des transformations IT sur les métiers Mener des études et assurer la conformité de l'architecture définie par rapport aux recommandations et faire des propositions d'évolution de ces recommandations le cas échéant Présenter et communiquer auprès des parties prenantes les principes de l’architecture Identifier les points de blocages qui ralentissent la transformation du SI et proposer des solutions pour les traiter Participer à la planification, à la définition et à la conception des solutions Documenter les architectures définies Livrables Documentation Comptes-rendus d’avancement Comptes rendus d’activité hebdomadaire Compétences techniques Une connaissance des normes et standards IT utilisés par les Télécom serait un plus : TOGAF, Open Digital Architecture, TMF, MEF, etc. Bonne connaissance des architectures du SI Télécom OSS et BSS et les fonctions associées : CRM, CLM, CPQ, ETL, BI, Billing, IAM, COM, SOM, ROM, Inventories etc. Compétences fonctionnelles Maitriser les outils et normes utilisées pour la modélisation d’architectures IT : Diagrammes UML, plans de séquences, BPMN, DMN, … Bonne connaissance de l’architecture Entreprise et du SI en général Bonne connaissance des contraintes de la digitalisation Une maitrise des fondamentaux du réseau et infrastructure Telco & cloud. Anglais : lu, écrit et savoir mener des échanges en anglais (documentation + échanges avec équipes à l’international) Information sur la mission : Date de début souhaitée : ASAP Durée estimée : 1 an – reconductible Localisation géographique : Paris 15 Télétravail : 2 jours / semaine
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Etat du marché - Avril 2025il y a une heure
- Impossible de liquider mon EURL !il y a une heure
- Quel TJM pour une mission longue ?il y a une heure
- Correction d'erreurs exercice précédentil y a 7 heures
- Passage automatique en EI : rebascule en micro-BNC possible ?il y a 13 heures
- Dépassement plafond AE deux années consécutives ?il y a 13 heures