Trouvez votre prochaine offre d’emploi ou de mission freelance AWS Cloud à Paris
Ce qu’il faut savoir sur AWS Cloud
AWS (Amazon Web Services) Cloud offre une suite complète de services cloud pour le calcul, le stockage et le réseautage. Son infrastructure évolutive et fiable prend en charge une large gamme d'applications et de services.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
QA Engineer - API Rest/Cucumber/gitlab/aws
DESCRIPTION DE MISSION API Rest - Confirmé - Impératif cucumber - Confirmé - Important gitlab - Confirmé - Important AWS - Junior - Souhaitable Méthodes de travail Scrum, proactivité et défis technologiques. Les équipes sont obligatoirement en présentiel tous les mardis. Le reste en télétravail. Domaine: Distribution and hotel services Vous intégrerez la feature Team « Welcome Connect Offers 2 » au sein du domaine «Distribution and hotel services» de la Digital Factory. Cette équipe se compose d’un Product Owner, d’un TechLead, 4 développeurs. Elle a 2 missions : Assurer le développement de nouvelles fonctionnalités sur l’application « offers-api ». Ces API rest donnent la disponibilité et le prix des offres des chambres d’hôtels du groupe. Il s’agit d’une application récemment réécrite et portée dans le Cloud AWS. Assurer le développement de notre nouvelle chaîne CI/CD qui amènera l’équipe vers de l’intégration continue et du déploiement continu. La CI/CD valide de manière automatique et complète l’application : tests unitaires, tests d’intégration, mutation testing , dark canary testing, quality gates. L’équipe délivre une fois par Sprint en production. Vos missions et responsabilités Au sein de cette Feature Team, vous rejoignez notre équipe en tant que QA Engineer : Définir / contribuer à la stratégie de test Concevoir les plans de test et cas de tests d’évolution et de non-régression, sur l’api et la chaine CI/CD Traduire les exigences fonctionnelles en scénarios de test Produire les jeux de données de tests nécessaires à l'exécution des tests avec l’équipe ; tester ces jeux de données avant l’utilisation dans les tests. Assurer la couverture complète des exigences Produire les releases note de version Partager la stratégie et le reporting des tests à notre cellule transverse « Digital excellence » Contribuer à l’analyse des incidents de production Mener une veille technologique sur les outils liés à la Qualité
Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75
Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité
Mission freelance
Ingénieur Full Stack Java spécialisé en ElasticSearch (Migration vers OpenSearch / AWS)
Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Full Stack Java spécialisé en ElasticSearch pour participer à des projets stratégiques de migration et de développement applicatif. Vous interviendrez principalement dans le cadre d’une migration ElasticSearch 1.X vers OpenSearch 2.X, ainsi que sur le développement de fonctionnalités en Java/Spring au sein d’une équipe dynamique et collaborative. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/ELS/4551 en objet de votre message Missions principales Migration ElasticSearch/OpenSearch : Réaliser la migration de l’application existante d’ElasticSearch V1.8 vers OpenSearch sur AWS. Configuration avancée d'ElasticSearch et d'OpenSearch sur AWS, en tenant compte des bonnes pratiques et de la performance. Modélisation et mapping des données pour optimiser la structure des index. Création et gestion des index ElasticSearch. Mise en œuvre de fonctionnalités de recherche avancée, ainsi que la construction de requêtes ElasticSearch complexes. Optimisation des performances de la solution de recherche. Développement et maintenance d’applications Java/Angular : Implémenter, développer et maintenir des fonctionnalités en Java avec Spring et en front-end avec Angular 7+. Assurer le bon déroulement des tests unitaires et des tests de bout en bout avec l’appui du Product Owner. Produire la documentation technique, incluant les spécifications techniques et les processus de migration. Collaboration en équipe : Participer à l’animation de l’équipe Agile Safe, en contribuant aux rituels (daily meetings, PI planning, ateliers de partage de connaissances, démos, etc.). Environnement Technique : Langages et Frameworks : Java (Spring), Angular 7+, ElasticSearch, OpenSearch. Infrastructure Cloud : AWS (expérience de déploiement d’applications sur AWS, architecture serverless avec Lambda, API Gateway, etc.). Outils de DevOps et CI/CD : Docker, Terraform, GitLab CI/CD, avec gestion des environnements sur le cloud. Services AWS : S3, RDS Aurora, VPC, ainsi que des outils de monitoring (Grafana, Prometheus) et sécurité (Linux, Redhat). Autres : Apache Spark, Spring, Eclipse, VSCode, Maven, Git.
Mission freelance
Expert IAM Multi-Cloud (AWS + AZURE & GCP)
Missions : Évaluer les configurations IAM actuelles sur AWS, identifier les vulnérabilités potentielles, et définir des améliorations possibles Élaborer une stratégie de gestion des identités, des accès et des permissions adaptée aux besoins de l'entreprise et conforme aux règles de sécurité Appliquer les pratiques recommandées par AWS pour la gestion IAM (services : AWS IAM, AWS Organizations, et AWS SCP). Former et accompagner les équipes projet sur les concepts IAM et l’utilisation des outils AWS pour renforcer la culture de la sécurité dans l’organisation.
Offre d'emploi
Développeur Java Finance (Dérivés actions, Pricing, Risk) 5 ans d'expérience F/H
Vous rejoindrez l'équipe OCSI chez notre client, Groupe bancaire mondial, dans la branche IT en charge des développements de la plateforme de calcul des risques de contrepartie (RWA for CCR). Cette équipe a une responsabilité globale et internationale (nécessité d'avoir un anglais courant). En tant que développeur, vous avez une appétence également pour le DevOps. Votre quotidien sera de : o participer aux développements sur les différents composants de la chaine end to end du calcul de RWA (Risk Weighted Asset) pour la gestion du risque de contrepartie (Counterpart Credit Risk). Vous devrez répondre aux challenges de performance que ce projet impose en terme de performance et de stabilité. o Vous êtes ouverts à étudier d’autres langages et à ajouter ou compléter une composantes devops. Vous travaillerez sur la plateforme GCP (Google Cloud Platforme) et pourrez évoluer vers des services AWS (Amazon Web Services) o Vous serez responsable de la mise en place et de l’exécution des tests sur vos composants, de la mise en production et de la documentation de vos développements. Vous devrez proposer des solutions répondant aux besoins de scalabilité, de résilience et de sécurité. o Vous assurez le support des applications.
Mission freelance
Ingénieur Sécurité Cloud (GCP/AWS)
Analyser l’architecture de sécurité actuelle des projets GCP Qualifier les évolutions des services GCP (Private Service Connect) Identifier les vulnérabilités et les risques liés aux services GCP (Vertex AI, Workflow, Dataflow, Apigee, GKE, Composer, etc.) et fournir des recommendations Implémenter des contrôles de sécurité (CPSM) Accompagner les équipes (mise en place good practices) Participer aux audits de sécurité Rédiger des guides et standards de sécurité Assurer une veille technologique continue
Offre d'emploi
Tech Lead Backend GO/AWS - Service de recrutement digital - Paris (H/F)
Contexte du poste : Notre entreprise, leader dans le secteur de l'intérim et basée à Paris, est en pleine transformation digitale. Nous déployons une stratégie ambitieuse visant à révolutionner le marché de l'intérim grâce à des solutions technologiques avancées. Notre équipe IT, composée d'une vingtaine de passionnés de tech, travaille sur des projets variés et challengeants, dans un esprit start-up mais avec la solidité d'un grand groupe. Nous recherchons un(e) Tech Lead Backend spécialisé en GO, pour piloter notre équipe technique et contribuer au développement de solutions. Ce poste stratégique est clé pour accompagner notre croissance et le renforcement de notre positionnement sur le marché. Missions : - Conduire l'équipe de développement backend, encadrer, motiver et monter en compétences les développeurs. - Participer activement à l'architecture et au développement de notre solution, en mettant l'accent sur l’optimisation, la scalabilité et la sécurité. - Être garant de la qualité du code, mettre en place des bonnes pratiques de développement et de tests. - Collaborer étroitement avec les équipes produit pour définir les features, le roadmap technique et assurer une livraison agile. - Contribuer à la stratégie globale tech de l'entreprise et être force de proposition pour de nouvelles solutions innovantes. Stack technique : - GO - Architecture microservices - Docker, Kubernetes - Cloud (AWS) - CI/CD, Git
Mission freelance
Expert DevOps AWS/Kubernetes (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Expert DevOps AWS/Kubernetes (H/F). DIGITAL PARTNERS recherche pour son client un(e) Expert(e) DevOps passionné(e) par les technologies Cloud et Containers. ? VOTRE MISSION Au sein d'une équipe technique de haut niveau, vous participerez à : - L'architecture et l'implémentation d'infrastructures Cloud Native sur AWS - La gestion et l'optimisation de clusters Kubernetes en production - L'automatisation des déploiements via des pipelines CI/CD modernes - La mise en place des bonnes pratiques DevOps et SRE - L'amélioration continue de la plateforme technique ? PROFIL RECHERCHÉ - Minimum 5 ans d'expérience en tant qu'Ingénieur DevOps - Expertise AWS : architecture, services managés, sécurité, monitoring - Maîtrise de Kubernetes en production : déploiement, scaling, troubleshooting - Excellent niveau en Infrastructure as Code (Terraform) - Solides bases en développement permettant de comprendre les enjeux dev - Expérience avec les outils DevOps modernes (Docker, Git, CI/CD) - Culture DevOps et amélioration continue ? COMPÉTENCES TECHNIQUES REQUISES - Cloud : AWS (services core, conteneurs, réseaux, sécurité) - Containers : Kubernetes, Docker, Helm - IaC : Terraform, CloudFormation - CI/CD : expérience pipeline moderne (Jenkins, GitLab CI, GitHub Actions...) - Scripting : Python, Shell - Monitoring : Prometheus, Grafana ou équivalents - Logs : ELK ou équivalent ? SOFT SKILLS ESSENTIELS - Excellente communication - Capacité à travailler en équipe - Force de proposition - Autonomie et rigueur - Sens du service ? NOUS OFFRONS - Projets techniques ambitieux - Environnement de travail stimulant - Équipe passionnée et développement professionnel - Package attractif selon profil ? LOCALISATION Paris/IDF (préciser si remote partiel possible)
Mission freelance
Mission Longue d'Architecte Snowflake référent
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
Offre d'emploi
ARCHITECTURE DATA PLATEFORM
💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service
Mission freelance
Consultant Cloud Ops / DevOps
Nous recherchons un Consultant Cloud Ops / DevOps Compétences techniques: CloudOps - Expert - Impératif Cloud AWS - Expert - Impératif Connaissances linguistiques: Français Courant Impératif Anglais Courant Impératif Description détaillée Rôle : Cloud Ops / DevOps Contexte de la mission: La mission se déroulera en mode Agile. Projets : Migration des projets métiers de l'On premise vers le Cloud Tâches : Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS Sera amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. “You build it you run it” : participera aux activités de RUN liées à la plateforme (Build (bout en bout) / captain run chacun leur tour) Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles "Infra as Code” : Développera des modules Terrraform et pipeline CICD pour déployer/configurer/gouverner l’infrastructure (aucun déploiement sera fait manuellement via la console AWS). Demo Sprint (slide à produire chacun leur tour) Design pour suppléer l'UI/UX “User centric” : sera à l’écoute des utilisateurs du produit et recherchera leur feedback, documentera pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Maitrise la rédaction / présentation orale en Anglais. Stack Technique : "as code" (Terraform, CDKTF, Python, Github, Github Actions, AWS(services))
Mission freelance
Data Assets Owner IOT and Analytics Anglais courant
Contexte : Dans le cadre de projets stratégiques, l'objectif est de structurer et valoriser les données IoT pour la construction de tableaux de bord performants et l’optimisation des processus métier. La mission inclut l’intégration et l’exploitation de données en temps réel grâce à des technologies comme AWS, Snowflake, SQL, et Qlik, avec une attention particulière sur l’IOT et la visualisation analytique. Missions : Analyse et recueil des besoins métiers : Collaborer avec les équipes métiers pour identifier les cas d’usage liés aux données IoT (exemple : suivi en temps réel de la performance des équipements). Prioriser les besoins en données et définir les règles de gestion associées. Traitement et modélisation des données IoT : Spécifier et documenter les flux de données (par ex., transformation JSON). Élaborer des pipelines pour récupérer et traiter les données IoT en temps réel (AWS, Lambda). Construire des modèles de données pour répondre aux problématiques métiers. Création et gestion des dashboards : Proposer des maquettes sous Excel ou Qlik pour valider les besoins. Implémenter des tableaux de bord analytiques intégrant des règles de gestion claires. Expliquer les formules mathématiques utilisées pour une compréhension partagée avec les utilisateurs. Qualité et gouvernance des données : Garantir la qualité des données en auditant leur fiabilité et leur pertinence. Mettre à jour le dictionnaire des données pour faciliter leur exploitation. Support et formation : Former les utilisateurs sur les outils (Qlik, Excel, DAX) et accompagner l’intégration des solutions proposées. Appliquer des filtres avancés pour résoudre des problématiques liées à Snowflake. Compétences requises : Solide maîtrise des environnements AWS (Lambda, Snowflake) et SQL. Expertise en gestion et transformation des données IoT (analyse JSON). Bonne connaissance des outils BI comme Qlik et DAX. Expérience en modélisation de données (physique et logique). Capacité à expliquer des concepts techniques de manière pédagogique. Profil recherché : Bac+5 en informatique ou domaine similaire. Minimum 5 ans d’expérience en data analytics ou gestion de données IoT. Anglais courant. Autonomie, esprit analytique et aptitude à collaborer efficacement. Environnement de travail : Technologies : AWS, Snowflake, Qlik, SQL. Travail au sein d’une équipe pluridisciplinaire avec des projets impactants sur l’optimisation des processus métier. Opportunité de contribuer à des initiatives innovantes dans le domaine de l’IoT et de l’analytics
Mission freelance
DevOps Mobile et Web
Au sein de la distribution digitale, vous aurez pour mission de maintenir et faire évoluer la CI/CD mobile et migrer la CI/CD Web actuellement sous Jenkins vers la solution groupe GitLab CI / Rancher / Kubernetes. Une migration de l’ensemble de la stack vers AWS est envisagée à horizon 6-12 mois. Vous devrez donc mettre en place ces solution (mise en place de l’ensemble des pipelines GitLabCI, ajout et configuration des outils et métriques d’analyse de la qualité du code, …). Vous devrez également participer à l’industrialisation des tests automatisés des applications mobiles et sites web, via la mise en place de leur exécution automatique sur Browserstack. Livrables associés : Etat des lieux des pipelines Jenkins actuelles Pipelines cibles sous GitLab CI répondant aux besoins métier que le prestataire devra mettre en place Documentation Confluence visant à la maintenance de l’usine CI/CD et à décrire son fonctionnement
Offre d'emploi
Data Scientist NLP/GenAI (H/F)
NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. LES PLUS DU POSTE Intégré.e dans notre équipe Data Science, votre principale mission sera de prototyper, itérer, et mettre en production des algorithmes en collaboration avec les équipes Produit, les Data Engineers et les équipes de développement. Vos projets seront centrés sur les enjeux du catalogue Marketplace, comprenant le NLP, la Computer Vision et l'utilisation de Generative AI (LLMs customs) à grande échelle. Les sujets que vous traiterez auront un impact significatif sur leurs clients : leur ambition est d'exploiter au mieux leurs données riches et variées pour augmenter leur chiffre d'affaires, optimiser la gestion de leur marketplace et garantir la sécurité des utilisateurs et des transactions. Implémenter des algorithmes qui auront un impact visible sur plus de 500 sites e-commerce/marketplaces dans 40 pays dont certains une volumétrie très importantes (millions de produits, de clients, de commandes par an) Des techniques de pointe variées (modèles multimodaux, fine-tuning de LLM, etc.). Notre client est aujourd'hui l'un des rares acteurs français à avoir des LLM finetunés en production à grande échelle. Une vraie autonomie et responsabilité dans les projets dont vous avez ownership STACK ET OUTILS Python, Tensorflow, Pytorch, Hugging Face, Databricks, Spark, AWS (Amazon Redshift, s3, etc.), SQL, Airflow, Delta Lake. Spécifiques LLM : Autotrain, Unsloth, Galileo, LangChain, Anyscale LES MISSIONS Analyser, préparer les données, prototyper des algorithmes Les mettre en production en collaboration avec les Data Engineers et les équipes de développement Faire des dashboards afin d’illustrer la pertinence des algorithmes et de monitorer la production Présenter les résultats au weekly data science et participer aux sessions de brainstorming de l’équipe Échanger avec les autres équipes pour affiner les cas d’utilisation, l’expérience utilisateur et les modes d’intégration
Mission freelance
AI Engineer - Climate Risk Modeling
Nous recherchons un ingénieur spécialisé en intelligence artificielle (IA) et en Systèmes d’Information Géographique (SIG) afin de rejoindre un projet ambitieux et innovant visant à évaluer et modéliser les risques climatiques liés à des événements extrêmes. Ce projet, porté par un grand groupe international en collaboration avec Nvidia et des experts en climatologie, s’appuie sur les dernières avancées en deep learning et en modélisation climatique pour concevoir des solutions adaptées aux enjeux environnementaux actuels et futurs. Votre rôle principal consistera à concevoir et développer une preuve de concept (PoC) , en mettant en place un pipeline de traitement de données et des expérimentations robustes qui pourront être reproduites et utilisées pour d’autres cas d’usage. Vous serez chargé d’intégrer des modèles académiques avancés et des outils de pointe, tels que ceux proposés par Nvidia (Earth2Studio) et Google Graphcast, au sein d’un cadre technique performant, optimisé pour les expérimentations sur AWS.
Mission freelance
POT8095-Un Développer Terrraform et pipeline CICD sur Paris
Almatek recherche pour l'un de ses clients, Un Développer des modules Terrraform et pipeline CICD sur Paris Description CloudOps - Expert Cloud AWS - Expert Anglais Courant Rôle : Cloud Ops / DevOps Projets : Migration des projets métiers de l'On premise vers le Cloud Tâches : Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS Sera amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. “You build it you run it” : participera aux activités de RUN liées à la plateforme (Build (bout en bout) / captain run chacun leur tour) Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles "Infra as Code” : Developpera des modules Terrraform et pipeline CICD pour deployer/configurer/gouverner l’infrastructure (aucun déploiment sera fait manuellement via la console AWS). Demo Sprint (slide à produire chacun leur tour) Design pour suppléer l'UI/UX “User centric” : sera à l’écoute des utilisateurs du produit et recherchera leur feedback, documentera pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Maitrise la rédaction / présentation orale en Anglais. Stack Technique : "as code" (Terraform, CDKTF, Python, Github, Github Actions, AWS(services))
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul frais télétravail en étant propriétaire
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Close de non concurrence freelance à portgae salarial
- situation compliquée fin de mission pression client comment gèrer ?
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Calcul de crédit impôt - cas pratique