Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur DevOps
Nous recherchons un ingénieur DevOps pour une mission dans le secteur bancaire. Dans un environnement technique riche (Java / .Net / Angular / Python / Datastage / Oracle / MySQL / PowerBI / Shell / Openshift / GCP / …) : - Fournir un support aux composants de l'usine logicielle (Bitbucket/Jenkins/Azure DevOps/Sonar/Checkmarx/Artifactory/XLDeploy/XLRelease) - Améliorer les scripts Groovy internes pour offrir de nouvelles fonctionnalités dans les pipelines Jenkins - Aider les développeurs à construire des pipelines pertinents pour leurs produits - Collaborer avec les équipes de développement pour identifier et résoudre les problèmes.
Offre d'emploi
Devops 6/9 ans d'expérience
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein du département "Architecture & Excellence Opérationnelle" de la DSI Corporate, Le domaine Development Factory regroupe l'expertise DevSecOps ainsi que le support de l'usine logicielle. Dans ce contexte, le domaine recherche un Ingénieur DevOps. 🤝 Responsabilités : Dans un environnement technique riche (Java / .Net / Angular / Python / Datastage / Oracle / MySQL / PowerBI / Shell / Openshift / GCP / …) : - Fournir un support aux composants de l'usine logicielle (Bitbucket/Jenkins/Azure DevOps/Sonar/Checkmarx/Artifactory/XLDeploy/XLRelease) - Améliorer les scripts Groovy internes pour offrir de nouvelles fonctionnalités dans les pipelines Jenkins - Aider les développeurs à construire des pipelines pertinents pour leurs produits - Collaborer avec les équipes de développement pour identifier et résoudre les problèmes.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Consultant Data Migration & Données produits
4/5 -> 1 jour dans les bureaux à Paris / 3 à la défense Début : ASAP Analyser les structures de données actuelles (M3, Aptos) et celles du nouveau PLM (Centric). Élaborer les spécifications fonctionnelles et techniques pour le mapping des données entre les systèmes (Centric, M3, Aptos). Identifier et résoudre les écarts dans les structures de données. Définir les processus de nettoyage et d’enrichissement des données. Coordonner les actions avec les équipes métiers et techniques. Garantir la qualité et la conformité des données migrées avec les exigences du PLM Centric et les standards GCP. Participation aux chantiers d’analyse et de reporting avec Microsoft/Azure Data & AI (Power BI) . Collaboration sur les projets intégrant Salesforce . Compétences requises : Expérience avec les ERP (notamment M3), les outils PLM (Aptos, Centric). Expertise en analyse et migration des données. Maîtrise des outils de reporting (Power BI). Connaissance des plateformes cloud (Microsoft Azure).
Offre d'emploi
Ingenieur Cloud
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce Au sein de la Direction Digital & Data et plus particulièrement au sein du Digital Conso Lab, vous intégrerez l'équipe OPS INGNRCLOUD-C - INGENIEUR CLOUD - Confirmé (4-10 ans) en charge de la plateforme e-commerce du client. En tant que DevOps vous participerez aux différents chantiers d’évolution de la plateforme et vous intégrerez l’équipe OPS GCP qui comprend 8 personnes Le contexte vous plait ? Découvrez votre quotidien au sein de votre future équipe. Vos missions • Maintenir en condition opérationnelle les infrastructures en diagnostiquant les pannes et les dysfonctionnements • Configurer et dimensionner les plateformes en fonction des performances requises • Industrialiser les architectures cibles et configurer les équipements (CI / CD) • Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures • Veiller à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées • Participer aux phases de validation technique lors des mises en production ou des évolutions. • Effectuer le suivi des coûts des différents composants et applications (FinOps) Compétences De formation supérieure en informatique, vous avez déjà exercé une fonction de Tech Lead OPS sur Google GCP. Orchestration de conteneurs - Expert - Impératif CI/CD & Automatisation - Confirmé - Impératif Architecture microservices - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Secondaire) Vous êtes un expert technique et vous maitrisez les modules suivants : • Orchestration de conteneurs : Kubernetes • De bonnes connaissances sur Linux et réseaux • Bases de données : Postgres – Redis – Couchbase - Kafka • Connaissance des principes de monitoring (ELK, Prometheus, Grafana, …) • Compétences en CI/CD (Gitlab CI, Jenkins, Nexus, ArgoCD …) • Maitrise en Automatisation et en gestion de configuration IAC ( Terraform / Ansible ) • Maitrise des architectures microservices et de leur gestion Capable de challenger les équipes et force de proposition, vous faites preuve d’un leadership naturel vous permettant d’entraîner l’équipe OPS vers la réalisation de vos objectifs. Une certification Kubernetes ( CKA ou CKAD ) et GCP ( Professionnal Cloud Architect ou Cloud DevOps Enginer ) serait un atout différenciant. Vos capacités de coopération et d’orientation service et clients sont déterminantes Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Ingénieur Réseau/Sécurité
Au sein de la direction gMDT, rattaché(e) au « Responsable Réseau et Sécurité », vous avez pour mission de : 1. Projets · Définir et mettre en œuvre la stratégie de sécurité et de connectivité réseau sur les sites : Agences commerciales / Sièges / Bureaux / Call centers / Datacenters (4 sur la région Ile-de-France) · Accompagner la croissance des besoins en Digital au travers de la gestion du portefeuille de lignes Telecom : évolution, veille technologique, suivi opérationnel · Collaboration étroite avec les services généraux du siège mondial de La Villette, dans le but de fournir une connectivité de pointe (Office, Guest, IoT) aux utilisateurs et aux VIPs. · Implication directe dans le projet clé de création des infrastructures d’hébergement vers Cloud GCP et Azure : automatisation des configurations réseau/sécurité des environnements, formation de l’équipe, documentation, mise en place de nouvelles pratiques…. 2. Support · Garantir la continuité du service et la qualité du réseau - QoS · Utilisation des outils de Supervision Solarwinds 3. Conformité, mise à jour, maintien en condition opérationnelle · Mise à jour software régulière de tous les équipements switch, Firewall, outil · Documentation systématique schéma et procédure · Alimentation des outils de suivi d’incidents · Remplacement des équipements défaillants (RMA) · Support niveau 2 Helpdesk : suivi des incidents ITSM Participer à l’animation de la filière IT auprès des Business Units AMERICA et ASIA : pédagogie, communication de la stratégie, assistance à la mise en œuvre, support d’escalade…
Offre d'emploi
Expert Terraform
Dans le cadre du développement de ses infrastructures Cloud, notre client est à la recherche d’un expert Terraform spécialisé dans le déploiement de nouveaux services sur Azure ou GCP . Vous collaborerez avec un partenaire déjà en place pour accélérer le build d’infrastructures Cloud modernes. MISSIONS · Développer et déployer des services Cloud en utilisant Terraform pour l’infrastructure-as-code (IaC), avec une spécialisation sur Azure et GCP. · Construire et intégrer des services dans une chaîne CI/CD, garantissant une automatisation des déploiements et une optimisation des processus de livraison. · Collaborer étroitement avec les équipes DevOps et les partenaires externes pour assurer la cohérence et la fluidité des environnements de production. · Garantir la conformité et la performance des nouvelles solutions, en assurant des pratiques de codage et de déploiement de qualité.
Offre d'emploi
Développeur .Net Core / Angular
Dans le but d'accompagner son développement et renforcer son équipe, nous recherchons un ingénieur développement qui contribuera aux travaux en cours sur les volets de la réalisation technique et fonctionnelle. Stack technique obligatoires : .Net Core Angular Docker Scrum Jira Optionnelles : GCP Client : leader français dans le domaine du développement durable, expert en efficacité énergétique, Pour le compte de la DSI de 90 personnes constituée de plusieurs services : · Exploitation et réseau · Recette et automatisation · Etudes · Urbanisation & architecture · Sécurité Expérience dans le poste Minimum 6 ans
Offre d'emploi
Databricks Solution Architect
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
DBA Sybase SQLServer
Descriptif : En tant que DBA Sybase/SQLServer : - Prise en charge des sujets de refresh de plateforme OS Sybase ASE - Prise en charge des sujets de migration de Sybase vers sqlserver - Développement et maintenance de scripts powershell et ksh pour automatiser les taches - Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) - Maintien en conditions opérationnelles des SGBD du périmètre Ostrum IT - Supervision des SGBDs de Production du périmètre NIM OS / Ostrum IT ( sqlserver 2014 à sqlserver 2022, Sybase ASE 16 ) - Prise en compte et traitement des incidents et des appels des utilisateurs - Participation aux cellules de crise - Contrôle et livraison des modifications de structure de base, - Prise en charge des demandes de Mise en Production, - Prise en compte des demandes d'interventions sur les différentes technologies SGBDs - Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs - Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées - Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées. - Réalisation et maintenance de la documentation d’exploitation des bases de données. - Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL2022, Interfaçage Polybase - Hadoop) - Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP. - Application de la politique générale de sécurité.
Offre d'emploi
Support Sécurité au projet (Métiers/Applicatifs et Infrastructure) - Sénior
Le consultant sera en charge de : 1/développer une offre de service à destination des Prod-App autour de la sécurité IAM dans les CLoud Public (AWS/GCP et Azure) 2/accompagnement des équipes opérationnels pour le suivi des incidents et la mise en place des contrôles sécurité - Assister et conseiller les chefs de projets Informatiques dans l'identification. Des données à caractères personnelles, des traitements associés, documenter les livrables RGPD de la méthode. - Rédiger les analyses d'impacts à la vie privée en lien avec les services juridiques, conformité du groupe. - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de sécurité et RGPD des systèmes d'information. - Assurer les suivi des alertes et des incidents de RGPD en assurer le support Notamment, pour une mission SSI : - Assister et conseiller les chefs de projets dans l'identification des risques et des solutions SSI liés à leurs activités ou projets. - Définir les exigences de sécurités , fraude, rgpd en lien avec les équipes de support - Réaliser des analyses de risques SSI pour arbitrage des risques - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de sécurité des systèmes d'information. - Assurer le suivi des alertes et des incidents de sécurité et en assurer le support Notamment, pour une mission SSI : - Assister et conseiller les chefs de projets dans l'identification des risques et des solutions SSI liés à leurs activités ou projets. - Définir les exigences de sécurités , fraude, rgpd en lien avec les équipes de support - Réaliser des analyses de risques SSI pour arbitrage des risques - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de sécurité des systèmes d'information. - Assurer le suivi des alertes et des incidents de sécurité et en assurer le support
Mission freelance
DBA SYBASE SQL SERVER F/H
Pour l'un de nos clients grands comptes, nous recherchons un DBA Sybase/SQL Server afin d'assurer l'administration et le support d'un important parc de bases de données au sein d'une équipe de DBA. Dans ce contexte, le DBA assurera les missions suivantes : Prise en charge des sujets de refresh de plateforme OS Sybase ASE ; Prise en charge des sujets de migration de Sybase vers SQL Server ; Développement et maintenance de scripts powershell et ksh pour automatiser les tâches ; Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) ; Maintien en conditions opérationnelles des SGBD ; Supervision des SGBDs de Production ( SQL Server 2014 à SQL Server 2022, Sybase ASE 16 ) ; Prise en compte et traitement des incidents et des appels des utilisateurs ; Participation aux cellules de crise ; Contrôle et livraison des modifications de structure de base ; Prise en charge des demandes de Mise en Production ; Prise en compte des demandes d'interventions sur les différentes technologies SGBDs ; Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs ; Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées ; Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées ; Réalisation et maintenance de la documentation d’exploitation des bases de données ; Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL 2022, Interfaçage Polybase - Hadoop) ; Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP ; Application de la politique générale de sécurité.
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
ML - AI Engineer // Hybrid - Paris
Identifier et mettre en œuvre les solutions d'IA les plus adaptées aux exigences et aux objectifs des cas d'usage, en s'appuyant sur une analyse approfondie des spécifications techniques et fonctionnelles. Concevoir des solutions Data S cience et IA génératives pour répondre aux enjeux de produits et de services de nos clients . Contribuer à l’ensemble du cycle de vie de projet Data Science : définition du Use Case, architecture technique, mise en œuvre de POCs / POVs , implémentation et intégration à des environnements de production. Garantir la sécurité et la conformité réglementaire en respectant l es mesures de sécurité et l es protocoles de confidentialité pour protéger les données sensibles. Participer aux chantiers d’innovations et de veille continue sur les IA et les pratiques MLOps / LLMOp s Ce que nous pouvons attendre de vous : Compétences techniques recommandées : Domaine s d’expertise : Machine Learning, NLP, Deep Learning GenAI : LLM, R AG , Vect or Databas e , Sea rch Engines, LLMOps ,… Cloud : Azure (Azure ML, Azure OpenAI , Azure Prompt Flow, Databricks ,…) , GCP, AWS Programmation : Python, SQL et outils d’analyse de données . Framework & Tools : Langchain , Chroma, FAISS , H ugging Face Devops / MLOps : Git, Docker, Kubernetes
Mission freelance
DBA Sybase/SQLServer de Production
Contexte : Environnement multi SGBD majoritairement SQLServer avec du Sybase et mySQL/PostgreSQL. MISSIONS En tant que DBA Sybase/SQLServer : - Prise en charge des sujets de refresh de plateforme OS Sybase ASE - Prise en charge des sujets de migration de Sybase vers sqlserver - Développement et maintenance de scripts powershell et ksh pour automatiser les taches - Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) - Maintien en conditions opérationnelles des SGBD du périmètre Ostrum IT - Supervision des SGBDs de Production du périmètre NIM OS / ( sqlserver 2014 à sqlserver 2022, Sybase ASE 16 ) - Prise en compte et traitement des incidents et des appels des utilisateurs - Participation aux cellules de crise - Contrôle et livraison des modifications de structure de base, - Prise en charge des demandes de Mise en Production, - Prise en compte des demandes d'interventions sur les différentes technologies SGBDs - Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs - Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées - Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées. - Réalisation et maintenance de la documentation d’exploitation des bases de données. - Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL2022, Interfaçage Polybase - Hadoop) - Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP. - Application de la politique générale de sécurité de Natixis. La mission proposée est soumise aux dispositifs d'astreintes et horaires décalées.
Offre d'emploi
DBA CASSANDRA F/H
Pour l’un de nos clients grands comptes, nous recherchons un DBA Cassandra. Dans ce contexte, le DBA sera en charge des missions suivantes : Gestion des clusters Cassandra : Installation, configuration et maintenance des clusters Cassandra en production. Performance et optimisation : Surveillance et optimisation des performances des bases de données afin de garantir la disponibilité et la scalabilité. Sécurité et sauvegarde : Mise en place des stratégies de sécurité, de sauvegarde et de récupération. Support et dépannage : Résolution des incidents de production et analyse des problèmes de performance. Évolution de l'architecture : Participer à la mise en œuvre de nouvelles versions de Cassandra et aux choix d'architecture pour répondre aux besoins croissants. Compétences Techniques Requises : Maîtrise de Cassandra : Solides compétences dans l'administration, la configuration, et le tuning de Cassandra. Langage de Requête CQL : Expérience dans la rédaction et l'optimisation des requêtes en CQL (Cassandra Query Language). Partitionnement et Modélisation de Données : Connaissance approfondie de la modélisation de données adaptée aux bases de données NoSQL et des pratiques de partitionnement pour une performance optimale. Outils d’Administration et Monitoring : Expérience avec des outils comme OpsCenter, Prometheus, Grafana ou Datastax pour le monitoring de Cassandra. Scripting et Automatisation : Maîtrise de langages de script (Python, Bash, etc.) pour l'automatisation des tâches d’administration. Gestion des Performances : Compétence en optimisation de performances, gestion de la charge, et analyse des métriques. Connaissance de la Sécurité : Compétences en configuration des autorisations, en chiffrement des données et en gestion des utilisateurs. Compétences appréciées : Connaissance des environnements cloud (AWS, Azure, Google Cloud) et des solutions de déploiement de Cassandra en cloud. Expérience avec d'autres bases de données NoSQL (MongoDB, Redis). Compétences en CI/CD et dans l’utilisation d’outils comme Jenkins, Docker, et Kubernetes pour la gestion des déploiements. Bonne compréhension de la gestion des clusters en multi-datacenters.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Arce 7 mois après la création de l'entreprise ?
- Calcul de crédit impôt - cas pratique
- Vehicules de société
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Calcul frais télétravail en étant propriétaire