Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur DevOps Kubernetes Terraform (H/F)
L’équipe XXX est responsable des deux services XFactory et XConfiguration pour le maintien en condition opérationnelle et le développement des templates d'OS serveur linux RedHat/CentOS du cloud privé interne de la banque En tant qu’un ingénieur DevOps précisément Ops. - Assurer le maintien et le bon fonctionnement de ces deux services précédemment cités en amont et de contribuer à leur amélioration - Amélioration des outils et les processus d'installation et d'administration des serveurs RedHat/CentOS - Gestion des incidents, des problèmes et des évolutions des produits développés et maintenus par l'entité. - Assistance pour les entités de développement dans la définition de leurs architectures techniques en prenant en compte leurs besoins et contraintes tout en respectant les standards et les critères de sécurité. Différentes taches ont été réalisées pour atteindre ces objectifs parmi lesquelles nous avons : - Automatiser la création des ressources via les ressources Terraform de la plateforme, des scripts pythons et ansible pour la configuration système des serveurs de ces deux services (XFactory et XConfiguration). - Mettre en place des scripts de pipeline Jenkins pour le déploiement en pré-prod et en prod des nouvelles versions de nos services. - Déploiement en ‘’blue/green’’ avec les processus de rollback intégrés au niveau des pipelines Jenkins - Mettre en place un système d’alerting, de suivi et de monitoring de nos services via Prometheus et des dashboards en utilisant Grafana et Kibana - Automatiser certaines tâches via des images dockers et des cronjobs kubes Environnement technique : Docker, Bash, Linux, Python, CentOS, Rhel, Jenkins, Kubernetes, Prometheus, Grafana, Kibana, Ansible
Offre d'emploi
EXPERT SPLUNK – CDI - (H/F)
1) CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un expert Splunk. 2) OBJECTIFS DE LA MISSION : Le poste consiste principalement à assurer la maintenance opérationnelle, l’évolution et l’optimisation des solutions Splunk. Cela inclut : L’intégration de nouvelles sources de données. La valorisation des informations collectées par la création de rapports et tableaux de bord. Le développement de scripts pour automatiser et enrichir les workflows. La mise à jour et le déploiement d’infrastructures dans un environnement Agile utilisant des outils DevOps. 3) PRINCIPALES ACTIVITÉS ATTENDUES : Analyse et configuration des collectes de données selon les besoins métiers. Développement de connecteurs et adaptation des scripts pour optimiser les traitements. Réalisation de tests techniques et mise en production des nouvelles fonctionnalités. Rédaction et mise à jour des documentations techniques et d’exploitation. Contribution à l’amélioration continue des processus de collecte et d’analyse.
Mission freelance
Ingénieur Devops (H/F)
Dans la théorie SAFe, « Les Services Partagés sont des rôles, personnes et services spécialisés nécessaires à la réussite d'un Train ou d'un Train de Solution, mais qui ne peuvent pas être dédiés à temps plein. » L'objectif du Shared Service DevSecOps est de faire progresser l’ensemble des équipes en maturité DevSecOps. Cela se réalise au travers d’accompagnement de projet, d’audits et de mise en place d’outils DevSecOps. Des tableaux de bord de suivi complètent notre offre. La mission nécessite une forte expérience en DevOps et requiert de la pédagogie afin d'accompagner les équipes projets. Mission : - Compléter le cadre technique de référence tout en prenant en compte l’écosystème existant (rationalisation des outils) - Documenter les bonnes pratiques DevSecOps et les partager au travers d’interventions ponctuelles (formations, Community of Practise, événements dédiés) - Intervenir au sein des projets afin de leur proposer des axes d'amélioration et les accompagner pour progresser - Participer à l’amélioration de l’outil interne de suivi des KPIs DevSecOps - Mettre en place de nouveaux KPIs - Stack : - Accompagnement de projets au changement
Mission freelance
EXPERT SPLUNK OBSERVABILITY – Freelance - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk observability. MISSIONS TYPES : 1) Audit et cadrage : Évaluer l'existant en termes de supervision et observabilité. Proposer des améliorations pour la collecte et l'analyse des données de logs, métriques et traces. 2) Implémentation et configuration : Mettre en place les solutions Splunk Observability (SignalFx, Infrastructure Monitoring, APM). Intégrer les sources de données des systèmes cloud, conteneurs (Docker/Kubernetes), et infrastructures traditionnelles. 3) Création de dashboards et alertes : Développer des tableaux de bord personnalisés pour les équipes opérationnelles et les décideurs. Configurer des alertes proactives basées sur des seuils dynamiques et des tendances. 4) Formation et transfert de compétences : Accompagner les équipes internes dans l'utilisation optimale de Splunk Observabilité. Définir les bonnes pratiques en termes de monitoring et d'analyse. 5) Amélioration continue : Participer à la résolution des incidents critiques en exploitant les données d'observabilité. Mettre en place des solutions automatisées pour améliorer la disponibilité des systèmes.
Offre d'emploi
EXPERT SPLUNK OBSERVABILITY – CDI - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk observability. MISSIONS TYPES : 1) Audit et cadrage : Évaluer l'existant en termes de supervision et observabilité. Proposer des améliorations pour la collecte et l'analyse des données de logs, métriques et traces. 2) Implémentation et configuration : Mettre en place les solutions Splunk Observability (SignalFx, Infrastructure Monitoring, APM). Intégrer les sources de données des systèmes cloud, conteneurs (Docker/Kubernetes), et infrastructures traditionnelles. 3) Création de dashboards et alertes : Développer des tableaux de bord personnalisés pour les équipes opérationnelles et les décideurs. Configurer des alertes proactives basées sur des seuils dynamiques et des tendances. 4) Formation et transfert de compétences : Accompagner les équipes internes dans l'utilisation optimale de Splunk Observabilité. Définir les bonnes pratiques en termes de monitoring et d'analyse. 5) Amélioration continue : Participer à la résolution des incidents critiques en exploitant les données d'observabilité. Mettre en place des solutions automatisées pour améliorer la disponibilité des systèmes.
Offre d'emploi
Développeur java/data H/F
MISSIONS: 1. Nous recherchons un profil pour venir en renfort sur le moteur d'offres promotionnelles, qui se trouve au cœur de l'activité de l'équipe. Le moteur d'offres gère la conception et l'activation des offres, qu'elles soient promotionnelles ou non transactionnelles (ex: promotions, gains de points bonus pour le client sur la base de ses interactions, promotions ciblées…). 2. L'équipe gère les référentiels des comptes fidélité de toutes les Business Units du groupe. Dans ce cadre, nous recherchons un profil qui ait également une forte appétence "Data", car cette composante se trouve au cœur de nos activités. 3. En complément, nous avons ponctuellement besoin de renfort sur le Frontend. Une appétence pour les sujets Front (VueJS) serait donc un plus. En fonction des besoins de l'équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. ACTIVITES : - Procéder aux développements dans un contexte de projet Agile. - Participer à la définition de la vision technique des produits et appuyer la compréhension des problématiques fonctionnelles et l'expertise technique. -Elaborer les spécifications techniques des produits, et trouver des solutions permettant d'atteindre les objectifs fixés en équipe et ainsi évaluer la charge de développement. - Etre Co-responsable de la qualité du produit (crashlytics, TU/TI, sonar, "Global ready", "tirs de performances", "suivi de la perf"). Piloter l'élaboration de la chaîne de développement, -d'intégration, de déploiement et d'exploitation selon les pratiques DevOps dans la Google Cloud Platform. - Participer à l'amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d'applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, UI/UX, sécurité, DevOps, FinOps…). - Assurer une documentation complète des développements et des configurations au sein du référentiel documentaire - Collaborer activement au RUN / analyse de problèmes en Production et être garant des SLO
Offre d'emploi
Data Engineer
Dans le cadre de son plan stratégique, une entreprise internationale poursuit son développement en exploitant la donnée et les APIs pour apporter davantage de valeur à ses clients et partenaires, notamment sur le marché du crédit à la consommation. Pour relever ces défis, l'équipe IT renforce ses compétences en mobilisant des experts capables d’intervenir sur des domaines variés : Datawarehouse, Datalab, Sécurité Financière, Automobile, Risques, etc. L’objectif est de structurer et faire évoluer les solutions techniques tout en accompagnant les entités locales dans leurs projets. MISSIONS PRINCIPALES : Participation à l’industrialisation du socle technologique Data & API : - Mise en œuvre et évolution des capacités techniques ; - Création de composants génériques pour faciliter le développement ; - Amélioration et migration vers de nouveaux socles (Snowflake, AWS) ; - Support aux équipes locales (IT) en phase de cadrage et de build. Expertise technique : - Analyse des besoins métiers et proposition de solutions adaptées ; - Veille technologique et alignement des solutions avec les normes techniques ; - Documentation des assets pour garantir leur maintenance et réutilisation. Développement et support : - Développement de composants facilitant les flux de données (Talend, Java, Python…) ; - Gestion du support technique niveau 3 ; - Suivi des migrations et optimisation des processus. Monitoring et amélioration des flux Datawarehouse : - Mise en place d’un système de monitoring centralisé ; - Suivi des performances des outils et des bases de données (Vertica, Oracle, Snowflake). ACTIVITÉS ET LIVRABLES : - Référent technique pour plusieurs applicatifs ; - Support technique pour les outils DevOps (GitLab, Jenkins, Kubernetes, etc.) ; - Coordination avec les sous-traitants et validation des livrables ; - Reporting et suivi des projets auprès des équipes et des responsables.
Mission freelance
🔎 Mission Freelance – Consultant SIG / Expert ESRI
Consultant SIG / Expert ESRI Un acteur majeur du secteur de l'énergie recherche un expert SIG pour accompagner la modernisation de son système d'information géographique. Vous serez chargé(e) de migrer les outils existants vers ArcGIS Pro et Studio Web , d'assurer la maintenance corrective et évolutive des applications, et de fournir un support aux utilisateurs. Vous contribuerez également aux tests, à la documentation technique et à l'accompagnement des équipes métiers dans l'adoption des nouvelles solutions.
Offre d'emploi
Ingénieur DevOps
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Ingénieur DevOps. En tant qu'ingénieur DevOps, vous jouerez un rôle clé dans l'automatisation et l'optimisation des processus de déploiement, de monitoring et de gestion des infrastructures cloud ou on-premise. Vous collaborez étroitement avec les équipes de développement et d'exploitation pour assurer la qualité, la stabilité et la scalabilité des applications et des systèmes. Responsabilités Principales: Automatisation : Développer et maintenir des pipelines CI/CD pour assurer des déploiements continus et fiables. Infrastructure as Code (IaC) : Concevoir et gérer les infrastructures avec des outils comme Terraform ou Ansible. Monitoring et Logs : Implémenter et surveiller les systèmes de monitoring (Prometheus, Grafana, ELK, etc.) pour garantir la disponibilité des services. Collaboration : Travailler en étroite collaboration avec les développeurs pour intégrer les pratiques DevOps dans les cycles de développement. Cloud Computing : Déployer et gérer des applications dans des environnements cloud (AWS, GCP, Azure). Sécurité : Participer à la mise en œuvre des bonnes pratiques de sécurité dans les pipelines et les systèmes. Compétences Techniques Requises: Systèmes : Bonne maîtrise des systèmes Linux (CentOS, Ubuntu) et bonne connaissance de Windows Server . Conteneurisation : Expérience avec Docker et orchestration via Kubernetes . Outils CI/CD : Familiarité avec des outils comme Jenkins, GitLab CI/CD, ou GitHub Actions. Infrastructure as Code (IaC) : Connaissance de Terraform , CloudFormation ou Ansible. Langages de script : Compétences en Bash , Python ou Go pour automatiser les tâches. Cloud : Expérience avec au moins un fournisseur cloud ( AWS, GCP, Azure ). Versionning : Bonne maîtrise de Git et des workflows Git ( GitFlow, GitOps ). Monitoring : Expérience avec des outils comme Prometheus, Grafana, ou des solutions APM ( Datadog, New Relic) .
Mission freelance
Data ingénieur - Python - GCP
Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.
Mission freelance
Mission Freelance – Expert Cybersécurité Opérationnelle / PKI
Nous recherchons un expert en cybersécurité technique pour renforcer une équipe sur un projet stratégique à Lille . Vous interviendrez dans un environnement DevSecOps , en assurant la sécurité des développements et des infrastructures techniques. Votre mission inclura la gestion de solutions PKI (CLM, HSM, etc.), le déploiement sécurisé de conteneurs ( Docker, Kubernetes ), et la sécurisation des micro-services et API. Vous participerez également à l’intégration de bonnes pratiques de sécurité au sein des pipelines CI/CD, tout en utilisant des outils tels que GitHub Actions , OWASP , ou JFrog Xray .
Mission freelance
Développeur Nodejs / js - BORDEAUX
Mission : Création de nouvelles API REST en NodeJs / contexte a fort enjeu de volumétrie nécessitant l’optimisation des développements afin d’assurer une gestion optimale du volume de données à traiter. Environnement tech : JS / NodeJs , API REST, MongoDB, CI/CD Expérience : 3 ans d’expérience pro MINIMUM sur un poste similaire Lieu : Bordeaux - centre ville (3 jours sur site NON NEGOCIABLE) Démarrage : Début Octobre au plus tard Mission longue pouvant aller jusqu'à 3 ans. Mission : Création de nouvelles API REST en NodeJs / contexte a fort enjeu de volumétrie nécessitant l’optimisation des développements afin d’assurer une gestion optimale du volume de données à traiter. Environnement tech : JS / NodeJs , API REST, MongoDB, CI/CD Expérience : 3 ans d’expérience pro MINIMUM sur un poste similaire Lieu : Bordeaux - centre ville (3 jours sur site NON NEGOCIABLE) Démarrage : Début Octobre au plus tard Mission longue pouvant aller jusqu'à 3 ans.
Mission freelance
Tech Lead - Splunk Observability F/H
METSYS est un intégrateur de solutions Cloud, Cybersécurité et Microsoft. Pour l'un de nos clients grands-comptes fortement reconnu dans son secteur, nous recherchons un.e Tech Lead ayant une expérience solide sur la technologie Splunk Observability (F/H), pour un démarrage début janvier 2025. Dans ce cadre-là, vous aurez notamment en charge les missions suivantes (liste non exhaustive) : 1. Conception et mise en œuvre : o Concevoir et mettre en œuvre la solution Splunk Observability dans un environnement hybride on prem/cloud AWS ; o Définir les bonnes pratiques et assurer leur application pour garantir un déploiement optimal ; 2. Intégration : o Intégrer Splunk Observability avec des systèmes d’information existants (infrastructures, conteneurs, microservices) ; o Configurer des tableaux de bord, des alertes et des métriques clés pour la supervision en temps réel des systèmes et applications ; 3. Accompagnement : o Transférer les compétences aux équipes internes et assurer leur montée en compétence sur l'utilisation de Splunk Observability ; o Produire une documentation claire et exhaustive sur les travaux réalisés ; 4. Support et suivi : o Assurer le support et résoudre les incidents liés à la solution Splunk Observability ; o Participer à la résolution de problèmes complexes impactant la supervision des systèmes.
Offre d'emploi
Machine Learning Engineer senior
TJM A RESPECTER PROFIL 5-10 ans : 450€ +10 ANS : 500€ Contrainte forte du projet Data Driven , powwerBI/Loocker, contexte projet Compétences techniques Python,Shell, CI/CD, Airflow, Dataflow - Expert - Expert - Impératif AppEngine, FastAPI - Expert - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban
Mission freelance
Chef de projet IA (H/F) - Sur site 78 + 2 jours de Remote
1.Challenger la roadmap AI existante Analyser la feuille de route AI et les matrices de priorisation des cas d’usage. Apporter une perspective critique et des recommandations pour renforcer l’impact stratégique des initiatives. Identifier les opportunités d’optimisation ou de nouveaux cas d’usage alignés avec les objectifs de l’entreprise. 2. Mise en oeuvre de la stratégie Data et infrastructure Collaborer avec les équipes internes Infra, archi et data pour établir les bases d’une infrastructure Data solide et évolutive pour nos POC AI. Superviser la mise en place de pipelines de données, des outils de traitement et des architectures nécessaires aux projets IA. Assurer l’intégration des outils et des plateformes technologiques sélectionnés dans le cadre de la stratégie AI. 3. Gouvernance et pilotage des projets pilotes (PoC) Superviser les Proofs of Concept pour expérimenter et valider les choix technologiques et organisationnels de la gouvernance AI. Assurer la coordination entre les parties prenantes internes (DSI, métiers, Data teams) et les partenaires externes. Évaluer les résultats des PoC et fournir des recommandations pour le passage à l’échelle (industrialisation). 4. Accompagnement à la prise de décision stratégique (Make or Buy) Participer activement aux discussions stratégiques sur la matrice make or buy pour les solutions IA. Apporter une expertise pour évaluer les solutions externes et les capacités internes. 5. Support opérationnel et accompagnement des équipes Transférer des compétences aux équipes internes pour garantir l’autonomie progressive dans la gestion des projets IA Apporter un soutien technique sur la conception, l’entraînement, et le déploiement des modèles IA en production. Mettre en oeuvre les bonnes pratiques en matière d’explicabilité, de robustesse et d’éthique des modèles IA. 6. Veille technologique et innovation *Assurer une veille active sur les technologies émergentes et les meilleures pratiques dans le domaine de l’IA et de la Data Science. Fermeture de l'AO 10/01 Démarrage prévu le 20/01 Durée de contrat : 5 mois Lieu : Saint-Rémy-les-Chevreuse + 2 jours de Remote TJM SELON EXPERIENCE 10-11 ans : 560 12 à 15 ans : 610 + 15 années : 650
Offre d'emploi
EXPERT(E) CLOUDOPS H/F
ANALYSE DES BESOINS ET VEILLE TECHNOLOGIQUE: Recueille l'information nécessaire et étudie les besoins d'équipements matériels et logiciels Préconise et conseille sur les choix des solutions informatiques en relation avec les architectes, les experts des autres domaines et les besoins du métier dans le respect des patterns techniques définis par l'entreprise Rédige le cahier des charges contenant les spécifications techniques des équipements Rédige les appels d'offre et analyse les propositions des constructeurs en termes de performance, fiabilité et compatibilité Assure une veille technologique pour garantir l'optimisation des ressources systèmes de l'entreprise MISE EN PLACE ET INTÉGRATION: Conçoit ou adapte (paramètre) les logiciels sélectionnés Configure et dimensionne les solutions hardware retenues en fonction des performances requises par les logiciels Teste les systèmes mis en place et veille à la compatibilité des éléments entre eux Participe aux phases de validation technique lors des mises en production Veille à la sécurité et à la fiabilité des systèmes de l'entreprise EXPLOITATION: Valide l'installation et l'intégration des nouveaux outils (systèmes, ou réseaux et télécoms) Traite les incidents ou anomalies avec diagnostic de l'incident, identification, formulation et suivi de sa résolution Participe aux actions correctives de maintenance en veillant à leur qualité Propose des améliorations pour optimiser les ressources existantes et leur organisation Rédige et met à jour la documentation des procédures et consignes d'exploitation. Effectue le transfert de compétences et l'assistance technique des procédures aux équipes d'exploitation et participe éventuellement à leur formation SÉCURITÉ: Respecte et suit les règles de sécurité définie par l'entreprise Applique les plans de sauvegarde et de secours définis Assure la sécurité physique des données en termes de sauvegarde et d'archivage Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Souhaite répondre au marché de la facturation électronique (TPE/PME), formons un GIE
- Boostez votre carrière freelance avec un accompagnement sur-mesure !
- Comment trouver une mission 2025 ?
- Question aux indeps suite à une conversation avec recruteur
- 2025, ça part fort !
- Transfert siège social SASU (guichet unique)