Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 351 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Scientist - Dataiku - Modélisation des Risques

NEXORIS
Publiée le
Data visualisation

8 mois
600 €
Paris, France

Notre client, recherche un Data Scientist - Dataiku (H/F) dans le cadre d'une longue mission. Contribuer à des projets liés à la gestion et l'analyse des données dans le cadre de la Finance et de la Responsabilité Sociétale des Entreprises (RSE), ainsi qu'à la modélisation prédictive des risques financiers. Projet Data Finance / RSE : - Alimenter et organiser les données dans un Data Lake. - Créer des datamarts Finance. - Écrire des scripts et requêtes pour identifier les données Finance RSE, ainsi que les données liées à l'Affacturage, CBM et CBI. - Créer des rapports avec des outils de data visualisation. - Automatiser les processus existants. - Déployer et documenter les travaux réalisés. Modélisation des Prédictions de Risque : - Analyser et interpréter les données complexes issues du Data Lake. - Mettre en place des algorithmes statistiques pour l'analyse et la surveillance du portefeuille d'Affacturage. - Développer des modèles de prédiction des risques. - Créer des modèles de scoring. - Documenter les travaux effectués.

Freelance

Mission freelance
Consultant(e) Réglementaire - EMIR Refit

Advents Resources
Publiée le
Data analysis

6 mois
400-700 €
Paris, France

Opportunité de mission pour un(e) Consultant(e) Réglementaire – EMIR Refit à Paris (75). Présentation du projet : Nous recherchons un consultant expérimenté pour intégrer une task force dédiée à l’analyse et à la remédiation des problématiques de qualité des données (Data Quality) liées aux transactions sur dérivés OTC dans le cadre de la réglementation EMIR Refit pour les périmètres EU et UK. Vos missions principales : 1. Revue de la qualité des données (OTCs) Définir et spécifier un plan d’action pour résoudre les problématiques identifiées (identifiants des transactions, reporting du Collateral, données de clearing, etc.). Collaborer avec les équipes projet, technologiques, Compliance et Trading pour valider la faisabilité et documenter les solutions proposées. Prioriser les sujets critiques, tester les solutions implémentées (UAT), et garantir leur fonctionnement durable avant mise en production. Documenter les solutions et mettre à jour les procédures. Assurer le backreporting des transactions/valorisations ou Collateral impactés. 2. Renforcement des contrôles et processus EMIR Refit Concevoir et mettre en place des contrôles d’accuracy check en utilisant les outils existants. Mettre en œuvre un processus de Pairing & Matching Reconciliation via DTCC. Revoir les contrôles et procédures actuels et accompagner leur mise à jour en lien avec EMIR Refit. Livrables attendus Plans d’action, spécifications, études de faisabilité, et reporting (Excel, PowerPoint, Word). Procédures mises à jour, documentation des solutions et résultats des tests (UAT). Processflows et conclusions des contrôles existants. Compétences clés recherchées Expertise en gestion d’actifs et produits dérivés (OTCs, ETDs). Solide expérience en reporting réglementaire (EMIR, MIFID, etc.) et qualité de données. Gestion de projet, change management, et optimisation de processus. Connaissance des outils (Simcorp Dimension, Excel, TriOptima, Bloomberg, DTCC). Capacité à cadrer et exécuter des tests UAT avant production. Profil et expérience Expérience significative en reporting réglementaire ou projets de transformation réglementaire. Parcours au sein de cabinets de conseil, Middle-Office ou Compliance, avec une expertise en amélioration de processus et gestion de données. Conditions de la mission Localisation : 3 jours par semaine sur site à Paris (La Défense). Langues : Français et anglais. Durée : 9 mois. Démarrage : ASAP.

Freelance
CDI

Offre d'emploi
Architecte Java - Apache Camel

ARDEMIS PARTNERS
Publiée le
Apache
Java

6 mois
40k-50k €
300-450 €
Vitrolles, Provence-Alpes-Côte d'Azur

Nous recherchons un Architecte Java expérimenté avec une expertise avérée en Apache Camel pour une mission basée à Vitrolles. Vous rejoindrez une équipe technique de haut niveau, travaillant sur des solutions innovantes à fort trafic, au cœur des processus métiers de l’entreprise. Conception et architecture : Définir et concevoir des architectures robustes et évolutives pour des solutions à fort trafic. Piloter la conception des flux d’intégration basés sur Apache Camel . Développement et intégration : Participer activement au développement d’applications en Java . Implémenter et optimiser des flux de données complexes en utilisant Apache Camel. Performance et scalabilité : Optimiser les performances des applications pour répondre aux contraintes de trafic élevé. Mettre en œuvre les bonnes pratiques pour assurer la fiabilité et la sécurité des solutions. Collaboration technique : Travailler en étroite collaboration avec les équipes DevOps, QA, et produit pour garantir une livraison efficace. Encadrer les développeurs juniors et partager les meilleures pratiques. Langages et Frameworks : Expertise avancée en Java (JEE/Spring Boot). Médiation & Intégration : Maitrise d’ Apache Camel , idéalement avec des projets en production. Architecture : Expérience en architecture microservices et connaissance des patterns d’intégration. Outils & Environnements : Docker, Kubernetes pour le déploiement en environnement cloud. Bases de données relationnelles (PostgreSQL, MySQL) et NoSQL (MongoDB, Cassandra). Gestion des messages via Kafka, RabbitMQ ou ActiveMQ. Bonnes pratiques : Tests unitaires et d’intégration, TDD, CI/CD. Capacité à travailler en équipe dans un environnement agile. Proactivité et capacité à résoudre des problèmes complexes. Excellente communication pour collaborer avec des équipes multidisciplinaires.

CDI
Freelance

Offre d'emploi
Data Engineer (NetVibes indispensable)

4 Impact
Publiée le
Data visualisation
Reporting

12 mois
40k-50k €
400-550 €
Hauts-de-Seine, France

Une expérience de minimum 2 ans dans l’utilisation de Netvibes est indispensable pour cette opportunité. Dans le cadre de l’exploitation et du développement des applications Netvibes, le Data Engineer Netvibes est responsable de la conception, du développement, et de la maintenance des solutions data. Ce rôle requiert une expertise dans l’écosystème Netvibes (Data Perspectives, Data Queries, Data Model) et une capacité à livrer des solutions robustes, ergonomiques et en phase avec les besoins métiers. Missions principales : Développement des applications Netvibes : Évaluer les délais nécessaires pour les tâches à réaliser et rédiger leur description technique (ex. estimation de points de complexité, rédaction des tâches sous JIRA ). Contribuer au product backlog Concevoir le modèle de données , en coordination avec les Data Perspectives existantes ou à créer. Développer des solutions sur les briques data Netvibe s : Visualisations et ergonomie des Data Perspectives. Data Queries pour extraire les données pertinentes. Data Model structurant les données nécessaires. Exploration des données PLM 3DX. Qualité et performance des développements : Réaliser des tests unitaires et agiles pour garantir la fiabilité des livrables. Respecter les engagements de performance (points de complexité) et maintenir une vélocité définie avec l’entreprise. Exploiter efficacement l’environnement de développement fourni par l’entreprise. Documentation et support : Rédiger une documentation claire et complète des développements réalisés. Assister les équipes d’exploitation dans les phases de mise en production. Prendre en charge la correction des anomalies identifiées sur les solutions mises en œuvre (support de niveau 2 ou 3). Maintenance et amélioration continue : Maintenir en conditions opérationnelles les cas d’usage en phase post-projet. Participer à la rédaction de la Documentation d’Architecture Technique pour accompagner les évolutions d’infrastructure.

CDI
Freelance

Offre d'emploi
Ingénieur DevOps (H/F)

CITECH
Publiée le
Apache
AWS Cloud
Docker

3 ans
50k-65k €
370-480 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

🙌🔽 Les tâches à effectuer seront donc les suivantes : 🔽🙌 🔸 Sur les environnements de recette utilisateurs : Déploiement de composants applicatifs et prise en compte des consignes spécifiques Mise en place de nouvelles chaines d'ordonnancement Communication auprès du service des actions réalisées. 🔸 Sur l'environnement de préproduction : Contribution à la stratégie des tests d’homologation Contribution aux actions de traçabilité de ces derniers au sein des outils de support de la qualification 🔸 Dans le cadre de la préparation de la Mise en Production (MEP) : Contribution au plan de MEP Répétition des gestes de MEP en respectant les modes opératoires prévus et le cadencement du plan de MEP Rédaction des tâches de changement 🔸 Contribution à la validation de l’exploitabilité de la solution et Validation d'Aptitude au Bon Fonctionnement (VABF) : Production du DTE Arrêt / Marche des composants, fourniture des logs, etc... Continuité / Disponibilité des composants applicatifs définissant le service concerné Supervision de la plate-forme et des composants applicatifs Stratégie de Sauvegarde et de Restauration Journalisation des évènements de jeux et Archivage 🔸 Sur l'environnement de production : Contribution à la réalisation de la MEP et support à la Validation de Service Régulier (VSR) des projets Assurer le Maintien en Conditions Opérationnelles (MCO) dans le respect des engagements de services communiqués Gestion des incidents de production et des problèmes (ITIL) Prise en charge des tickets d’incidents Participation aux recherches de rootcauses, Rédaction des RCA (Root Cause Analysis)

Offre premium
Freelance

Mission freelance
Tech Lead Data Analytics GCP

KatchMe Consulting
Publiée le
Data analysis
Google Analytics
Google Cloud Platform

1 an
400-850 €
Paris, France

Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.

Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le
Apache
Apache Tomcat
applicatif

24 mois
250-500 €
Paris, Île-de-France

Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting

CDI

Offre d'emploi
Ingénieur de production

Deodis
Publiée le
Apache
Apache Tomcat
Bash

45k-55k €
Île-de-France, France

Afin d’accompagner notre dynamique de croissance, nous recherchons un(e) Ingénieur(e) de Production. • Participer et s’assurer du bon fonctionnement de l’exploitation • Assurer l’amélioration continue de l’exploitation • Assurer le maintien en condition opérationnelle des outils d’exploitation • Réaliser l’intégration technique d’applications, suivre les déploiements et intervenir si nécessaire (définition des plans de mise production, test, planification…) • Rédiger/mettre à jour la documentation technique • Gérer les incidents de N2, escalader si besoin (Respect des SLA) • Effectuer les contrôles au quotidien des traitements/corriger les erreurs/faire les reprises nécessaires/informer les responsables • Support aux utilisateurs • Mettre à jour la base de connaissances • Trouver des solutions afin de participer à la réduction des incidents • Réaliser des reportings sur l’état de l’exploitation • Communication transversale

CDI

Offre d'emploi
Ingénieur support application

Deodis
Publiée le
Apache Tomcat
DevOps
JIRA

40k-45k €
Île-de-France, France

Afin d’accompagner notre dynamique de croissance, nous recherchons un(e) consultant(e) ingénieurs support d'applications (technico fonctionnel) H/F Un bon niveau d'anglais est primordial pour assurer la communication au management, à l'équipe et au Métier. Les missions sont: Pour la partie RUN: Prise en charge des incidents et communication du suivi aux partie prenantes Analyse et suivi du correctif des incidents Suivi de la maintenance corrective Prise en charge des demandes de changement et opérations techniques Prise en charge des obsolescences Pour la partie EVOLUTIONS: Mise à jour des spécifications fonctionnelles détaillées Suivi de la roadmap Faire le lien avec nos différents partenaires Suivi de l’ouverture et de la correction des anomalies pendant les phases de développement et de recette Vérification de la qualité des livrables Mise à jour de la documentation et des livrables

Freelance
CDI

Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC

Digistrat consulting
Publiée le
Apache Kafka
Elasticsearch
ELK

3 ans
40k-60k €
450-600 €
Paris, France

💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) :  La collecte de log  La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log  La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition)  La mise en place d'un monitoring plus fin avec utilisation de l'IA  La configuration de logstash pour des tâches de parsing et d'enrichissements.  La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources.  L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs  Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont :  La mise à jour de la documentation  La maintien en condition des outils  Le développement des outils d'expoitation  La gestion des tickets d'incidents  La gestion des requêtes

Freelance
CDI

Offre d'emploi
ARCHITECTURE DATA PLATEFORM

Digistrat consulting
Publiée le
Apache Spark
AWS Cloud
Azure

3 ans
40k-60k €
450-600 €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service

Freelance
CDI

Offre d'emploi
Data Engineer

Etixway
Publiée le
Apache Airflow
Apache Spark
Kubernetes

1 an
40k-50k €
400-600 €
Île-de-France, France

Missions : Conception et développement des pipelines de données de la Tribu 2IA ; Écriture de codes métiers, dans le respect des standards de développement ; Maintien en conditions opérationnelles de l'infrastructure de calculs sur les composants déployés et administrés par la Tribu 2IA ; Gestion du run et du bon déroulement des traitements Technologies : Iceberg, Kubernetes, Airflow, Spark, Python Savoir être attendu : Esprit d'analyse et de synthèse Force d’innovation et de proposition Curiosité Capacité à travailler en mode Agile

Freelance

Mission freelance
Administrateur Kafka

Trait d'Union Consulting
Publiée le
Apache Kafka

1 an
450-600 €
Île-de-France, France

L’ Administrateur Kafka est responsable de la gestion, de la maintenance et de l’optimisation de l’écosystème Apache Kafka au sein de l’entreprise. Il veille au bon fonctionnement des pipelines de données et garantit la disponibilité, la performance et la sécurité des flux de données en temps réel. Ce poste est essentiel dans les environnements où les données sont échangées à grande échelle et nécessitent des performances élevées et une haute fiabilité. Installer, configurer et maintenir Apache Kafka et ses composants dans différents environnements (développement, préproduction, production). Créer et gérer des clusters Kafka (ajout de nœuds, mise à jour et scaling). Superviser et optimiser les performances des clusters Kafka . Mettre en place et gérer des topics Kafka pour organiser les flux de données. Assurer la migration Kafka (mise à niveau des versions, migration vers de nouvelles plateformes ou infrastructures). Implémenter des mécanismes de sécurité (SSL, SASL, ACL) pour contrôler les accès aux données. Mettre en place des outils de monitoring (Grafana, Kibana, Prometheus) pour surveiller la performance et détecter les incidents. Configurer des alertes pour anticiper et résoudre rapidement les problèmes techniques. Analyser et résoudre les incidents liés aux clusters Kafka et aux applications connectées. Diagnostiquer les problèmes de latence, de performances ou d’intégration réseau. Collaborer avec les équipes de développement pour optimiser l’utilisation des API Kafka. Rédiger des guidelines et des procédures sur la gestion des clusters et des topics Kafka. Assurer la formation et le support technique aux développeurs et utilisateurs. Automatiser les tâches répétitives à l’aide d’outils comme Ansible ou Terraform . Compétences techniques requises : CompétenceNiveauKafka (Admin & Ops) Expert Linux/Unix Confirmé Docker/Kubernetes Confirmé Ansible/Terraform Confirmé Java/Python Intermédiaire Monitoring (ELK, Grafana, Prometheus) Confirmé Sécurité réseau (SSL, SASL, ACL) Confirmé LangueNiveauAnglais Courant Capacité d’analyse pour diagnostiquer et résoudre rapidement des incidents complexes. Esprit collaboratif pour travailler avec les équipes de développement et d’exploitation. Proactivité dans l’optimisation et la sécurisation des systèmes. Adaptabilité face aux évolutions rapides des technologies et des besoins métiers.

Freelance

Mission freelance
Consultant Power BI / Communauté Data

Mon Consultant Indépendant
Publiée le
Data visualisation
Microsoft Power BI
Support utilisateurs

6 mois
400-500 €
Orléans, Centre-Val de Loire

Nous recherchons, pour l'un de nos clients, un Consultant Data Viz / Communauté Data avec une solide expertise sur la solution Power BI. Ce poste implique la construction de tableaux de bord, le support aux utilisateurs, ainsi que l'animation de la communauté Data sur les usages de Power BI. Vos missions principales : - Concevoir et migrer des tableaux de bord Power BI. - Accompagner et répondre aux besoins des utilisateurs internes. - Développer des tutoriels et des supports pédagogiques (newletter, astuces, …) pour faciliter l'adoption des outils. - Participer à l'animation de la communauté Data, en favorisant les échanges et la montée en compétences des utilisateurs. Profil recherché : - Connaissances solides en Power BI et en analyse de données - Vous êtes un excellent communicant, à l’aise aussi bien à l’oral qu’à l’écrit. - Vous avez une forte orientation vers la satisfaction client. - Vous disposez de connaissances en gouvernance des données. - Une expérience dans le secteur des assurances serait un véritable atout. Mission à Orléans en présentiel.

Freelance

Mission freelance
LEAD DEV JAVA NODEJS

CAT-AMANIA
Publiée le
Apache Kafka
Java
Mongodb

3 mois
Lille, Hauts-de-France

Contexte : Dans le cadre d’une transformation digitale et d’une organisation axée sur le concept d’entreprise plateforme, des solutions de gestion des données clients sont déployées en lien direct avec différentes unités opérationnelles et communautés digitales. Missions : Vous rejoignez une équipe dédiée au développement et à la gestion des référentiels de données. En tant que Lead Developer, vous intervenez à la fois sur le BUILD et le RUN des solutions. Vos responsabilités incluent : Contribuer aux choix techniques en collaboration avec le Product Leader et le Technical Leader. Travailler étroitement avec le Product Owner et l’équipe de développement. Partager vos connaissances et promouvoir les bonnes pratiques au sein de l’équipe. Rédiger et maintenir la documentation technique des produits (installation, mise à jour, architecture, normes, exploitation, etc.). Garantir la conformité des solutions avec les standards de sécurité et de performance.

Freelance

Mission freelance
Ingénieur de Production H/F

GROUPE ARTEMYS
Publiée le
Apache Tomcat
AWS Cloud
Control-M

12 mois
400-550 €
Nantes, Pays de la Loire

Titre du poste : Ingénieur de Production (FREELANCE) Localisation : Nantes (44) Mode de travail : Hybride Date de démarrage : Immédiate (bien-entendu, on vous attend si vous avez un préavis 😉). Durée de mission : 12 mois TJM : Entre 380€ et 430€ L’ IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . 👍 Alors, vous nous rejoignez ?! Nous recrutons dès à présent un.e INGENIEUR DE PRODUCTION en FREELANCE sur une mission de 12 mois renouvelable. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un grand acteur du secteur bancaire situé du côté de NANTES auprès duquel vous aurez la possibilité de : · Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. · Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. · Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. · Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. · Participer aux tests et rédiger les dossiers d’exploitation. · Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. · Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). · Contribuer activement à la démarche d’amélioration continue.

351 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous