Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 252 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Architecte d'entreprise et solution Assurance Finance et Risques

ABSIS CONSEIL
Publiée le
Architecture
AWS Cloud
Lean

2 ans
650-750 €
Levallois-Perret, Île-de-France

Nous recherchons un Architecte d'entreprise et solution pour intervenir de la phase d'étude d'opportunité jusqu'à la mise en production des différents projets de notre client Assureur. Vos missions : Produire deux livrables par projets (diagnostique d'architecture et dossier d'architecture fonctionnelle) vérifier la conformité d'implémentation des impacts documenter toutes les connaissances dans l'outil référentiel d'architecture (lean IX) et dans le dictionnaire de données de notre client. Prérequis : Bac+5 école d'ingénieur ou équivalent Plus de 10 ans d'expérience en tant qu'Architecte d'entreprise et solution pour des grands compte de l'assurance. (Assurance de personnes, épargne, et ou assurance de biens) Connaissance du domaine finance/risque et des spécificités assurantielles telles que Solvency II Expérience en processus RH et intégration de progiciels RH (idéalement Workday) Maitrise de la modélisation de processus (norme BPMN V2), et approche Data au sein du SI Stack techniques : On Premise, Cloud (AWS)), Mainframe, digital développé en interne, solutions SaaS ou progicielles. Anglais courant obligatoire

Freelance

Mission freelance
Analyste SOC N3

Groupe Aptenia
Publiée le
AWS Cloud
Splunk

6 mois
100-600 €
Paris, France

Analyser et répondre aux incidents de sécurité complexes identifiés par les outils de monitoring. Réaliser des investigations approfondies sur les incidents critiques et produire des rapports détaillés. Développer et maintenir des playbooks d’automatisation Superviser et optimiser les configurations des plateformes de monitoring Effectuer des revues régulières des logs pour identifier des anomalies ou des menaces potentielles. Collaborer avec les équipes internes et externes pour renforcer les stratégies de sécurité. Proposer des recommandations d’amélioration continue pour les systèmes et les processus de sécurité. Participer activement à la définition et à la mise en œuvre des politiques de sécurité cloud (AWS).

Freelance
CDI

Offre d'emploi
EXPERT POWERBI 5 ANS D'XP

Kaïbee
Publiée le
AWS Cloud
Dataiku
Microsoft Power BI

1 an
40k-60k €
200-500 €
Île-de-France, France

Dans le cadre d’une mission stratégique pour les médias, nous recherchons un Expert PowerPlatform Microsoft pour contribuer à la mise en œuvre et l’optimisation de solutions technologiques innovantes. Ce projet s’inscrit dans un environnement technique avancé, orienté vers l'amélioration continue et le développement d’architectures robustes. L'Expert PowerPlatform Microsoft jouera un rôle clé dans la gestion, le développement et l’optimisation des systèmes technologiques critiques. Les responsabilités incluent : Administration Gestion et administration de la solution PowerBI. Maîtrise des technologies liées telles que Snowflake, Microsoft Azure, PowerShell, et les API Rest. Développement Réalisation de développements avancés et conception de solutions complexes. Mise en œuvre de projets impliquant des architectures sophistiquées : ingestion de données massives, systèmes orientés événements (event-driven), etc. Amélioration continue Renforcement de la résilience des systèmes existants. Contribution aux initiatives d’optimisation et de transformation dans un environnement technique complexe.

CDI

Offre d'emploi
Data Engineer (H/F)

Pickmeup
Publiée le
AWS Cloud

45k-80k €
Paris, France

NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. En tant que Data Engineer (Senior) au sein de l'équipe Data, vos principales missions consisteront à : - Contribuer à l'enrichissement de la plateforme de données (ETL). - Améliorer la robustesse des pipelines de production pour les applications de - - Machine Learning (inférence en temps réel, etc.). - Intégré(e) dans une équipe de spécialistes en données (data engineers, machine - learning engineers, data scientists, data analysts), vous jouerez un rôle clé pour garantir la position dominante de la solution sur son marché. STACK ET OUTILS Technologies : Apache Spark, Kafka, AWS, Databricks, Python, Airflow, Mlflow, TensorFlow, Delta Lake, Superset, Kubernetes, Redshift, SQL, Terraform, Ansible. LES MISSIONS - Concevoir et implémenter une architecture performante, robuste, scalable et avec des coûts maîtrisés pour les applications Spark ainsi que pour les pipelines de production de Machine Learning (évaluation des feature stores, refactoring de DAG Airflow). - Accompagner les Data Scientists lors de la mise en production (relecture de code, pair programming) et établir les meilleures pratiques. - Optimiser et améliorer la CI/CD de l'équipe en collaboration avec l'équipe SRE. - Assurer la montée en compétences des membres de l’équipe sur les sujets de MLOps et Data Engineering. - Explorer les meilleures façons d'intégrer les données Google Analytics dans la plateforme de données. - Partager vos connaissances et présenter les travaux devant toutes les équipes techniques.

CDI

Offre d'emploi
EXPERT SPLUNK – CDI - (H/F)

SWING-ONE
Publiée le
AWS Cloud
CI/CD
Docker

50k-60k €
Île-de-France, France

1) CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un expert Splunk. 2) OBJECTIFS DE LA MISSION : Le poste consiste principalement à assurer la maintenance opérationnelle, l’évolution et l’optimisation des solutions Splunk. Cela inclut : L’intégration de nouvelles sources de données. La valorisation des informations collectées par la création de rapports et tableaux de bord. Le développement de scripts pour automatiser et enrichir les workflows. La mise à jour et le déploiement d’infrastructures dans un environnement Agile utilisant des outils DevOps. 3) PRINCIPALES ACTIVITÉS ATTENDUES : Analyse et configuration des collectes de données selon les besoins métiers. Développement de connecteurs et adaptation des scripts pour optimiser les traitements. Réalisation de tests techniques et mise en production des nouvelles fonctionnalités. Rédaction et mise à jour des documentations techniques et d’exploitation. Contribution à l’amélioration continue des processus de collecte et d’analyse.

Freelance

Mission freelance
Ingénieur L3 Système

Nicholson SAS
Publiée le
Administration Windows
AWS Cloud
Azure

12 mois
100-450 €
Lestrem, Hauts-de-France

Description du poste : L'Ingénieur L3 Système sera responsable de l'administration et du support avancé des systèmes d'exploitation et des environnements virtualisés et cloud. Le candidat idéal doit avoir une solide expérience en gestion de systèmes complexes et être capable de résoudre des problèmes techniques de haut niveau. Responsabilités principales : Assurer le support de niveau 3 pour les systèmes Windows, HyperV et VMWare Gérer et optimiser les environnements cloud Azure et AWS Résoudre les incidents complexes et mettre en œuvre des solutions durables Participer à l'amélioration continue des processus et des systèmes Collaborer avec les équipes techniques du client sur le projet Carve-in-Out

Freelance

Mission freelance
Data Engineer Spark/Scala F/H

SMARTPOINT
Publiée le
Apache Spark
AWS Cloud
Azure

12 mois
400-500 €
Île-de-France, France

Nous recherchons un(e) Data Engineer spécialisé(e) en Spark et Scala pour rejoindre notre équipe Data. Vous contribuerez à la conception, au développement, et à l’optimisation des pipelines de données à grande échelle, ainsi qu’à l’implémentation des meilleures pratiques de gestion et de traitement des données. Concevoir, développer et maintenir des pipelines de données scalables et robustes en utilisant Spark et Scala. Intégrer et transformer des données provenant de différentes sources (bases de données, fichiers, APIs, etc.). Assurer la qualité, la performance et la sécurité des flux de données. Participer à l’optimisation des performances des traitements Big Data. Collaborer avec les équipes Data Science, BI et Développement pour répondre aux besoins des projets. Implémenter les meilleures pratiques en matière de gestion des données et d’architecture. Surveiller et résoudre les incidents liés aux flux de données en production. Compétences techniques : Excellente maîtrise de Spark et Scala (5+ ans d’expérience souhaitée). Solides compétences en conception et optimisation de flux ETL. Bonne connaissance des bases de données relationnelles (SQL) et des bases NoSQL. Expérience avec des outils de gestion des données (Airflow, Kafka, etc.) et des environnements Cloud (AWS, Azure, GCP). Connaissance des écosystèmes Hadoop et des frameworks Big Data.

Freelance

Mission freelance
Ingénieur SysOps

ALLEGIS GROUP
Publiée le
Administration système
AWS Cloud
DevOps

3 ans
400-550 €
Neuilly-sur-Seine, Île-de-France

Nous recherchons un ingénieur SysOps AWS pour rejoindre les équipes au sein de la DSI d'un Client. En tant qu'Ingénieur DevOps, vous êtes responsable de la gestion et du support de l'environnement utilisé pour fabriquer et tester de manière automatique le plus souvent possible. Vous serez chargé de mettre en place, administrer et supporter l'ensemble des systèmes informatiques permettant d'améliorer la fluidité des opérations. Tâches : Déploiement régulier des applications, la répétition contribuant à fiabiliser le processus. Décalage des tests "au plus tôt" dans le cycle de développement. Pratique des tests dans un environnement similaire à celui de production. Intégration continue incluant des "tests continus". Amélioration continue des processus. Surveillance étroite de l'exploitation et de la qualité de production via des métriques factuelles.

Freelance

Mission freelance
EXPERT SPLUNK – Freelance - (H/F)

SWING-ONE
Publiée le
AWS Cloud
CI/CD
Docker

1 an
500-600 €
Île-de-France, France

1) CONTEXTE DE L’ENTREPRISE : Nous recherchons pour notre client Grand-Compte un/une Expert(e) Splunk. Les activités de la société cliente sont articulées sur 3 lignes de produits et une équipe de coordination technique : Produits Middleware et SGBD Produits d’Échanges Produits d’Exploitation L’équipe « Produits d’Exploitation » opère sur les technologies suivantes : Archivage à Valeur Probatoire (PEA) Puits de Logs (SPLUNK) Outillage de Ticketing et CMDB (BMC) Supervision (NNM, SiteScope BPM, SPLUNK – ITSI et Zabbix) Ordonnancement (CA Workload Automation) Les principaux travaux de l’équipe « Produits d’exploitation » consistent en : Faire évoluer les architectures de chaque outil pour répondre au mieux aux besoins de leurs clients (fonctionnalités, performances) et aux contraintes de fin de support. Conseiller, informer et former leurs clients sur le fonctionnement des produits. Rédiger et mettre à jour la documentation. Définir les organisations et les processus liés à l’exploitation des outils Support technique de niveau 3 Traitement des problèmes 2) CONTEXTE DE LA MISSION : L’objectif étant le maintien en Condition Opérationnel et Evolution de l’infrastructure de la solution Splunk Collecte et indexation de nouvelles sources de données Valorisation des données par la création de rapports et de tableaux de bord et l’assistance aux analyses Développement de Scripts en SPL, Python, shell, powershell Mise à jour et déploiement de l’infrastructure Splunk (Shell, ANSIBLE, powershell) La prestation attendue se déroule directement avec les experts techniques du périmètre Splunk, les métiers et devra rendre compte aux responsables du projet SPLUNK. Ces travaux sont réalisés dans le respect de la méthodologie en vigueur basée sur les principes AGILES ainsi que les outils de l’Usine Logiciel (Git ; JIRA ; …). Le titulaire doit donc disposer d’une expertise sur les produits Splunk et de son contexte d’utilisation. 3) EXEMPLE DE PRESTATIONS ATTENDUES ET LIVRABLES ASSOCIÉS : Prestations attendues : Collecte de nouvelles sources de données Étude de faisabilité Développement et/ou configuration des connecteurs Réalisation des tests techniques Valorisation des données collectées Assistance aux analyses de données et sensibilisation à la bonne utilisation de Splunk Livrables associés : Périodicité ou échéance Rédaction de l’étude de faisabilité Création de scripts Parsing des données selon les besoins Cahier de recette des tests techniques Réalisation du planning de mise en production Mise à jour des documents d’exploitation et d’administration Création des configurations associées sur les différents environnements Conseils sur la réalisation et l’optimisation des INDEX Mise a jour de la documentation technique Amélioration et optimisation des collectes Amélioration de la ségrégation des collecte

Freelance

Mission freelance
DevOps Cloud Network (AWS ou GCP, Terraform et Python)

Cherry Pick
Publiée le
Automatisation
AWS Cloud
FastAPI

12 mois
500-550 €
Paris, France

L'équipe Core Network du client a pour mission de combiner le network avec les pratiques DevOps dans le but de rationaliser les opérations, améliorer l'automatisation, développer la collaboration et délivrer des services réseaux toujours plus fiables et scalables. Au sein de cette équipe, vous aurez pour mission de contribuer à la livraison de fonctionnalités techniques sur les composants réseaux. Voici quelques exemples de tâches portées par ce poste : - Contribuer techniquement aux engagements de l’équipe dans la livraison de fonctionnalités. (Activités de Build pilotées au travers des rituels Scrum) - Participer régulièrement aux activités en maintien en condition opérationnelle de nos composants réseaux - Automatiser par le développement nos solutions d'infrastructure réseau. - Participer au Run sur les modules, scripts, automates developpés par l'équipe - Participer aux différents projets d'innovations et d'améliorations du réseau dans l';équipe. - Proposer et mettre en œuvre des améliorations et des solutions innovantes (Build & Run) Mission localisé à Paris, Lille ou Lyon. Domaine de responsabilité / Composants techniques sur lequel vous interviendrez : AWS & GCP Cloud VPC Management - VPC, Endpoint, NCC, TransitGateway, SharedVPC, PSC, PrivateLink Cloud segmentation - VPC Inspection, Security groups, PrivateLink, VPCEndpoints Cloud Egress Filtering - Fortinet, Squid Cloud Transit - Routeurs Cisco, AWS DirectConnect, GCP partners Interconnect, Cloud routers) IP Management - IPAM Netbox, Infoblox, RFC1918 Backbone réseau - Bandwith On-Demand, BGP, OSPF, Juniper External partners connectivity - VPN IPSEC, SSL, ZTNA Private DNS - Route53, CloudDNS, Infoblox Processus : 1 entretien Go - No Go

Freelance
CDI

Offre d'emploi
DevOps (h/f)

SCALIAN DS
Publiée le
Ansible
AWS Cloud
Docker

12 mois
50k-55k €
450-550 €
Paris, France

Nous recherchons un Ingénieur DevOps passionné(e) par l’automatisation et les technologies cloud pour rejoindre notre équipe dynamique. Vous travaillerez sur des projets innovants, optimiserez les pipelines CI/CD, et contribuerez à la stabilité et à la scalabilité de nos environnements. Développer, déployer et maintenir des pipelines CI/CD pour assurer un déploiement continu. Collaborer avec les équipes de développement pour intégrer les outils DevOps dans le cycle de vie des applications. Gérer l’infrastructure cloud (AWS, Azure, GCP) et en assurer l’optimisation. Implémenter des outils de monitoring et de logs pour garantir la stabilité des services. Automatiser les processus pour réduire les interventions manuelles. Participer à l’élaboration des bonnes pratiques de sécurité et de conformité.

Freelance
CDI
CDD

Offre d'emploi
Data Engineer

bdevit
Publiée le
AWS Cloud
Dataiku
Docker

36 mois
50k-60k €
550-600 €
Île-de-France, France

Dans le cadre de son plan stratégique, une entreprise internationale poursuit son développement en exploitant la donnée et les APIs pour apporter davantage de valeur à ses clients et partenaires, notamment sur le marché du crédit à la consommation. Pour relever ces défis, l'équipe IT renforce ses compétences en mobilisant des experts capables d’intervenir sur des domaines variés : Datawarehouse, Datalab, Sécurité Financière, Automobile, Risques, etc. L’objectif est de structurer et faire évoluer les solutions techniques tout en accompagnant les entités locales dans leurs projets. MISSIONS PRINCIPALES : Participation à l’industrialisation du socle technologique Data & API : - Mise en œuvre et évolution des capacités techniques ; - Création de composants génériques pour faciliter le développement ; - Amélioration et migration vers de nouveaux socles (Snowflake, AWS) ; - Support aux équipes locales (IT) en phase de cadrage et de build. Expertise technique : - Analyse des besoins métiers et proposition de solutions adaptées ; - Veille technologique et alignement des solutions avec les normes techniques ; - Documentation des assets pour garantir leur maintenance et réutilisation. Développement et support : - Développement de composants facilitant les flux de données (Talend, Java, Python…) ; - Gestion du support technique niveau 3 ; - Suivi des migrations et optimisation des processus. Monitoring et amélioration des flux Datawarehouse : - Mise en place d’un système de monitoring centralisé ; - Suivi des performances des outils et des bases de données (Vertica, Oracle, Snowflake). ACTIVITÉS ET LIVRABLES : - Référent technique pour plusieurs applicatifs ; - Support technique pour les outils DevOps (GitLab, Jenkins, Kubernetes, etc.) ; - Coordination avec les sous-traitants et validation des livrables ; - Reporting et suivi des projets auprès des équipes et des responsables.

Freelance

Mission freelance
un consultant SAP Quantum

CRYSTAL PLACEMENT
Publiée le
AWS Cloud

1 an
550-1 050 €
Lyon, Auvergne-Rhône-Alpes

Je recherche pour mon client un consultant SAP Quantum : Les principales responsabilités seront : Travailler au sein de l'équipe de support et de maintenance pour résoudre des tickets d'évolution ou d'incidents, soutenir les utilisateurs finaux, et suivre tous les tickets liés à Quantum via Service One. Effectuer certaines activités en tant que membre du projet pour suivre les livrables principaux du projet (mise à jour de Quantum/migration vers le cloud (AWS)), en assurant la livraison du projet dans les délais, les tests, etc. Être le principal point de contact pour le support avec les utilisateurs clés comme DT T&ITC. Connaissances fonctionnelles des processus Quantum : Contrats, paiements, intégration des relevés bancaires dans Quantum, réconciliation des comptes, gestion de trésorerie, reporting, analyses, taux, statistiques, etc. Trésorerie globale – processus FX, gestion des risques, etc. Support centré sur la clôture mensuelle (D4), personnalisation, gestion des données de base et reporting pendant l'installation/des requêtes. Connaissance des interfaces Quantum (Reuters, Bloomberg, 360T, Finastra, pour l'importation des taux et des contrats). Connaissance de l'intégration des taux de change (FIXING) dans Quantum et SAP SFTP, FileZilla, ainsi que des langages de scripts, Citrix AG, planification des tâches, Crystal Reports, connaissances en Analytics, configuration des tâches et suivi des traitements. Connaissance des formats de fichiers de paiement MT101, etc. Coordination des mises à jour nécessaires de FIS et exécution des tests de routine associés (SSO, certificats, etc.). Travailler dans SAP sur les interfaces Quantum – analyse des écritures comptables. Préparer et effectuer des tests individuels en IT pour valider les changements effectués par FIS (évolutions).

Freelance

Mission freelance
Ingénieur de Production Openshift/ AWS/ XLDeploy/ XLRelease/ Control M / anglais opérationnel (H/f)

OctopusGroup
Publiée le
AWS Cloud
Control-M
Openshift

6 mois
100-350 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire, un ingénieur de production confirmé ayant des compétences avancées sur Openshift et AWS ainsi que sur XlRelease et XLdeploy Maintien en conditions opérationnelles du SI Suivi des incidents et des demandes Suivi des migrations techniques Description détaillée : Missions : -Garantir la disponibilité des ressources techniques -Analyser et corriger les incidents en niveaux 2 et 3 -Participer activement aux processus de mise en production et de développement logiciel en relation avec les Opérateurs Editeurs et fournir un support opérationnel aux équipes projets -Mettre en œuvre des solutions techniques de résolution d’incidents. Réaliser des diagnostics pour identifier les causes de dysfonctionnement, propose et met en œuvre des corrections et des solutions de "back-up". -Maintenir en condition opérationnelle les applications du système d’information dans un objectif de qualité, de productivité et de sécurité. -Analyser les risques opérationnels et les impacts clients de son domaine de responsabilité -Assurer la gestion des environnements (définition des besoins, validation des environnements de développement et de recette, suivi) -Assurer un rôle de conseil, d’assistance, d’information, de formation et d’alerte en matière d’intégration (définition des composants du SI, pilotage de la mise en œuvre et garantie du niveau de qualité requis). -Participer à la définition des exigences d’exploitabilité sur son domaine de responsabilité et assurer, si nécessaire, l’interface des experts des autres domaines et gérer les échanges avec les fournisseurs. -Participer à la fiabilisation, la sécurisation et l’optimisation de la sécurité sur son domaine de responsabilité -Proposer des solutions innovantes pour améliorer les performances de son domaine d’activité -Garantir le bon niveau de qualité de service en cohérence avec les exigences des contrats de services (SLA) sur son domaine de responsabilité Vous serez intégré au dispositif d'astreinte de l'équipe 24/24 7/7. Spécificités pour les tests techniques : - Prise de connaissance du changement et de son contexte technique - Complète le plan de tests proposé - Prépare les infrastructures de tests - Valide les documents et les procédures à destination de la production - Réalise les différents tests techniques - Analyse les résultats - Contribue au diagnostic en cas de dysfonctionnement - Rédige les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production - Constitue ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures - Effectue le reporting vers le Responsable Intégration - Contribue à l'amélioration continue - Industrialise les tests techniques récurrents (automatisation, outillage?)

CDI

Offre d'emploi
Data Analyst (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Azure
BigQuery

35k-45k €
Lille, Hauts-de-France

🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.

Freelance

Mission freelance
DATA SCIENTIST SENIOR - IA GENERATIVE

DATSUP
Publiée le
AWS Cloud
Azure
Natural Language Processing (NLP)

24 mois
100-550 €
Paris, France

Le Data Scientist Senior sera en charge du développement de modèles IA avancés, en se concentrant sur le traitement du langage naturel (NLP) pour l'analyse, la compréhension et la génération de textes. Il interviendra également sur le traitement d’images, en créant des modèles capables d’interpréter et d’exploiter des données visuelles complexes. De plus, il concevra et déploiera des solutions d'IA générative, incluant les modèles de langage massifs (MLM), les systèmes de récupération augmentée par génération (RAGs), ainsi que les chatbots documentaires.

252 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous