Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 277 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur(se) Fullstack Python

ALLEGIS GROUP
Publiée le
Go (langage)
Google Cloud Platform
Python

6 mois
100-3k €
Hauts-de-France, France

Teksystems recherche pour l'un de ses clients un.e développeur.se FullStack Python / Golang confirmé pour rejoindre l'équipe Cloud Databases. Vous serez un renfort essentiel pour le déploiement et la gestion de notre solution de bases de données dans le Cloud. Si vous êtes curieux, force de proposition et souhaitez vous investir au sein d’une équipe de qualité, ce poste est fait pour vous ! Configurer l’infrastructure matérielle et le système d’exploitation : Installation et gestion des serveurs et des systèmes d’exploitation nécessaires. Concevoir, manipuler et interroger des bases de données : Création et gestion de schémas de bases de données, utilisation de SQL. Développer le code de ‘front-end’ : Création d’interfaces utilisateur en utilisant JavaScript, HTML, CSS et leurs bibliothèques. Gérer et planifier des projets avec des méthodes agiles : Utilisation de Scrum ou Kanban, interaction avec les clients, documentation des projets.

Freelance

Mission freelance
Tech Lead (java / Spring Boot) (H/F) - Lille

Espace Freelance
Publiée le
Google Cloud Platform
Java
Javascript

3 mois
100-510 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Tech Lead (java / Spring Boot) (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - Java - SpringBoot - Vuejs - Javascript - Typescripte - Posgre - Terraform - GCP - Kubernetes Vous savez communiquer en anglais dans un contexte professionnel Votre mission : - Collaborer avec les parties prenantes pour concevoir des solutions techniques optimales ; - Développement back-end (Java/Spring Boot) et front-end (VueJS 3) ; - Rédiger des spécifications fonctionnelles et garantir l'intégration des développements ; - Participer aux ateliers de conception et architecture ; - Assurer la qualité du code, en build et en run Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/TELEJS/104140

CDI

Offre d'emploi
Tech Lead Python

GREEN LINKS
Publiée le
AWS Cloud
Dash
J2EE / Java EE

45k-65k €
Toulouse, Occitanie

Missions : En tant que Tech Lead Python, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions logicielles innovantes. Vos missions incluront : Définir et documenter l'architecture logicielle : Vous serez responsable de l’élaboration des architectures logiciels, en intégrant des technologies modernes et en assurant la performance, la sécurité et la scalabilité des solutions. Leadership technique: définir les orientations techniques, encadrer et former les équipes de développement. Vous promouvrez les meilleures pratiques de développement, conduirez des revues de code et résoudrez des problématiques techniques complexes. Développement full-stack : développer les nouvelles fonctionnalités.

Freelance

Mission freelance
Gestionnaire de Connaissances et de Contenu / Rédacteur Documentaire H/F

Aldemia
Publiée le
Azure
Confluence
DevOps

6 mois
450-600 €
Puteaux, Île-de-France

Dans le cadre de la migration d'un Système d'Information (env. 80% du périmètre technique revu / réécrit), le client veut assurer la qualité de service de son SI cible, son déploiement par lot (migrations), la pérennité et évolutivité de son Système à qualité constante / améliorée. Le Système d'Information vise à gérer les flux entrants / sortants par typologie de format, clients, contreparties, avec des spécificités fonctionnelles ou techniques. Des applications métiers (TMS-Transportation Management System), Web et mobile sont complétées par des flux API et EDI nécessaires aux échanges internes et externes. Le programme de transformation a impliqué de nombreuses documentations sur des supports variés, avec des redondances ou des manques ... Au sein d'une équipe transverse, le Gestionnaire de Connaissances et de Contenu / Rédacteur Documentaire H/F intervient : Sur les différents sujets pilotés par les projets, et interagit également avec les chefs de projets. Les architectes, concepteurs et développeurs du SI sont présents, accessibles et disponibles pour assister le Gestionnaire de Connaissances et de Contenu / Rédacteur Documentaire H/F dans la compréhension de l'écosystème, la proposition / validation des outils proposés / utilisables, mettre en œuvre des éléments d'aide à ces tests. Le Gestionnaire de Connaissances et de Contenu / Rédacteur Documentaire H/F sera chargé de la consolidation et du partage des connaissances du programme auprès des acteurs (PO, testeurs, développeurs, responsables, support, etc..), pour le Système Cible. Les axes documentaires portent sur : le BUILD : les spécifications de base (techniques, fonctionnelles, procédures de travail / déploiement, méthodes, comitologie, glossaire, etc.) le RUN : les évolutions des spécifications, la structuration des FAQ's (ou équivalent) pour répondre aux besoins du support Une partie de la documentation existe déjà pour la partie BUILD, dans différents emplacements, et reste à compléter. Pour la partie RUN tout est à construire. La langue de rédaction est l'anglais. Les responsabilités seront de : Conduire le changement pour une utilisation pratique d'un outil de gestion de connaissance Proposer une structuration de l'espace dédié avec des modèles ou équivalents Proposer une méthodologie d'usage avec des indicateurs d'adoption et de couverture Assurer une partie rédactionnelle d'articles de connaissance, sur des sujets transverses Former les acteurs à la rédaction d'articles suivant les règles définies préalablement Stimuler la rédaction quantitative et qualitative des articles par les acteurs identifiés Adresser toutes les anomalies de documentation vers/au travers des acteurs concernés Industrialiser les process et décrire les méthodes pour une recherche efficace par mots clés Pérenniser et aligner à terme la gestion de la connaissance sur celle du groupe (stratégie, outils)

Freelance

Mission freelance
Mission DevOps Cloud Azure / 1 jour de présentiel

SKILLWISE
Publiée le
Azure
Azure DevOps Server
Azure DevOps Services

6 mois
100-550 €
Paris, France

Vous occuperez le poste de DevOps Azure au sein d'une Start Up dynamique dont les locaux sont situés au coeur de Paris. Vous intégrerez une équipe de 3 personnes composée d'un lead DevOps et d'un autre DevOps. Le projet a connu une migration de Add service vers conteneur App il y a peu. Vôtre rôle sera donc d'intervenir post migration en proposant votre expertise. Les points attendus pour cette mission : Cloud Azure / construction d'une infrastructure pour Azure ML / load balancers Azure / implémentation de VPN sur Azure YAML / Azure DevOps Implémentation d'un DAST (analyse dynamique) SCA SAST Bicep Terraform / Powershell Mise en place d'un service sur un réseau privé Hub and spoke Mise en place d'un WAF / travail avec un WAF

Freelance
CDI

Offre d'emploi
FLUENT ENGLISH - INGÉNIEUR SYSTÈMES INFRASTRUCTURE - WINDOWS / LINUX

Confirm IT Group
Publiée le
Azure
Azure Active Directory
Linux

3 ans
10k-55k €
Île-de-France, France

Notre client recherche un Ingénieur Systèmes infrastructure Windows / Linux afin d’intégrer ses équipes. Lors de cette mission, votre collaborateur devra effectuer les tâches suivantes : • Mise en œuvre des infrastructures systèmes (Windows / Linux) ; • Administration et évolution du périmètre Active Directory ; • Sécurisation des solutions à déployer en collaboration avec les équipes cybersécurité ; • Industrialisation et automatisation des tâches de production relatives à Windows Server/Linux et de leurs composants ; • Mise en place de plans d’actions contre l’obsolescence des serveurs et applications du SI; • Collaborer à la résolution des incidents et des problèmes; • Support aux opérations de mise en services, paramétrage et configuration des plateformes; • Rédaction de dossiers techniques et d’architecture, et mise à jour des procédures et consignes d’exploitations ; • Support de niveau 2 sur le périmètre Helpdesk/Workstation ; • Gestion des solutions identifiées « utilisateurs » (Microsoft 365, Intune, ITSM) ; • Tâches d’administration sur le périmètre Modern Workplace : Packaging logiciel avec Intune, déploiement des politiques sur Windows 10/11, sécurisation du tenant Microsoft 365 ; • Identifie et qualifier les opportunités d’évolution des infrastructures et garder l’esprit ouvert dans le cadre de veilles technologiques (sécurité, MCO des infrastructures, …).

Freelance

Mission freelance
Data Ingénieur/Data Scientist

ALLEGIS GROUP
Publiée le
AWS Cloud
CI/CD

6 mois
130-3k €
Hauts-de-Seine, France

Nous recherchons pour l’un de nos clients un Data Ingénieur/Data Scientist pour une mission freelance : Objectifs et Livrables : Intégrer une équipe pluridisciplinaire de Data Ingénieurs et Data Scientists. Industrialiser un algorithme de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement de Travail : Lake House On Premise avec des technologies équivalentes au Cloud. Trajectoire vers AWS. CICD / AWS / Python / Kubernetes / StockageS3 / SQL / Git / Pyspark / Dataiku / Hive

CDI
Freelance

Offre d'emploi
DATA INGÉNIEUR - DEVOPS BIG DATA / AWS

Digistrat consulting
Publiée le
AWS Cloud

36 mois
10k-60k €
Paris, France

💼 Poste : DATA INGÉNIEUR - DEVOPS BIG DATA / AWS 🏭 Secteurs stratégiques : Banque 🗓 Démarrage : ASAP 💡 Contexte /Objectifs Digital and Data Services est la DSI transverse au service de la Filière IT et des Métiers. Elle est en charge des fondations digitales : fondations IT (gestion d'identité, outils Filière IT), capacités data (socle Big Data), référentiels Groupe, capacités digitales standards. Au sein de l'entité, le service est en charge de la plateforme et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management, urbanisation des architectures de données. Dans ce cadre, le service avec ses partenaires souhaite développer l'utilisation du datalake sur cloud publique MS Azure (ADLS GEN2 / SYNAPSE) et AWS (S3) et l'interopérabilité avec le datalake On Premise. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La définition des moyens cibles dans le respect des engagements pris suivant respectant le besoin métier et déployable en production - La mise en place et le support des environnements de production et intégration - L'industrialisation (principes d'infra as code) Environnement agile. 🤝 Livrables attendus: - Validation de la faisabilité technique - Mise en œuvre de la solution. - Support des demandes clients sur les environnements de production et integration. - Automatisation des demandes récurrentes et mise à disposition de self service ou API à destination des clients. 🤝 Expertises spécifiques : • Amazon Web Services ( AWS ) • Ansible • Compétences en développement (Shell unix, Perl, PHP, Python, git, github) • Continuous Integration • Docker • Java • Jenkins • JIRA • OpenShift • Spark • Stockage Scality (Ring)

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

Freelance

Mission freelance
Architecte Cloud AWS (H/F)

Insitoo Freelances
Publiée le
AWS Cloud

2 ans
600-720 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Cloud AWS (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site 2 jours + 3 jours télétravail Les missions attendues par le Architecte Cloud AWS (H/F) : Le Cloud Architect assure la meilleure utilisation du Cloud au sein du sous-domaine N3, en lien avec les besoins métiers et les principes directeurs data, SI&T du programme. Il construit les architectures Cloud, challenge les propositions, apporte son aide et ses conseils aux équipes Produit et fait le lien avec les autres architectes. RÔLE ET RESPONSABILITÉS PROFIL TYPE S'assure de l'utilisation optimale des services Cloud sur la Landing Zone EDF, identifie les limites S'assure que les services Cloud utilisés répondent aux objectifs business S'assure que l'architecture réponde aux enjeux de sécurité Participe à l'identification des exigences non fonctionnelles (e.g. scalabilité, performance, disponibilité…) Participe à la définition et à la priorisation des enablers technologiques et exigences non fonctionnellesn de son sous -domaine Identifie et remonte les besoins d'amélioration des plateformes Cloud aux équipes transverses Audit, challenge et conseille les équipes Produit sur les choix techniques Participe à la rédaction des dossiers techniques et cyber Appuie l'architecte solution sur les dossiers d'étude technique (cloud, data, sécurité, ...) et apporte son expertise sur les services Cloud et leur implémentation S'appuie sur les équipes cyber pour s'assurer de la résilience cyber, et remonte les besoins d'amélioration sur les aspects cyber Intervient auprès des équipes tout au long de la vie du Produit Garant de la bonne application des exigences et principes directeurs data, cyber, SI&T du programme et de la bonne utilisation des services et outils communs Participe à l'amélioration continue des plateformes Cloud en étant force de proposition pour y apporter des patterns/ templates mutualisables à l'ensemble des produits Participe activement à la communauté d'architecture du Programme

Freelance

Mission freelance
Ingénieur DevOps (H/F) - Lille

Espace Freelance
Publiée le
Azure
DevOps
Docker

3 mois
100-550 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Ingénieur DevOps (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - Azure (Offres PaaS) - Azure DevOps - Terraform - GIT - Docker ; Kubernetes - Système Windows et Linux Votre mission : - Vous intervenez en tant que support · Vous accompagnez les utilisateurs sur le fonctionnement des outils · Vous donnez votre avis sur les choix techniques à effectuer · Vous réalisez l’administration de ressources Azure et Kubernetes · Vous traitez les incidents - Vous réalisez l’administration des plateformes de développement et déploiement · Vous réalisez le MCO des outils · Vous effectuez des montées de version lorsque cela est nécessaire - Vous prenez part aux projets · Vous mettez en place des POC · Vous réalisez des études d’impacts · Vous tenez à jour la documentation technique Vous avez de l’expérience sur un poste similaire

Freelance

Mission freelance
Data Engineer

INSYCO
Publiée le
Gitlab
GitLab CI
Google Cloud Platform

15 mois
450-600 €
Paris, France

Nous recherchons pour notre client grand compte, secteur médias, un Data Engineer répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées par MAIL [à freelance à insyco . fr] avec les informations suivantes : - Argumentaire écrit répondant de façon ciblée au besoin - CV à jour (format Word) - Date de prochaine disponibilité - Tarif journalier - Merci d’indiquer la référence VSE/DATA/4525 en objet du mail La Direction Technique du Numérique de notre client mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Avec pour objectif d’accélérer dans le déploiement de la Gouvernance des données au sein de notre plateforme Data, nous souhaitons constituer une nouvelle équipe en charge de déployer les différents datasets organisés par domaine de données. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constituée de Python, Spark, SQL, dbt, BigQuery et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions de cette équipe : 1- Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2- Accompagner les utilisateurs dans leurs usages 3- Mettre en place le contrôle qualité sur ces datasets Prestation attendue pour les 2 lots En interaction avec les membres de l’équipe, la prestation consistera à - Construire et maintenir de pipelines data robustes et scalables - Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données - Organiser et structurer le stockage des données - Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données - Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données - Construire et maintenir les workflows de la CI/CD centrés données - Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur - Participer à la guilde des data ingénieurs - Assurer l’évolutivité, la sécurité, la stabilité des environnements - Contribuer et veiller à la mise à jour de la documentation - Faire de la veille technologique active dans le domaine - Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe

Freelance
CDI
CDD

Offre d'emploi
Senior SRE GCP (ref - AG)

FIRST CONSEIL
Publiée le
Ansible
Google Cloud Platform
Jenkins

6 mois
50k-62k €
Île-de-France, France

Compétences indispensables : Expert en infrastructure Azure/GCP Très bonne maîtrise sur la manipulation des certificats des reverse proxy (LB7 GCP, NGINX, HA proxy) Maîtrise des composants en Private access Excellente maîtrise de la gestion des droits Azure/GCP: l'objectif étant de respecter le principe de "moindre privilège". Excellente maîtrise autour des VPC Peering et les quotas associés. Tout est fait "as code" au travers de notre plateforme CI/CD (Terraform, Ansible, Jenkins..). Autres informations : Fonctionnellement, nos clients doivent pouvoir être autonomes et faire un maximum de "self service" sur les changements d’infrastructure, souvent orientés sur la configuration des équipements de sécurité et les expositions de services. Nous prenons en charge la complexité pour que l’usage soit facilité pour nos clients ! Nous agissons en tant que Cloud Service Provider interne. Nous fournissons les socles Cloud pour l’ensemble des projets. Nous construisons et faisons le run des infrastructures partagées pour différents types de workloads de production. Nous améliorons notre service en continu, via une automatisation toujours plus poussée (self healing, immutable) Nous utilisons les best practices SRE.

Freelance

Mission freelance
Développeur back

Coriom Conseil
Publiée le
Apache Kafka
Google Cloud Platform
Mongodb

12 mois
100-510 €
Lille, Hauts-de-France

Spring - Confirmé - Impératif MongoDB - Confirmé - Important Kafka - Confirmé - Important GCP - Junior - Serait un plus Connaissances linguistiques Anglais Lu, écrit (Impératif) Nous recherchons un profil pour venir en renfort sur le moteur d’offres promotionnelles, qui se trouve au cœur de l’activité de l’équipe. Le moteur d’offres gère la conception et l’activation des offres, qu’elles soient promotionnelles ou non transactionnelles (ex: promotions, gains de points bonus pour le client sur la base de ses interactions, promotions ciblées…). L’équipe gère les référentiels des comptes fidélité de toutes les Business Units du groupe. Dans ce cadre, nous recherchons un profil qui ait également une forte appétence “Data”, car cette composante se trouve au cœur de nos activités. En complément, nous avons ponctuellement besoin de renfort sur le Frontend. Une appétence pour les sujets Front (VueJS) serait donc un plus.

Freelance

Mission freelance
QA Salesforce

MANAVA LTD
Publiée le
JIRA
Méthode Agile
Salesforce Sales Cloud

5 mois
450-500 €
Paris, France

QA Salesforce avec 4/5 années d'expérience minimum. Il sera demandé : d'établir les plans de test s'assurer des non-régressions préparer les jeux de données aide à la résolution des anomalies évolution en méthodologie Agile échanger avec les différentes équipes (Design Authority, équipes clients, intégrateur) Identification, priorisation et résolution des anomalies Savoir naviguer dans le paramètrage de Salesforce (rôles et profils, hiérarchie, sharing rules, approbation rules, triggers, validation rules)

Freelance
CDD

Offre d'emploi
Data Analyst H/F

SMARTPOINT
Publiée le
Google Cloud Platform
Microsoft SQL Server
Python

3 mois
10k-40k €
Paris, France

l'équipe est composée d’experts du métier des paiements et de la data. Le Data Analyst h/f interviendra principalement sur l’accompagnement des phases d’avant-vente et sur l’implémentation d’analyses à destination des clients. Le Data Analyst H/F pourra le cas échéant intervenir sur la partie Observatoires, pour mettre à disposition des visions enrichies du marché, des tendances pour aider la prise de décisions et favoriser les initiatives sur les axes stratégiques majeurs, grâce à une meilleure autonomie dans la consommation de data. Objectifs : • Comprendre l’environnement et les métiers • Définition et certification des KPI des Observatoires (dont compliance) • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Accompagnement des forces commerciales notamment dans la production de livrables facilitant les phases d’avant-vente • Participation au projet d’implémentation des livrables d’analyse, une fois la contractualisation faite avec un client

1277 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous